You are on page 1of 12

Vector propio y valor propio

En álgebra lineal, los vectores propios, autovectores o eigenvectores de


un operador lineal son los vectores no nulos que, cuando son
transformados por el operador, dan lugar a un múltiplo escalar de sí
mismos, con lo que no cambian su dirección. Este escalar recibe el
nombre valor propio, autovalor, valor característico o eigenvalor. A
menudo, una transformación queda completamente determinada por sus
vectores propios y valores propios. Un espacio propio, autoespacio,
eigenespacio o subespacio fundamental asociado al valor propio es el
conjunto de vectores propios con un valor propio común.

La palabra alemana eigen, que se traduce en español como propio, se usó


por primera vez en este contexto por David Hilbert en 1904 (aunque
Helmholtz la usó previamente con un significado parecido). Eigen se ha Fig. 1. En esta transformación de laMona
traducido también como inherente, característico o el prefijo auto-, donde Lisa, la imagen se ha deformado de tal forma
que su eje vertical no ha cambiado. (nota: se
se aprecia el énfasis en la importancia de los valores propios para definir la
han recortado las esquinas en la imagen de la
naturaleza única de una determinada transformación lineal. Las
derecha). El vector azul, representado por la
denominaciones vector y valor característicos también se utilizan flecha azul que va desde el pecho hasta el
habitualmente. El uso del prefijo auto- es un caso propio y singular que se hombro, ha cambiado de dirección, mientras
da solamente español, portugués e italiano. En otras lenguas con más que el rojo, representado por la flecha roja, no
tradición en Matemáticas (alemán, holandés, inglés, francés, ruso, etc.) ha cambiado. El vector rojo es entonces un
vector propio de la transformación, mientras
nadie parece haber traducidoeigen- (propio, perteneciente a, etc.) porauto-
que el azul no lo es. Dado que el vector rojo
(que nada tiene que ver con la etimología o el significado del prefijo
no ha cambiado de longitud, suvalor propio
eigen). es 1. Todos los vectores de esta misma
dirección son vectores propios, con el mismo
valor propio. Forman un subespacio del
espacio propio de este valor propio.

Índice
1 Introducción
1.1 Definición
2 Ejemplos
3 Casos de interés especial
4 Ecuación del valor propio
5 Teorema espectral
6 Vectores propios y valores propios de matrices
6.1
Cálculo de valores propios y vectores propios de matrices
6.1.1 Cálculo simbólico
6.1.2 Cálculo numérico
6.2 Propiedades
6.2.1 Multiplicidad algebraica
6.2.2
Teoremas de descomposición para matrices
generales
6.2.3
Otras propiedades de los valores propios
6.3 Vector propio conjugado
6.4 Problema de valor propio generalizado
6.5 Entradas de un anillo
7 Espacios de dimensión infinita
8 Aplicaciones
9 Véase también
10 Referencias
11 Bibliografía
12 Enlaces externos

Introducción
Las transformaciones lineales del espacio —como la rotación, la reflexión, el ensanchamiento, o cualquier combinación de las
anteriores; en esta lista podrían incluirse otras transformaciones— pueden interpretarse mediante el efecto que producen en los
vectores. Los vectores pueden visualizarse como flechas de una ciertalongitud apuntando en una dirección ysentido determinados.

Los vectores propios de las transformaciones lineales son vectores que, o no son afectados por la transformación
o sólo resultan multiplicados por unescalar; y, por tanto, no varían su dirección.1
El valor propio de un vector propio es el factor de escala por el que ha sido multiplicado.
Un espacio propio es un espacio formado por todos los vectores propios del mismo valor propio, además del
vector nulo, que no es un vector propio.
La multiplicidad geométrica de un valor propio es ladimensión del espacio propio asociado.
El espectro de una transformación enespacios vectoriales finitos es el conjunto de todos sus valores propios.
Por ejemplo, un vector propio de una rotación en tres dimensiones es un vector situado en el eje de rotación sobre el cual se realiza la
rotación. El valor propio correspondiente es 1 y el espacio propio es el eje de giro. Como es un espacio de una dimensión, su
multiplicidad geométricaes uno. Es el único valor propio delespectro (de esta rotación) que es unnúmero real.

Definición
Formalmente, se definen los vectores propios y valores propios de la siguiente manera: Sea A: V → V un operador lineal en un cierto
-espacio vectorial V y v un vector no nulo en V. Si existe un escalar c tal que

entonces decimos quev es un vector propio del operadorA, y su valor propio asociado es c. Observe que si v es un vector propio con
el valor propio c entonces cualquier múltiplo diferente de cero de v es también un vector propio con el valor propio c. De hecho,
todos los vectores propios con el valor propio asociado c junto con 0, forman un subespacio de V, el espacio propio para el valor
propio c. Observe además que un espacio propio Z es un subespacio invariante de A, es decir dado w un vector en Z, el vector Aw
también pertenece a Z.

Ejemplos
A medida que la Tierra rota, los vectores en el eje de rotación permanecen invariantes. Si se considera la transformación lineal que
sufre la Tierra tras una hora de rotación, una flecha que partiera del centro de la Tierra al polo Sur geográfico sería un vector propio
de esta transformación, pero una flecha que partiera del centro a un punto del ecuador no sería un vector propio. Dado que la flecha
que apunta al polo no cambia de longitud por la rotación, su valor propio es 1.

Otro ejemplo sería una lámina de metal que se expandiera uniformemente a partir de un punto de tal manera que las distancias desde
cualquier punto al punto fijo se duplicasen. Esta expansión es una transformación con valor propio 2. Cada vector desde el punto fijo
a cualquier otro es un vector propio, y el espacio propio es el conjunto de todos esos vectores.
Sin embargo, el espacio geométrico tridimensional no es el único espacio
vectorial. Por ejemplo, considérese una cuerda sujeta por sus extremos,
como la de un instrumento de cuerda (mostrada a la derecha). La distancia
de los átomos de la cuerda vibrante desde sus posiciones cuando ésta está
en reposo pueden interpretarse como componentes de un vector en el
espacio con tantas dimensiones como átomos tenga dicha cuerda. Una onda estacionaria en una cuerda fija en
sus cabos o, más concretamente, una función
Si se supone que la cuerda es un medio continuo y se considera la propia de la transformación correspondiente
transformación de la cuerda en el transcurso del tiempo, sus vectores al transcurso del tiempo. A medida que varía
propios o funciones propias son sus ondas estacionarias—lo que, mediante el tiempo, la onda estacionaria varía en
amplitud, pero su período no se modifica. En
la intervención del aire circundante, se puede interpretar como el resultado
este caso el valor propio es dependiente del
de tañer una guitarra. Las ondas estacionarias corresponden a oscilaciones
tiempo.
particulares de la cuerda tales que la forma de la cuerda se escala por un
factor (el valor propio) con el paso del tiempo. Cada componente del
vector asociado con la cuerda se multiplica por este factor dependiente del tiempo. Las amplitudes (valores propios) de las ondas
estacionarias decrecen con el tiempo si se considera la atenuación. En este caso se puede asociar un
tiempo de vida al vector propio, y
relacionar el concepto de vector propio con el concepto deresonancia.

Casos de interés especial


Intuitivamente, para lastransformaciones linealesdel espacio de dos dimensiones , los vectores propios son:

rotación: ningún vector propio de valores reales (existen en cambio pares valor propio, vector propio complejos).

reflexión: los vectores propios son perpendiculares y paralelos al eje de simetría, los valores propios son -1 y 1,
respectivamente.

escalado uniforme: todos los vectores son vectores propios, y el valor propio es el factor de escala.

proyección sobre una recta: los vectores propios con el valor propio 1 son paralelos a la línea, vectores propios con
el valor propio 0 son perpendiculares a la dirección de la proyección

Ecuación del valor propio


Matemáticamente, vλ es un vector propio yλ el valor propio correspondiente de una transformaciónT si verifica la ecuación:

donde T(vλ) es el vector obtenido al aplicar la transformaciónT a vλ.

Supóngase que T es una transformación lineal (lo que significa que para todos los escalares a, b,
y los vectores v, w). Considérese una base en ese espacio vectorial. Entonces, T y vλ pueden representarse en relación a esa base
mediante una matriz AT y un vector columna vλ—un vector vertical unidimensional. La ecuación de valor propio en esta
representación matricial se representa de la siguiente forma:

donde la yuxtaposición es un producto de matrices. Dado que en esta circunstancia la transformación T y su representación matricial
AT son equivalentes, a menudo podemos emplear sóloT para la representación matricial y la transformación. Esto es equivalente a un
conjunto de n combinaciones lineales, donde n es el número de vectores de la base. En esta ecuación, tanto el valor propio λ y las n
componentes de vλ son desconocidos. Sin embargo, a veces es poco natural o incluso imposible escribir la ecuación de valor propio
en forma matricial. Esto ocurre, por ejemplo, cuando el espacio vectorial es de dimensión infinita, como por ejemplo en el caso de la
cuerda mostrada anteriormente. Dependiendo de la naturaleza de la transformación T y el espacio al que se aplica, puede ser
ventajoso representar la ecuación de valor propio como un conjunto de ecuaciones diferenciales, donde los vectores propios reciben a
menudo el nombre de autofunciones del operador diferencial que representa a T. Por ejemplo, la derivación misma es una
transformación lineal, ya que (sif(t) y g(t) son funciones derivables y a y b son constantes)

Considérese la diferenciación con respecto a . Sus autofunciones h(t) obedecen a la ecuación de valor propio:

donde λ es el autovalor asociado con la función. Una función en el tiempo es constante si , crece proporcionalmente a sí misma
si es positiva, y decrece proporcionalmente a sí misma si es negativa. Por ejemplo, una población ideal de conejos engendra con
más frecuencia a medida que hay más conejos, y por tanto satisface la ecuación para lambda positivo.

La solución a la ecuación de valor propio es , la función exponencial; pues esa función es una función propia del
operador diferencial d/dt con el valor propio λ. Si λ es negativa, la evolución de g se denomina decaimiento exponencial; si es
positiva se denomina crecimiento exponencial. El valor de λ puede ser cualquier número complejo. El espectro de d/dt es entonces el
plano complejo en su totalidad. En este ejemplo el espacio vectorial en el que actúa d/dt es el espacio de las funciones derivables de
una variable. Este espacio tiene una dimensión infinita (pues no es posible expresar cada función diferenciable como combinación
lineal de un número finito de funciones base). No obstante, el espacio propio asociado a un valor propio determinado λ es
unidimensional. Es el conjunto de todas las funciones , donde A es una constante arbitraria, la población inicial en
t=0.

Teorema espectral
El teorema espectral muestra la importancia de los valores propios y vectores propios para caracterizar una transformación lineal de
forma única. En su versión más simple, el teorema espectral establece que, bajo unas condiciones determinadas, una transformación
lineal puede expresarse como la combinación lineal de los vectores propios con coeficientes de valor igual a los valores propios por
el producto escalar de los vectores propios por el vector al que se aplica la transformación, lo que puede escribirse como:

donde y representan a los vectores propios y valores propios de . El caso más simple en el que tiene validez
el teorema es cuando la transformación lineal viene dada por unamatriz simétrica real o una matriz hermítica compleja.

Si se define la enésima potencia de una transformación como el resultado de aplicarla n veces sucesivas, se puede definir también el
polinomio de las transformaciones. Una versión más general del teorema es que cualquier polinomio
P de es igual a:

El teorema puede extenderse a otras funciones o transformaciones tales como funciones analíticas, siendo el caso más general las
funciones de Borel.

Vectores propios y valores propios de matrices

Cálculo de valores propios y vectores propios de matrices


Si se quiere calcular los valores propios de una matriz dada y ésta es pequeña, se puede calcular simbólicamente usando el polinomio
característico. Sin embargo, a menudo resulta imposible para matrices extensas, caso en el que se debe usar unmétodo numérico.
Cálculo simbólico

Cálculo de los valores propios

Una herramienta importante para encontrar valores propios de matrices cuadradas es el polinomio característico: decir que λ es un
valor propio de A es equivalente a decir que el sistema de ecuaciones linealesA v = λ v → A v - λ v = 0 (factorizando por v queda) (A
- λI) v = 0 (donde I es la matriz identidad) tiene una solución no nula v (un vector propio), y de esta forma es equivalente al
determinante:

La función p(λ) = det(A - λI) es un polinomio de λ pues los determinantes se definen como sumas de productos. Éste es el polinomio
característico de A: los valores propios de una matriz son los ceros de supolinomio característico.

Todos los valores propios de una matrizA pueden calcularse resolviendo la ecuación .

Si A es una matriz n×n, entonces tiene grado n y A tiene como máximo n valores propios.

El teorema fundamental del álgebra dice que esta ecuación tiene exactamente n raíces (ceros), teniendo en cuenta su multiplicidad.
Todos los polinomios reales de grado impar tienen un número real como raíz, así que para n impar toda matriz real tiene al menos
valor propio real. En el caso de las matrices reales, paran par e impar, los valores propios no reales sonpares conjugados.

Cálculo de los vectores propios

Una vez que se conocen los valores propios λ, los vectores propios se pueden hallar resolviendo el sistema de ecuaciones homogéneo:

Una forma más sencilla de obtener vectores propios sin resolver un sistema de ecuaciones lineales se basa en el teorema de Cayley-
Hamilton que establece que cada matriz cuadrada satisface su propio polinomio característico. Así, si son los valores
propios de A se cumple que

por lo que los vectores columna de son vectores propios de .

Ejemplo de matriz sin valores propios reales

Un ejemplo de matriz sin valores propios reales es la rotación de 90 grados en el sentido de las manecillas del reloj:

cuyo polinomio característico es y sus valores propios son el par de conjugados complejos i, -i. Los vectores propios
asociados tampoco son reales.

Ejemplo

Considérese la matriz
que representa un operador lineal R³ → R³. Si se desea computar todos los valores propios de A, se podría empezar determinando el
polinomio característico:

y porque p(x) = - (x - 2)(x - 1)(x + 1) se ve que los valores propios de A son 2, 1 y -1. El teorema de Cayley-Hamilton establece que
cada matriz cuadrada satisface su propio polinomio característico. Es decir

Efectivamente, para el caso del valor propio 2, se puede comprobar que

de donde (1, 1, -1) es un vector propio asociado a 2.

Cálculo numérico
En la práctica, los valores propios de las matrices extensas no se calculan usando el polinomio característico. Calcular el polinomio
resulta muy costoso, y extraer las raíces exactas de un polinomio de grado alto puede ser difícil de calcular y expresar: el teorema de
Abel-Ruffini implica que las raíces de los polinomios de grado alto (5 o superior) no pueden expresarse usándose simplemente raíces
enésimas. Existen algoritmos eficientes para aproximar raíces de polinomios, pero pequeños errores en la estimación de los valores
propios pueden dar lugar a errores grandes en los vectores propios. En consecuencia, los algoritmos generales para encontrar vectores
propios y valores propios son iterativos. La manera más fácil es el método de las potencias: se escoge un vector aleatorio y se
calcula una secuencia devectores unitarios:

, , ,...

Esta sucesión casi siempre convergerá a un vector propio correspondiente al mayor valor propio. Este algoritmo es sencillo, pero no
demasiado útil aisladamente. Sin embargo, hay métodos más populares, como ladescomposición QR, que se basan en él.

Propiedades

Multiplicidad algebraica
La multiplicidad algebraica de un valor propio λ de A es el orden de λ como cero del polinomio característico de A; en otras
palabras, si λ es una de las raíces del polinomio, es el número de factores (t − λ) en el polinomio característico tras la factorización.
Una matriz n×n, con entradas complejas, tiene n valores propios, contados de acuerdo con su multiplicidad algebraica, ya que su
polinomio característico tiene gradon.

Un valor propio de multiplicidad algebraica 1 recibe el nombre de "valor propio simple".

Por ejemplo, se pueden encontrar exposiciones como la siguiente en artículos de


teoría de matrices:

"los valores propios de una matriz A son 4,4,3,3,3,2,2,1,"

lo que significa que la multiplicidad algebraica de 4 es dos, la de 3 es tres, la de 2 es dos y la de 1 es uno. Se emplea este estilo
porque la multiplicidad algebraica es la clave de muchasdemostraciones matemáticasen teoría de matrices.

Anteriormente se ha definido la multiplicidad geométrica de un valor propio como la dimensión del espacio propio asociado, o el
núcleo (espacio propio de los vectores propios del valor propio nulo) de λI - A. La multiplicidad algebraica también puede entenderse
como una dimensión: es la dimensión del espacio propio generalizado (1.er sentido) asociado, que es el núcleo de la matriz (λI - A)k
para k suficientemente grande. Es decir, es el espacio de los vectores propios generalizados (1.er sentido), donde un vector propio
generalizado es cualquier vector que toma valor 0 sí λI - A se aplica suficientes veces en sucesión. Cualquier vector propio es un
vector propio generalizado, así que cualquier espacio propio está contenido en el espacio propio generalizado asociado. Esto
proporciona una demostración simple de que la multiplicidad geométrica es siempre menor o igual a la algebraica. El primer sentido
no debe de confundirse con el problema devalores propios generalizadostal y como se muestra más adelante.

Por ejemplo:

Sólo tiene un valor propio λ = 1. El polinomio característico es , así que este valor propio tiene multiplicidad algebraica 2.

Sin embargo, el espacio propio asociado es el eje, que normalmente recibe el nombre de eje x, generado por el vector unitario ,

así que la multiplicidad geométrica es 1.

Los vectores propios generalizados pueden usarse para calcular la forma normal de Jordan de una matriz (comentado más adelante).
El hecho de que los bloques de Jordan en general no son diagonales sino nilpotentes está directamente relacionado con la distinción
entre vectores propios y vectores propios generalizados.

Teoremas de descomposición para matrices generales


El teorema de descomposición es una versión del teorema espectral en una clase concreta de matrices. Este teorema se explica
normalmente en términos de transformación coordinada. SiU es una matriz invertible, puede verse como una transformación entre un
sistema de coordenadas a otro, donde las columnas deU son las componentes de la nueva base de vectores expresados en términos de
la base anterior. En este nuevo sistema las coordenadas del vector se representan por , que puede obtenerse mediante la relación
y, por otra parte, se tiene . Aplicando sucesivamente , y , a la relación
proporciona con , la representación de A en la nueva base. En esta situación, se dice que las matrices A y
son semejantes.

El teorema de descomposición declara que, si se eligen como columnas de n vectores propios linealmente independientes de A,
la nueva matriz es diagonal y sus elementos en la diagonal son los valores propios de A. Si esto es posible, entonces
A es una matriz diagonalizable. Un ejemplo de una matriz no diagonalizable es la matrizA ya mostrada:

Hay muchas generalizaciones de esta descomposición que pueden tratar con el caso no diagonalizable, diseñadas con diferentes
propósitos:
la descomposición de Schurdeclara que toda matriz es equivalente a una matriz triangular
.
la descomposición en valores singulares, donde es diagonal con U y V matrices unitarias, los
elementos de la diagonal de no son negativos y reciben el nombre de valores singulares de A. Esta
descomposición también puede hacerse en matrices no cuadradas.
la forma normal de Jordan, donde y no es diagonal sino diagonal por bloques. El número y
tamaño de los bloques de Jordan están determinados por las multiplicidades geométrica y algebraica de los valores
propios. La descomposición de Jordan es un resultado fundamental. A partir de ella se puede deducir
inmediatamente que una matriz cuadrada está descrita completamente por sus valores propios, incluyendo la
multiplicidad. Esto muestra matemáticamente el importante papel que desempeñan los valores propios en el estudio
de matrices.
como consecuencia inmediata de la descomposición de Jordan, cualquier matriz A puede escribirse de forma única
como A=S + N donde S es diagonalizable, N es nilpotente (por ejemplo, tal que Nq=0 para un cierto q), y S cumple
la propiedad conmutativa del producto SN=NS).
(

Otras propiedades de los valores propios


El espectro es invariante bajo transformaciones semejantes: las matrices A y P-1AP tienen los mismos valores propios para cualquier
matriz A y cualquier matriz invertible P. El espectro es también invariante a latrasposición de las matrices: A y A T tienen los mismos
valores propios.

Dado que una transformación lineal en espacios de dimensiones finitas es biyectiva si y sólo si es inyectiva, una matriz es invertible
si y sólo si cero no es un valor propio de la matriz.

Otras consecuencias de la descomposición de Jordan son:

una matriz es matriz diagonalizable si y sólo si las multiplicidades geométrica y algebraica coinciden para todos sus
valores propios. En particular una matrizn×n que tiene n valores propios diferentes es siempre diagonalizable;
Dado que la traza, o la suma de elementos de la diagonal principal de una matriz se preserva en la equivalencia
unitaria, la forma normal de Jordan constata que es igual a la suma de sus valores propios.
De forma similar, dado que los valores propios de una matriz triangular son las entradas de la diagonal principal su
determinante es igual al producto de los valores propios (contados de acuerdo con su multiplicidad algebraica).
Algunos ejemplos de la localización del espectro de ciertas subclases de matrices normales son:

Todos los valores propios de una matriz hermítica (A = A*) son reales. Además, todos los valores propios de una
matriz definida positivason positivos;
Todos los valores propios de unamatriz antihermítica (A = −A*) son imaginarios puros;
Todos los valores propios de unamatriz unitaria (A-1 = A*) tienen valor absoluto uno;
Si A es una matriz m×n con m ≤ n, y B es una matriz n×m, entonces BA tiene los mismos valores propios de AB más n − m valores
propios nulos.

A cada matriz se le puede asociar una norma vectorial, que depende de la norma de su dominio, el operador norma de una matriz
cuadrada es una cota superior del módulo de sus valores propios, y por tanto de su radio espectral. Esta norma está directamente
relacionada con el método de las potencias para calcular el valor propio de mayor módulo. Para matrices normales, el operador norma
(la norma euclídea) es el mayor módulo entre de sus valores propios.

Vector propio conjugado


Un vector propio conjugado es un vector que tras la transformación pasa a ser un múltiple escalar de su conjugado, donde el escalar
recibe el nombre de valor propio conjugado de la transformación lineal. Los vectores propios y valores propios conjugados
representan esencialmente la misma información y significado que los vectores propios y valores propios, pero aparecen cuando se
utiliza un sistema de coordenadas alternativo. La ecuación correspondiente es:
Por ejemplo, en teoría de electromagnetismo disperso, la transformación lineal A representa la acción efectuada por el objeto
dispersor, y los vectores propios representan los estados de polarización de la onda electromagnética. En óptica, el sistema
coordenado se define a partir del punto de vista de la onda, y lleva a una ecuación de valor propio regular, mientras que en radar, el
sistema coordenado se define desde el punto de vista del radar
, y da lugar a una ecuación de valor propio conjugado.

Problema de valor propio generalizado


Un problema de valor propio generalizado (2º sentido) es de la forma

donde A y B son matrices. Los valores propios generalizados (2º sentido) λ pueden obtenerse resolviendo la ecuación

El conjunto de matrices de la forma , donde es un número complejo, recibe el nombre de lápiz si B es invertible, entonces
el problema original puede escribirse en la forma

que es un problema de valores propios estándar. Sin embargo, en la mayoría de situaciones es preferible no realizar la inversión, y
resolver el problema de valor propio generalizado con la configuración original.

Si A y B son matrices simétricas con entradas reales, entonces los valores propios son reales. Esto se aprecia tan fácilmente a partir de
la segunda formulación equivalente, pues la matriz no es necesariamente simétrica siA y B lo son.

La aplicación de moleculares orbitales expuesta más adelante proporciona un ejemplo de este caso.

Entradas de un anillo
En una matriz cuadradaA con entradas de un anillo, λ recibe el nombre devalor propio por la derecha si existe un vector columna x
tal que Ax=λx, o un valor propio por la izquierdasi existe un vector fila no nuloy tal que yA=yλ.

Si el anillo es conmutativo, los valores propios por la izquierda son iguales a los valores propios por la derecha y se les llama
simplemente valores propios.

Espacios de dimensión infinita


Si el espacio vectorial es de dimensión infinita, la noción de valores propios
puede generalizarse al concepto de espectro. El espectro es el conjunto de
escalares λ para el que , no está definido, esto es, tal que
no tiene inversa acotada. Fig. 3. Espectro de absorción de un átomo
de calcio. Los picos corresponden, en
Si λ es un valor propio deT, λ está en el espectro de T. En general, el recíproco teoría, al espectro discreto (series de
no es verdadero. Hay operadores en los espacios de Hilbert o Banach que no Rydberg) del hamiltoniano; la amplia
tienen vectores propios. Por ejemplo, tómese un desplazamiento bilateral en el estructura de la derecha se asocia al
espacio de Hilbert ; ningún vector propio potencial puede ser cuadrado- espectro continuo (ionización). Los
resultados experimentales asociados se
sumable, así que no existe ninguno. Sin embargo, cualquier operador lineal
han obtenido midiendo la intensidad de
acotado en un espacio de Banach V tiene espectro no vacío. El espectro los rayos X absorbidos por un gas de
del operador T V → V se define como átomos como función de laenergía de
incidencia de los fotones en eV.2
no es invertible
Entonces σ(T) es un conjunto compacto de números complejos, y es no vacío. Cuando T es un operador compacto (y en particular
cuando T es un operador entre espacios finito-dimensionales como arriba), el espectro de T es igual que el conjunto de sus valores
propios.

En espacios de dimensión infinita, el espectro de un operador acotado es siempre no vacío, lo que también se cumple para operadores
adjuntos propios no acotados. A través de su medida espectral, el espectro de cualquier operador adjunto propio, acotado o no, puede
descomponerse en sus partes absolutamente continua, discreta, y singular. El crecimiento exponencial proporciona un ejemplo de un
espectro continuo, como en el caso anterior de la cuerda vibrante. El átomo de hidrógeno es un ejemplo en el que aparecen ambos
tipos de espectro. El estado ligado del átomo de hidrógeno corresponde a la parte discreta del espectro, mientras que el proceso de
ionización queda descrito por la parte continua.

Aplicaciones
Ecuación de Schrödinger

Un ejemplo de una ecuación de valor propio donde la transformación se


representa en términos de un operador diferencial es la ecuación de
Schrödinger independiente del tiempo de lamecánica cuántica:

Donde H, el Hamiltoniano, es un operador diferencial de segundo orden y


la función de onda, es una de las funciones propias correspondientes al
valor propio E, interpretado como laenergía.

Sin embargo, en caso de que sólo se busquen soluciones para los estados
ligados de la ecuación de Schrödinger, como suele ser el caso en química
cuántica, se buscará en el espacio de las funciones de cuadrado
integrable. Dado que este espacio es un espacio de Hilbert, con un
La función de onda asociada a los estados
producto escalar bien definido, podemos introducir una base en la que se
ligados de un electrón en un átomo de
puede representar y H como un vector unidimensional y una matriz hidrógeno puede verse como los vectores
respectivamente. Esto permite representar la ecuación de Schrödinger en propios del átomo de hidrógeno hamiltoniano
forma matricial. así como al operador momento angular. Está
asociada a los valores propios interpretados
La notación bra-ket, utilizada a menudo en este contexto, pone énfasis en como sus energías (incrementándose según
la diferencia entre el vector o estado y su representación, la función n=1,2,3,...) y al momento angular
. En este contexto se escribe la ecuación de Schrödinger (incrementándose segúns,p,d,...). Aquí se
muestra el cuadrado del valor absoluto de las
funciones de onda. Las áreas más iluminadas
corresponden a densidades de probabilidad
más altas para una posición. El centro de
y se llama a un estado propio de H (que a veces se representa como
cada figura es el núcleo atómico, un protón.
en algunos libros de texto) que puede interpretarse como una
transformación en lugar de una representación particular en términos de
operadores diferenciales. En la ecuación expuesta, se interpreta como el vector obtenido por aplicación de la transformación
Ha .

Orbitales moleculares

En mecánica cuántica, y en particular en física atómica y molecular, y en el contexto de la teoría de Hartree-Fock, los orbitales
atómicos y moleculares pueden definirse por los vectores propios del operador de Fock. Los valores propios correspondientes son
interpretados como potenciales de ionización a través del teorema de Koopmans. En este caso, el término vector propio se usa con un
significado más general, pues el operador de Fock es explícitamente dependiente de los orbitales y sus valores propios. Si se quiere
subrayar este aspecto se habla de ecuación de valores propios implícitos. Tales ecuaciones se resuelven normalmente mediante un
proceso iterativo, llamado método de campo consistente propio. En química cuántica a menudo se representa la ecuación de Hartree-
Fock en una base no ortogonal. Esta representación particular es un problema de valor propio generalizado que tiene el nombre de
ecuaciones de Roothaan.

Análisis factorial

En análisis factorial, los valores propios de la matriz de covarianza corresponden a los factores, y los valores propios a las cargas. El
análisis factorial es una técnica estadística usada en ciencias sociales y mercadotecnia, gestión de producto, investigación operativa y
otras ciencias aplicadas que tratan con grandes cantidades de datos. El objetivo es explicar la mayor parte de la variabilidad entre
varias variables aleatorias observables en términos de un número menor de variables aleatorias no observables llamadas factores. Las
variables aleatorias no observables se modelan como combinaciones lineales de los factores más términos de
errores.

Caras propias

En procesado de imagen, las imágenes procesadas de caras pueden verse como vectores
cuyas componentes son la luminancia de cada píxel. La dimensión de este espacio
vectorial es el número de píxeles. Los vectores propios de la matriz de covarianza
asociada a un conjunto amplio de imágenes normalizadas de rostros se llaman caras
propias. Son muy útiles para expresar una imagen de un rostro como la combinación
lineal de otras. Las caras propias proporcionan un medio de aplicar compresión de datos
a los rostros, para propósitos debiometría.

Tensor de inercia

En mecánica, los vectores propios del momento de inercia definen los ejes principales
de un cuerpo rígido. El tensor de inercia es necesario para determinar la rotación de un Caras propias, un ejemplo del
cuerpo rígido alrededor de sucentro de masa. Los valores propios definen los momentos uso de vectores propios.
máximos y mínimos obtenidos mediante el círculo de Mohr
.

Tensor de tensión

En mecánica de sólidos deformables, el tensor de tensión es simétrico, así que puede descomponerse en un tensor diagonal cuyos
valores propios en la diagonal y los vectores propios forman una base.

Valores propios de un grafo

En teoría espectral de grafos, un valor propio de un grafo se define como un valor propio de la matriz de adyacencia del grafo A, o de
la matriz Laplaciana del grafo , donde T es una matriz diagonal que contiene el grado de cada vértice, y en
, 0 se substituye por . El vector propio principal de un grafo se usa para medir la centralidad de sus vértices. Un ejemplo es el
algoritmo PageRank de Google. El vector propio principal de una matriz de adyacencia modificada del grafo de la web da el page
rank en sus componentes.

Véase también
Álgebra lineal
Aplicación lineal
Matriz (matemática)
Operador lineal
Teorema espectral
Vector
Referencias
1. Dado que ninguna transformación lineal tiene efecto sobre el vector nulo, éste no se considera un vector propio.
2. Gorczyca, TW: "Auger Decay of the Photoexcited Inner Shell Rydberg Series in Neon, Chlorine, and Argon".
Abstracts of the 18th International Conference on X-ray and Inner
-Shell Processes, Chicago, agosto 23-27 (1999).

Bibliografía
Cohen-Tannoudji, Claude. Quantum Mechanics, Wiley (1977). ISBN 0-471-16432-1. Capítulo II: “The mathematical
tools of quantum mechanics”.
De Burgos, Juan. Álgebra lineal, Edit. MacGraW-Hill (1993).
Fraleigh, John B. y Beauregard, Raymond A. Linear Algebra (3.ª edición), Addison-Wesley Publishing Company
(1995). ISBN 0-201-83999-7 (edición internacional).
Horn, Roger A. y Johnson, Charles R.Matrix Analysis, Cambridge University Press(1985). ISBN 0-521-30586-1.

Enlaces externos
Calculador online de autovaloresby www.mathstools.com
Autovectores en un "problema" de Internet: Markov y Google, un artículo divulgativo: "el secreto de Google y el
álgebra lineal"
Un artículo de divulgación sobre la Descomposición en a
Vlores Singulares (SVD), enLa Gaceta de la RSME

En inglés

Weisstein, Eric W. «Eigenvector». En Weisstein, Eric W. MathWorld (en inglés). Wolfram Research.
Earliest Known Uses of Some of the Words of Mathematics: E - ver eigenvector y términos relacionados
Online Matrix Calculator: Calculadora en línea de valores propios, vectores propios y otras descomposiciones de
matrices

Obtenido de «https://es.wikipedia.org/w/index.php?title=V
ector_propio_y_valor_propio&oldid=102774971»

Se editó esta página por última vez el 22 oct 2017 a las 16:10.

El texto está disponible bajo laLicencia Creative Commons Atribución Compartir Igual 3.0 ; pueden aplicarse cláusulas
adicionales. Al usar este sitio, usted acepta nuestrostérminos de uso y nuestra política de privacidad.
Wikipedia® es una marca registrada de laFundación Wikimedia, Inc., una organización sin ánimo de lucro.

You might also like