You are on page 1of 12

CAPTULO 3

Diagonalizacin
En este captulo estudiaremos la forma de simplicar lo ms posible la forma de una matriz cuadrada A de n n. Es decir, buscamos una matriz no singular P adecuadas de tal forma que P AP 1 = D donde D es una matriz diagonal. Nos interesa encontrar criterios que puedan asegurar que tal descomposicin de A sea posible. Una matriz A que tenga una tal descomposicin se dice que es diagonalizable. Veamos algunos ejemplos. La matriz A de 2 2
A= 1 2 2 4 0 0 0 5 2/5 1/5 1/5 2/5

tiene tal propiedad puesto que


A = P D P 1 = 2 1 1 1

2 1 no es diagonalizable puesto que si lo fuera se tendra 0 2 que B = P D P 1 y por lo tanto BP = P D con D = diag(, ) diagonal y P = p1 p2 t t no singular. De la igualdad BP = P D , si p1 = x y ,p2 = z w obtenemos que

Mientras que la matriz B =

2 1 2 +y = 0 2 0 2 1 0 +y = 0 2 0

, z

2 1 2 +w = 0 2 0 2 1 0 + (y ) = 0 2 0

Es decir,
(x ) , z

Como las columnas de B son l.i. se obtiene que necesariamente x = , y = 0, z = 0 y w = , con lo cual se obtiene que la matriz P es diagonal y P = D. Por lo tanto P D es diagonal. Pero claramente BP no es diagonal. Esto prueba que B no es diagonalizable.
3.1.
Definicin

Valores y vectores propios

3.1. Sea A una matriz cuadrada de n n con coecientes en un cuerpo K. K es un valor propio para A si existe un vector no nulo v de tal manera que Av = v . A los vectores no nulos con esta propiedad se les llama vectores propios asociados al valor propio . De esta denicin se obtiene la inmediata consecuencia, es un valor propio para A si y slo si (A I)x = 0 tiene solucin no nula.
1

3. DIAGONALIZACIN

Equivalentemente,
es un valor propio de A si y slo si (A I) es no invertible.

Pues si lo fuera la nica solucin de (A I)x = 0 es x = 0. Pero sabemos que una matriz cuadrada A es no invertible si y slo si su determinante es cero. Luego los valores propios son aquellos nmeros tal que det(A I) = 0. Puesto que det(A I) = det((1)(I A)) = (1)n det(I A) se obtiene que da lo mismo considerar los ceros de det(A I) o los ceros de det(I A). Por otro lado los vectores propios asociados a un valor propio son vectores no nulos pertenecientes a Nul(A I).
Lema 3.2. Sea A Mn (K) una matriz cuadrada de n n con coecientes en el cuerpo K. Entonces la expresin algebraica det(AI) es un polinomio de grado n con coecientes en el cuerpo K. Es decir det(A I) tiene la forma

det(A I) = n + cn1 n1 + cn2 n1 + c1 + c0

donde los coecientes cn1 , cn2 , . . . , c1 , c0 son elementos del cuerpos K


Demostracin. La demostracin es intuitivamente clara pues para calcular el determinante de (A I) se usan la tcnica de pivoteo que utiliza las operaciones del cuerpo. Como las operaciones en el cuerpo produce elementos del mismo cuerpo se obtiene que los coecientes pertenecen al cuerpo K.

Para ver que es un polinomio de grado n se utiliza el mtodo de induccin matemtica sobre la dimensin de la matriz.
Definicin 3.3. El polinomio de grado n, qA () = det(AI) es llamado el polinomio caracterstico de la matriz A.

La consecuencia inmediata de este lema es que los valores propios son los ceros del polinomio caracterstico, es decir, sus races. En este punto tenemos que analizar con ms cuidado el cuerpo K.
Ejemplo.

1 1 . Entonces su polinomio caracterstico es qA () = ( 1)2 . Por 0 1 lo tanto tiene slo un valor propio que es 1. Un vector propio asociado a = 1 es un elemento de Nul (A I). Haciendo los clculos obtenemos que Nul (A I) est generado t por el vector v = 0 1 . Luego v cualquier mltiplo no nulo de l es un vector propio asociado al valor propio = 1.

Sea A =

1 1 0 3 2 Ejemplo. Sea A = 0 1 0. Su polinomio caracterstico es qA () = 2 + . 1 1 0 Claramente = 0 es un valor propio. Un vertor propio asociado es cualquier solucin no

3.2. POLINOMIOS SOBRE CUERPOS.

t nula de Ax = 0. Por ejemplo v = 0 0 1 es un vector propio asociado al valor propio = 0.

3.2.

Polinomios sobre cuerpos.

Resumiendo, hemos construido un polinomio con coecientes en un cuerpo K a partir de una matriz con coecientes en K. La pregunta que nos hacemos es la siguiente: Ser cierto que un polinomio con coecientes en un cuerpo K tiene races en el cuerpo ? Esta pregunta es profunda y existe toda una teora matemtica que trata de rsponderla. multiplicacin de polinomios. Estas operaciones son conmutativas. Adems todo polinomio tiene un grado asociado. El grado de un polinomio es la potencia mayor en que aparece la indeterminada. Por ejemplo, p(x) = x3 + x 1 tiene grado 3. Los polinomios de grado cero son los polinomios constantes. A los polinomios de grado 1, ax + b , se les llama monomios. Adems se puede denir el concepto de divisin con resto en K[x].
Lema 3.4 (Algoritmo de la divisin). Sean p, q K[x] con grado de p mayor o igual que el grado de q . Entonces existen polinomios s, r K[x] de tal manera que p = s q + r con grado de r estrictamente menor que el grado de q . El polinomio r se llama el resto de la divisin entre p y q .

El conjunto de todos los polinomios con coecientes en un cuerpo K se denota por K[x]. En este conjunto K[x] hay dos operaciones conocidas por nosotros, una suma y una

Esta divisin con resto es la misma que conocemos para nmeros enteros. Por ejemplo, si nos damos el polinomio p en R[x] dado por p(x) = x3 4x2 + 5x 2 y el polinomio q(x) = (x2 1) obtenemos que
x3 4x2 + 5x 2 = (x 4)(x2 1) + (6x 6)

Si la divisin es exacta, es decir, si el resto es cero entonces diremos que el polinomio q divide al polinomio p. Por ejemplo el polinomio q(x) = (x 2) divide al polinomio p(x) = x3 4x2 + 5x 2 puesto que
x3 4x2 + 5x 2 = (x 1)2 (x 2)

Rearmamos este concepto con la denicin


Definicin 3.5. Sean p, q K[x]. Diremos que q divide a p si y slo si existe un polinomio s K[x] de tal manera que p = s q .

Una ltima observacin es la relacin existente entre una raz de un polinomio y la divisibilidad. Concretamente se tiene
Proposicin

3.6. Sea p K[x].

a) x0 K una raz de p si y slo si p(x) = (x x0 )s(x). b) Si s divide a p y r divide a p entonces s r divide a p.

3. DIAGONALIZACIN

Veamos algunos ejemplo de la situacin. El polinomio 2 + 1 no tiene races en el cuerpo Q. Ms an este polinomio tampoco tiene races en el cuerpo R. Esto es fcil de ver si recordamos que el cuadrado de todo nmero real no nulo es positivo y como la suma de nmeros positivos es positivo nunca se obtendr que 2 + 1 = 0. Por ello debemos buscar una estructura de cuerpo que nos asegure que todo polinomio tenga races en l. Los cuerpos donde todo polinomio tiene races se llaman cuerpos algebraicamente cerrados. No es materia de este curso determinar que cuerpos son algebraicamente cerrados. Por ello nos conformamos con dar uno de los grandes teoremas de la matemtica y que explica en gran medida la importancia que juega el conjunto de los nmeros complejos.
Teorema 3.7 (Teorema Fundamental del lgebra). Todo polinomio con coecientes en C tiene al menos una raz en C.

C[x] se descompone como producto de potencias de monomios, es decir,

Como consecuencia de este teorema se obtiene que todo polinomio p de grado n en


p(x) = (x z1 )n1 (x z2 )n2 (x zp )np con n1 + n2 + np = n

y z1 , z2 , . . . zp C son las races de p. A la potencia ni se le llama la multiplicidad de la raz zi . Notemos que esta propiedad no es cierta en R. Por ejemplo, como mencionamos con anterioridad el polinomio x2 +1 no tiene races en R. Luego no se puede descomponer como producto de monomios en R[x]. Es decir, R no es un cuerpo algebraicamente cerrado. A los polinomios que no se pueden descomponer como producto de polinomios de grado menor en el mismo cuerpo se les llama polinomios irreducibles. Por ejemplo, x2 + 2, x2 + 2x + 2 son polinomios irreducibles en R[x] pues sus races son nmeros complejos. En general se tiene lo siguiente:
Proposicin

y slo si

b2

3.8. Los polinomios cuadrticos ax2 + bx + c son irreducibles en R[x] si

4ac < 0

La demostracin es directa aplicando la conocida frmula que determina las soluciones de una cuadrtica:
x= b b2 4ac 2a

Es decir, si b2 4a c < 0 las races del polinomio son nmeros complejos. Por otro lado sabemos que R es un subconjunto de C. Nos aprovecharemos de este hecho para plantear el siguiente teorema acerca de la descomposicin de cualquier polinomio con coecientes reales.
Teorema 3.9 (Teorema de Descomposicin en R[x] ). Todo polinomio con coecientes en R se descompone como el producto de monomios y polinomios cuadrticos irreducibles en R[x].

3.2. POLINOMIOS SOBRE CUERPOS.

Demostracin. La demostracin est basada en la siguiente observacin: Si p(x) = an xn + an1 xn1 + + a1 x + a0 es un polinomio con coecientes reales y z es una raz de p entonces z es tambin una raz de p.

Esto es inmediato puesto que si z es una raz entonces p(z) = 0, es decir,


an z n + an1 z n1 + + a1 z + a0 = 0

Conjugando la igualdad y usando que ai = ai (por ser nmeros reales) y que la conjugacin se reparte en la suma y en el producto, se obtiene que:
an z n + an1 z n1 + + a1 z + a0 = an z n + an1 z n1 + + a1 z + a0 = 0

Adems z k = z k para todo k. Luego,


an z
n

+ an1 z

n1

+ + a1 z + a0 = 0

con lo cual se demuestra que z es una raz de p. Como el polinomio p tiene coecientes reales en particular ellos son complejos luego por el Teorema Fundamental del Algebra p tiene una raz z1 C. As z1 tambin es una raz. Aplicando Proposicin 3.6 se deduce que ambos monomios (x z1 ) y (x z1 ) deben dividir a p y por lo tanto el producto de ellos debe dividir a p. Es decir, el polinomio cuadrtico (x z1 )(x z1 ) = x2 2( z1 ) x + |z1 |2 divide a p. Este polinomio cuadrtico tiene coecientes reales, por lo tanto
p(x) = (x2 2( z1 ) x + |z1 |2 ) q(x)

con q R[x]. Aplicamos el mismo argumento a q tenemos otro polinomio que puede ser cuadrtico con coecientes reales o un monomio con coecientes reales. El proceso se termina pues el grado del polinomio q es estrictamente menor cada vez.
Ejemplo.

Todo polinomio p de grado impar con coecientes reales posee una raz real.

Supongamos que tuviere solamente races complejas con parte imaginaria no nula. El conjugado de cada una de ellas sera una raz por lo tanto el polinomio cuadrtico (x z)(x z ) es un divisor de p. Como todas estn pareadas se tendra que el polinomio se descomponera como producto de potencias de polinomios cuadrticos, lo cual contradice el hecho de que el polinomio tiene grado impar. Por esta razn de ahora en adelante trabajaremos slo con el cuerpo de los reales o de los complejos. Esto nos asegura que el polinomio caracterstico es descomponible totalmente en factores de grado 1 si el cuerpo de coecientes de la matriz es C o como producto de potencias de cuadrticos y monomios en el caso del cuerpo R.

3. DIAGONALIZACIN

3.3.

Subespacios invariantes

Si A Mn (R) es diagonalizable de la forma AP = DP entonces sucede que cada una de las columnas de P son llevadas por A a un mltiplo de ella. Esto se visualiza de inmediato si comparamos las columnas de la igualdad AP = DP . A saber,
A p1 p2 . . . pn = diag(d1 , d2 , . . . , ln )

Aplicando la multiplicacin matricial las igualdades siguientes:


A1 = d1 p1 , A2 = d2 p2 , . . . , An = dn pn . p p p

Es decir, A lleva la lnea generada por pi en la misma lnea o en el vector cero, que es el caso cuando uno de los valores e la diagonal de D es cero. Es decir, excepto para el caso nulo, las lneas generadas por las columnas de P son subespacios invariantes. Para dejar claro este concepto damos la denicin. 3.10. Sea W un subespacio vectorial de Kn . Diremos que W es un subespacio invariante para A si Aw W para todo w W .
Definicin

En resumen la diagonalizacin de una matriz est fuertemente ligada a la existencia de subespacios invariantes. 3.11. Sea K = C o K = R. El subconjunto de Kn , que lo denotaremos por M , de todos los vectores propios asociados a un valor propio , es llamado el subespacio propio asociado al valor propio .
Definicin

invariante por A.

Proposicin

3.12. El conjunto M es un subespacio vectorial de Kn . Adems M es

Sean v, w dos vectores propios de A con valor propio . Es decir, A(v) = v y A(w) = w.
Demostracin.

Consideremos la combinacin lineal v + w. Debemos probar que v + w es un vector propio de A con valor propio . Calculemos A(v + w). Por linealidad de A se tiene que
A(v + w) = = = = A(v) + A(w) A(v) + A(w) v + w (v + w)

lo cual prueba que M es un subespacio. Otra forma de probar esta armacin es notar que M = Nul(A I) y ya sabemos que el Nul de una matriz siempre es un subespacio. La invariancia de M es inmediata puesto que si w M signica que w es un vector propio con valor propio asociado , Aw = w. Debemos probar que Aw es tambin vector propio asociado a . Pero esto es cierto puesto que A(Aw) = A(w) = A(w) =. Notemos que la potencia de una matriz A sigue siendo una matriz de la misma dimensin y adems se pueden sumar de matrices de una misma dimensin. Luego si tenemos

3.3. SUBESPACIOS INVARIANTES

un polinomio r(x) = xm + am1 xm1 + + a1 x + a0 y A una matriz de n n se puede evaluar esta expresin algebraica en en x = A, lo cual dene la matriz
r(A) = Am + am1 Am1 + + a1 A + a0 I

En particular si el polinomio r tiene coecientes reales sabemos que r se descompone como r(x) = p1 (x)p2 (x) pn (x) donde los polinomios pi tienen grado 1 o 2. Luego, reemplazando x = A obtenemos que r(A) = p1 (A)p2 (A) pn (A). Esta simple observacin nos permite probar el siguiente resultado de existencia de subespacios invariantes.
Teorema 3.13. Toda matriz con coecientes reales posee un subespacio invariante de dimesin uno o dos. Demostracin. Asumamos que A es de dimensin n. Ella es un elemento de Mn (R), el espacio R vectorial de las matrices cuadradas de n n. Este espacio vectorial sobre R tiene dimensin n2 . Entonces cualquier subconjunto con ms de n2 elementos es l.d..

Consideremos el subconjunto T = {I, A, A2 , . . . , An } de Mn (R). Este conjunto tiene 2 + 1 elementos si Ak = Al para k = l. Luego los vectores de T deben ser l.d., lo cual n signica que existe una coleccin de (n2 + 1) nmeros reales a0 , . . . , an2 no todos nulo tal que
2

a0 + a1 A + a2 A2 + + an2 An = 0

donde 0 representa la matriz nula. Por lo tanto el polinomio r(x) = a0 + a1 x + a2 x2 + 2 + an2 xn es un polinomio de grado n2 con coecientes reales que anula a A, es decir, r(A) = 0. Si hubiere potencias distintas de A tal que Ak = Al entonces Ak Al = 0 de lo cual se deduce que el polinomio con coecientes reales, r(x) = xk xl , anula a A. En resumen en ambos casos es posible encontrar un polinomio con coecientes reales que anula a A. Llamemos r al polinomio que anula a A. Por el Teorema 3.9 se tiene que el polinomio r se descompone como producto de polinomios de grado 1 de grado 2 sin races en R. Es decir, r(x) = p1 (x)p2 (x) pj (x) con pi de grado 1 2. Como r anula a la matriz A se obtiene que
r(A) = p1 (A)p2 (A) pj (A) = 0

Si todas las matrices pk (A) fueran invertibles se tendra que su producto es invertible y luego r(A) = 0 sera invertible lo cual es imposible. Por lo tanto, al menos una de las matrices pk (A) es no invertible. Luego, dim Nul pk (A) 1, es decir, existe vector v no nulo tal que pk (A)v = 0. Si el polinomio pk tiene grado 1 , pk (x) = x a, entonces pk (A)v = (A aI)v = 0 es decir, Av = av es decir la lnea generada por v , que es un subespacio de dimensin 1, queda invariante por A. Por otro lado si pk tiene grado 2 , pk (x) = x2 + bx + c con b2 4c < 0. Entonces pk (A)v = (A2 + bA + cI)v = 0. Es decir,A(Av) = bAv cv . Esto signica que el

3. DIAGONALIZACIN

subespacio generado por v, Av queda invariante por A. Para ver esto tomemos un vector w en el plano generado por v y Av . Entonces w = Av + v y
Aw = A(Av + v) = A2 v + Av = (bAv cv) + v = (b)Av + ( c)v

con lo cual se prueba que Aw permanece en el plano generado por v, Av . Notemos que realmente se trata de un plano, es decir, v, Av son vectores l.i.. De lo contrario se tendra que existe un nmero real con Av = v . Luego A2 v = A(Av) = A(v) = Av = 2 v . Por lo tanto,
0 = A2 v + bAv + cv = 2 v + bv + cv = ( 2 + b + c)v

como v es no nulo, se debe tener que 2 + b + c = 0, pero esto es imposible puesto que el polinomio 2 + b + c no tiene races en R por la condicin b2 4c < 0.
3.4. Diagonalizacin

Diremos que una matriz A de n n en un cuerpo K es diagonalizable si existe una matriz no singular P y una matriz diagonal D de tal forma que AP = DP . Ya sabemos que diagonalizar una matriz A est relacionado con el hecho de encontrar valores y vectores propios de A. 3.14. Sean A, B dos matrices cuadradas similares, es decir, A = P BP 1 con P no singular entonces sus polinomios caractersticos son iguales.
Lema Demostracin.

La prueba es directa de la siguiente cadena de igualdades.


= det(P BP 1 P P 1 ) = det(P (B I)P 1 ) = det P det(B I) det P 1 = det P (det P )1 det(B I) = det(B I) = qB ()

qA () = det A I = det(A P P 1 )

Por lo tanto, si una matriz de n n es diagonalizable su polinomio caracterstico es igual al polinomio caracterstico de la diagonal respectiva. Calcular este polinomio para una matriz diagonal es trivial puesto que
qD () = det(I D) = ( d1 )( d2 ) ( dn )

3.4. DIAGONALIZACIN

Notar que puede que algunos di se repitan y por lo tanto la descomposicin es realmente en potencias de monomios. Es decir, el polinomio caracterstico se descompone como potencias de monomios. Antes de continuar resaltamos este resultado,
Proposicin 3.15. Sea A una matriz de n n con coecientes en R. Si A es diagonalizable entonces su polinomio caracterstico se descompone como producto de potencias de monomios, es decir,

qA () = ( a1 )n1 ( a2 )n2 ( ap )np

Notar que este resultado no dice absolutamente nada en el caso de coecientes complejos puesto que el polinomio caracterstico en ese caso se descompone siempre como producto de potencias de monomios por el Teorema Fundamental el Algebra. Por ejemplo si una matriz A de 3 3 con coecientes reales tiene como polinomio caracterstico qA (x) = (x 1)(x2 + x + 1) ella no es diagonalizable en M3 (R) pues el polinomio (x2 + x + 1) no tiene races en R. Ser cierto el recproco?. Es decir, si el polinomio caracterstico de A se descompone como potencias de monomios entonces A es diagonalizable. La respuesta es no. Por ejemplo para la matriz A = es diagonalizable.
1 1 , qA () = ( 1)2 y se puede probar que A no 0 1

Esto signica que otros factores, adems de la descomposicin de qA , inuyen en la diagonalizacin de una matriz. Nos abocaremos a encontrar tales condiciones que nos aseguren que la matriz sea diagonalizable. 3.16. Sea A una matriz cuadrada de n n. Entonces vectores propios correspondientes a valores propios distintos son l.i.
Proposicin Demostracin. Sean v1 , v2 vectores propios de A, es decir, Av1 = 1 v1 , Av2 = 2 v2 con v1 = v2 . Supongamos que v1 = v2 . Entonces

Av1 = A(v2 ) = Av2 = 2 v2

Adems, Av1 = 1 v1 = 1 v2 . Es decir, se obtiene que (1 2 )v2 = 0. Como v2 no es el vector nulo y = 0 se tiene que 1 = 2 , lo cual es una contradiccin. Por lo tanto los vectores son l.i. Ms an, si la matriz es simtrica real se obtiene algo ms fuerte, como lo indica la siguiente proposicin.
Proposicin 3.17. Sea A una matriz simtrica de n n con coecientes en R. Consideremos el producto interno euclidiano en Rn . Entonces

a) Para todo par de vectores columnas u, v se tiene que


Au, v = u, Av .

10

3. DIAGONALIZACIN

b) Los valores propios de A son nmeros reales. b) Vectores propios correspondientes a valores propios distintos son ortogonales.
Demostracin. Puesto que estamos usando el producto interno euclidiano tenemos que: Au, v = (Au)t v . Luego,

Au, v = ut At v = ut (Av) = u, Av

Sea un valor propio de A y Av = v con v = . 0


Av, v Av, v = = v, v = v, v = v v, Av = v, v = v
2 2

Recordemos que al sacar los escalares del segundo factor del producto interno l sale conjugado. Restando ambas igualdades se obtiene que ( ) v 2 = 0. Como v no es el vector cero , v 2 = 0. Entonces ( ) = 0 de donde se obtiene que = , es decir, es real. Sean v1 , v2 dos vectores propios asociados a dos valores propios 1 , 2 distintos. Entonces se tiene que
Av1 , v2 = 1 v1 , v2 = 1 v1 , v2

Pero adems como A es simtrica,


Av1 , v2 = v1 , Av2 = v1 , 2 v2 = 2 v1 , v2 = 2 v1 , v2

Restando ambas igualdades se obtiene que (1 2 ) v1 , v2 = 0. Como 1 = 2 se deduce que v1 , v2 = 0, es decir, v1 , v2 son ortogonales. Ahora damos el primer criterio, y quizs el ms simple de diagonalizacin,
Teorema 3.18. Sea A una matriz de n n con coecientes en R. Si A tiene n valores propios distintos entonces A es diagonalizable, es decir, existen matrices D diagonal y P no singular de tal forma que AP = P D. Demostracin. Como hay n valores propios distintos, 1 , . . . , n y cada valor propio es una raz del polinomio caracterstico qA se tiene que:

qA () = ( 1 )( 2 ) ( n )

Armamos que la dimensin de cada subespacio propio es 1. Tomemos un vector propio en cada uno de los n subespacios propios, vi Mi , i = 1, . . . , n. Por Proposicin 3.16 el conjunto {v1 , . . . , vn } es un conjunto l.i. y por lo tanto es una base para Rn . Luego no pueden haber un subespacio propio con dimensin mayor que uno puesto que entonces habran al menos (n+1) vectores l.i. en Rn , lo cual es imposible pues Rn tiene dimensin n. Construyamos la matriz P = v1 v2 . . . vn . Esta matriz es invertible pues sus columnas son l.i.. Adems por ser cada vi un vector propio de A con valor propio i se tiene la igualdad matricial siguiente
A v1 v2 . . . vn = Av1 Av2 . . . Avn = 1 v1 2 v2 . . . n vn

3.4. DIAGONALIZACIN

11

Pero, por multiplicacin matricial


1 v1 2 v2 . . . n vn = v1 v2 . . . vn diag(1 , 1 , . . . , n )

Por lo tanto hemos demostrado que existen matrices P no singular y D diagonal de tal forma que AP = P D con P la matriz cuyas columnas son los vectores propios asociados a cada i y D matriz diagonal con los valores propios i en su diagonal.
Ejemplo.

Consideremos la matriz A de 4 4 dada por


1 1 A= 1 0 2 0 1 0 0 1 0 0 1 1 0 1

El polinomio caracterstico de A es qA () = 4 23 22 + 2 + 1 cuyas races son reales y todas distintas. A saber,


1 = 1, 2 = 1, 3 = 1 + 2, 4 = 1 2

Luego A es diagonalizable y adems podemos calcular la matriz P y la matriz D. P tiene por columnas a vectores propios de cada valor propio. Calculando se obtiene que
1 1 1 0 2 0 1 0 0 1 0 0 1 0 1 1 1 2 2 1 1 1 1 1 0 1 = 0 2 0 1 1 0 0 1 2 0 0 0 0 0 0 0 1 1 2 2 0 0 1 1 1 1 2 1+ 2 0 0 1 1 2 0 0 0 0 1 2

La misma demostracin se aplica a una matriz con coecientes complejos.


Corolario 3.19. Sea A una matriz de nn con coecientes en C. Si A tiene n valores propios distintos entonces A es diagonalizable, es decir, existen matrices D diagonal y P no singular de tal forma que AP = P D.

Examinemos el caso en que la matriz A de n n tiene p valores propios distintos con p < n. El argumento esencial en la demostracin del Teorema 3.18 consiste en que pudimos construir una base de Rn formada por vectores propios de A. Es decir, hay n vectores

propios l.i.. Si la cantidad de valores propios es menor que la dimensin de la matriz podemos construir al menos p valores propios l.i.. Sin embargo no todo se ha perdido. Veamos un ejemplo.
Ejemplo.

Sea A la matriz dad por


1 0 A= 0 0 0 1 1 0 1 2 1 0 0 0 0 1

El polinomio caracterstico de A es qA () = 4 43 + 42 1 cuyas races son


1 = 1, 2 = 1 + 2, 3 = 1 2.

12

3. DIAGONALIZACIN

Aqu estamos en el caso mencionado. Sin embargo todava podemos encontrar 4 valores propios l.i.. Notemos que la factorizacin de de qA es
qA () = ( 1)2 ( (1 + 2))( (1 2)) .

Sabemos que 2 y 3 provee cada uno un vector propio , v1 , v2 respectivamente y ellos son l.i. por Proposicin 3.16. Luego para que A sea diagonalizable 1 = 1 debera proveer dos valores propios l.i.. Es decir, la dimensin del subespacio propio asociado M1 = Nul (A 1 I) debera ser t t 2. Calculando se tiene que los vectores columnas w3 = 1 0 0 0 , w4 = 0 0 0 1 son una base de Nul A. De esta manera A tiene asociado 4 vectores propios l.i.. y por lo tanto A es diagonali zable con P = v1 v2 w3 w4 y D = diag(1 + 2, 1 2, 1, 1). Basado en este ejemplo tenemos el resultado siguiente
Teorema 3.20. Sea A una matriz de n n con valores propios, 1 , . . . , p con dim Mi = ni , i = 1, . . . , p. Entonces A es diagonazable si n1 + n2 + + np = n.

Elejimos una base Bi = {ui , . . . , ui i } para cada subespacio propio n 1 Mi . Los vectores ui , . . . , ui i son vectores propios de A asociados al valor propio i . Adems n 1 por Proposicin 3.16 el conjunto
Demostracin.

B = B1 B2 Bp

es una conjunto l.i. que contiene n elementos pues n1 + n2 + + np = n. Por lo tanto B es una base para Rn . Construyamos la matriz P de n n cuyas columnas son los vectores de B. Esta matriz es no singular y adems cumple que
AP = A [ u1 , . . . , u 1 1 ; u2 , . . . , u 2 2 ; . . . ; up , . . . , u p p ] 1 n 1 n n 1 = [ Au1 , . . . , Au1 1 ; Au2 , . . . , Au2 2 ; . . . ; Aup , . . . , Aup p ] 1 n 1 n n 1 = [ 1 u 1 , . . . , 1 u 1 1 ; 2 u 2 , . . . , 2 u 2 2 ; . . . ; p u p , . . . , p u p p ] 1 n 1 n n 1 = [ u1 , . . . , u1 1 ; u2 , . . . , u2 2 ; . . . ; up , . . . , up p ]diag(1 , . . . , 1 , 2 , . . . , 2 , . . . ; p , . . . , p ) 1 n 1 n n 1 = PD

con lo cual terminamos la demostracin. Debido a la importancia de la dimensin del subespacio propio M damos la siguiente denicin
Definicin 3.21. Sea un valor propio de una matriz A. La dimensin del subespacio propio M = Nul (A I) es llamada la dimensin geomtrica de .

You might also like