You are on page 1of 49

Indice general

Captulo 1. Diagonalizacion 3
1. Vectores y valores propios
3
2. Polinomio Caracterstico
6
3. Diagonalizacion
8
4. Recordatorio de Suma Directa
10
5. Polinomio Mnimo 13
6. Subespacios Tinvariantes 15
Captulo 2. Formas Bilineales 25
Captulo 3. Formas Cuadraticas 35
1. Operadores Autoadjuntos 41
2. Operadores Unitarios 42
3. Teorema Espectral 43
4. Triangulacion Compleja 49
1
Captulo 1
Diagonalizaci on
En general seran de dimension nita a menos que se diga lo contrario
1. Vectores y valores propios
Denicion. Para T : V V una transformacion lineal (con V no
necesariamenre de dimension nita) un elemento x de V distinto de cero
y un escalar en K se llaman un vector propio de T, si T(x) = x. Es
decir, es un valor propio si existe x = 0, tal que T(x) = x, x es un
vector propio si existe K tal que T(x) = x.
Denicion. Para T : V V una transformacion lineal (con V no ne-
cesariamente de dimension nita) y K un valor propio, denimos
E

= {x V |T(x) = x} como el espacio propio de T.


Proposicion 1. Sean T : V V un operador y un valor propio.
Entonces E

es un subespacio.
Demostracion Primero T(0) = 0 = 0, entonces 0 E

. Sean
x, y E

y a K,
T(x +ay) = T(x) +aT(y)
= x +ay
= (x +ay)
Por lo que x +ay E

y E

es un subespacio de V.
Denicion. Para un operador T en V y un valor propio , denimos a
la multiplicidad geometrica de como la dimension de E

.
Ejemplos
3
4 Diagonalizacion
1. T : V V dada por T(x) = 0 tiene como valor propio a 0 y
E
0
= V .
2. T : R
2
R
2
una rotacion por un angulo que no sea m ultiplo de
, T no tiene valores propios.
3. T : R
2
R
2
dada por T(x, y) = (2x, 5y) tiene como valores
propios 2 y -5 con E
2
el eje x y E
5
el eje y.
4. D : R[x] R[x], con D(p) = p

0 es un valor propio con E


0
=
P
0
(R) los polinomios de grado menor o igual a 0.
5. D :

(R)

(R), con D(f) = f

1 es un valor propio con


E
1
, < e
x
> generalizando para R, E

< e
x
> .
El siguiente es un criterio muy util para saber si un escalar K es
un valor propio.
Proposicion 2. Sea T un operador en V (no necesariamente de dimen-
sion nita) y K. es un valor propio de T si y solo si nuc(T1
V
) =
0
Demostracion
) Si es un valor propio de T entonces existe v V con v = 0 tal
que T(v) = v, por lo que (T 1
V
)(v) = 0 y nuc(T 1
V
) = 0.
) Si nuc(T 1
V
) = 0 entonces existe v nuc(T 1
V
) con v = 0,
por lo que (T 1
V
)(v) = 0 y T(v) = v.
Proposicion 3. Sea T un operador en V . Son equivalentes:
1. es un valor propio de T
2. nuc(T 1
V
) = 0
3. T 1
V
es no invertible
Demostracion
Ejercicio.
Sin la hipotesis de la dimension nita, la equivalencia anterior no es
necesariamente cierta, por ejemplo
Si V = K[x] y T(p) = p

, tenemos que 0 es valor propio, pero T no


es invertible.
Pero en general se tiene que 1. o 2. implican 3.
1. Vectores y valores propios
5
Recordando que si T es un operador en V (no necesariamente de
dimension nita) y n N denimos
T
0
= 1
V
T
n+1
= T T
n
por lo que para p K[x] un polinomio con coecientes n K, si
p(x) = a
0
+a
1
x
1
+... +a
n
x
n
denimos
p(T) = a
0
1
V
+a
1
T +... +a
n
T
n
Proposicion 4. Sean T un operador en V (no necesariamente de di-
mension nita) y un valor propio. Entonces:
1.
K
es un valor propio de T
n
, para n N
2. Para a K, es un valor propio de aT
3. Para p K[x], p() es un valor propio de p(T)
Demostracion
Ejercicio.
Denicion. Un operador T en V (no necesariamente de dimension nita)
es nilpotente si existe n N tal que T
n
= 0.
Proposicion 5. Si T es un operador en V (no necesariamente de di-
mension nita), T es nilpotente y un valor propio entonces es 0.
Demostracion Por hipotesis existe n N T
n
= 0, por lo que
n
es
un valor propio del operador 0, por lo que
n
= 0 y de aqu = 0.
Identicamos a K
n
con M
n1
(K) y recordamos que toda matriz A
M
n
(K) dene un operador en K
n
, T
A
: K
n
K
n
dado por T
A
(x) = Ax.
Cuando hablemos de los valores propios o vectores propios de una matriz
A nos referiremos a los valores propios y vectores propios de T
A
.
6 Diagonalizacion
2. Polinomio Caracterstico
El polinomio caracterstico de un operador T en V , lo denimos como
p
T
() = det([T 1
V
]

)
donde es una base ordenada, notemos que p
T
() = det([T]

I)
donde I es la matriz identidad. Hay que ver que el polinomio caracterstico
no depende de la eleccion de la base , as que consideremos otra base
ordenada
p
T
()det([T]

I)
=det([1
V
]

)det([T]

I)det([1
V
]

)
=det([1
V
]

([T]

I)[1
V
]

)
=det([T]

I)
Usamos el hecho de que el determinante abre la multiplicacion y
([1
V
]

)
1
= [1
V
]

.
Proposicion 6. Si T es un operador en V , el coeciente principal de su
polinomio caracterstico es (1)
n
donde n es la dimension de V .
Demostracion Por induccion sobre n
Sea una base ordenada de V y A = [T]

.
Si n = 1, p
T
() = det(AI) = A
11
.
Ahora el paso inductivo
p
T
() =det(AI)
=
n+1

i=1
(1)
n+1+i
(AI)
n+1i
det(

(AI)
n+1i
=
n

i=1
(1)
n+1+i
A
n+1i
det(

(AI)
n+1i
)
+ (A
n+1n+1
)det(

(AI)
n+1n+1
)
Observemos que
2. Polinomio Caracterstico
7
det(

(AI)
n+1i
) =

S
n
sgn()
n

j=1
(

(AI)
n+1i
)
j(j)
por lo que

n
j=1
(

(AI)
n+1i
)
j(j)
es un polinomio de grado a lo mas
n. Por otro lado det(

(AI)
n+1n+1
) = det(

A
n+1n+1
I) = p
T

A
n+1n+1
()
por hipotesis de induccion tiene coeciente principal (1)
n
, por lo que
(A
n+1n+1
)det(

A
n+1n+1
I) tiene coeciente principal (1)
n+1
, por
lo observado anteriormente los demas polinomios tienen grado menor o
igual a n, por lo que el coeciente principal debe ser (1)
n+1
.
Corolario 1. Sea T un operador en V y dimV = n, entonces p
T
= n.
La utilidad del polinomio caracterstico se sigue de la siguiente ob-
servacion.
Observacion Para T un operador en V y una base de V , tenemos
que x V es un vector propio de T si y solo si [x]

es un vector propio
de [T]

. Tambien K es un valor propio de T si y solo si es un valor


propio de [T]

.
Demostracion
Ejercicio.
Recordando que es un valor propio de T si y solo si T I
V
es no
invertible, tenemos que es un valor propio de T si y solo si [T]

I es
no invertible y esto ultimo es equivalente a que det([T]

I) = 0. Por
lo que llegamos a que es un valor propio de T si y solo si p
T
() = 0. El
problema de encontrar valores propios se lleva a encontrar races de un
polinomio.
Ejemplo 1. Sea T : K
2
K
2
dado por T(x, y) = (x + y, x y) y
consideramos = {(1, 0), (0, 1)}, no hay que complicarnos la vida puesto
8 Diagonalizacion
que cualquier base funciona, en general elegiremos la canonica
[T]

=
_
1 1
1 1
_
p
T
() =det
_
1 1
1 1
_
=(1 )(1 ) 1
=1 + +
2
1
=
2
2 = (

2)( +

2)
Las races del polinomio caracterstico son

2,

2 y por lo tanto
son valores propios. Queremos encontrar un vector propio para cada valor
propio, es decir, un elemento no cero de nuc(T I
V
), es decir, buscamos
una solucion no trivial
_
1 1
1 1
__
x
y
_
=
_
0
0
_
Primero en el caso de =

2
_
(1

2)x +y = 0
x + (1

2)y = 0
Haciendo x = 1, encontramos que y =

2 1. Vericando T(1,

2 1 =
(

2, 2

2) =

2(1,

2 1) En el caso de =

2
_
(1 +

2)x +y = 0
x + (1 +

2)y = 0
De nuevo elegimos x = 1 y llegamos a que y = 1

2, calculando
T(1, 1

2) = (

2, 2 +

2) =

2(1, 1

2).
Lo unico que necesitamos en este ejemplo es que

2 K, en el caso
de Z
3
esto no se da 0
2
= 0, 1
2
= 1 y 2
2
= 1.
3. Diagonalizacion
Denicion. Una matriz D M
n
(K) la llamamos diagonal si D
ij
= 0
siempre que i = j, es decir, una matriz cuadrada es diagonal si fuera de
su diagonal solo toma el valor 0.
3. Diagonalizacion
9
_
1 0
0 1
_
,
_
1 0
0 0
_
,
_
1 0
0 2
_
Denicion. Un operador T en V es diagonalizable si existe una base
de V tal que [T]

es una matriz diagonal.


Proposicion 7. Para T un operador en V son equivalentes
1. T es diagonalizable
2. Existe base de V de vectores propios
Demostracion
1. 2.) Si T es diagonalizable existe tal que [T]

es diagonal.
Si ponemos = {v
1
, ..., v
n
}, tenemos que [T(v
i
)]

= [T]

[v
i
]

, si
calculamos su jesima coordenada tenemos
[T(v
i
)]

j1
=([T]

[v
i
]

)
j1
=
n

k=1
[T]

jk
[v
i
]

k1
=
n

k=1
[T]

jj

jk

ki
=[T]

jj

ji
Lo que quiere decir que T(v
i
) = [T]

ii
v
i
.
2. 1.) Si existe una base = {v
1
, ..., v
n
} de vectores propios con
T(v
i
) =
i
v
i
, lo que quiere decir que [T]
ij
= [T(v
j
)]
ii
= 0, si i = j.
Para llevar esto a un mas al lenguaje de matrices, recordamos que dos
matrices A, B representan al mismo operador si existe Q GL
n
(K) tal
que A = QBQ
1
, cuando esto pasa decimos que son semejantes, damos
naturalmente la siguiente denicion.
Denicion. Una matriz cuadrada es diagonalizable si es semejante a una
matriz diagonal.
Proposicion 8. Para T un operador en V , son equivalentes
1. T es diagonalizable
2. Para toda base de V , tal que [T]

es diagonalizable
10 Diagonalizacion
3. Existe base de V , tal que [T]

es diagonalizable
Demostracion
1. 2.) Si T es diagonalizable, existe base de V tal que [T]

es
diagonal, sea una base de V , [1
V
]

[T]

[1
V
]

= [T]

, y como [1
V
]

es
invertible con inversa [1
V
]

, tenemos que [T]

es semejante a una matriz


diagonal.
2. 3.) Obvio.
3. 1.) Si [T]

es diagonalizable, entonces existe Q GL


n
(K)
con Q[T]

Q
1
= D con D una matriz diagonal. Consideramos que Q
representa un operador que podemos poner Q = [S]

para alg un operador


S en V , notemos que Q
1
= [s
1
]

, de aqu [STS
1
]

= D por lo que
tenemos que si = {v
1
, ..., v
n
} entonces STS
1
(v
i
) = D
ii
v
i
, por lo que
T(S
1
(v
i
)) = D
ii
(S
1
(v
i
)), es decir S
1
(v
1
), ..., S
1
(v
n
) son vectores
propios y como S
1
es un isomorsmo, son una base de vectores propios.

4. Recordatorio de Suma Directa


Sean V
i
V i = 1, ..., n subespacios, la suma

n
i=1
V
i
es el subespacio
formado por los elementos de la forma v
1
+... +v
n
con v
i
V
i
para toda
i = 1, ..., n. Diremos que el subespacio

n
i=1
V
i
es una suma directa, si
para cada i = 1, ..., n V
i

j=i
V
j
= 0 y lo denotaremos por

n
i=1
V
i
.
Proposicion 9. Sean V
i
V y dim(V
i
) = m
i
para i = 1, ..., n. La suma
de los V
i
es directa si y solo si dim(

n
i=1
V
i
) =

n
i=1
.
Demostracion
Ejercicio.
Proposicion 10. Sean V
i
V .

k
i=1
V
i
es suma directa si y solo si para
cualesquiera
i
V
i
linealmente independiente,

k
i=1

i
es linealmente
independiente. En este caso la union siempre resutara ajena.
Proposicion 11. Sea T un operador en V , v
1
, ..., v
n
vectores propios
de
1
, ...,
n
con
i
=
j
si i = j, entonces v
1
, ..., v
n
son linealmente
independientes.
4. Recordatorio de Suma Directa
11
Demostracion
Por induccion sobre n.
Si n = 0, el conjunto de vectores es vaco y por lo tanto linealmente
independiente.
Si n = 1, v
1
es linealmente independiente por ser distinto de cero.
Suponemos valido para n, y suponemos que v
1
, ..., v
n+1
son lineal-
mente dependientes, como v
1
, ..., v
n
son linealmente independientes en-
tonces
v
n+1
=
1
v
1
+... +
n
v
n
Aplicando T y multiplicando por
n+1
obtenemos las siguientes dos igual-
dades.

n+1
vn + 1 =
1
v
1
+... +
n

n
v
n

n+1
vn + 1 =
n+1
v
1
+... +
n

n+1
v
n
despejando obtenemos

1
(
1

n+1
)v
1
+... +
n
(
n

n+1
)v
n
= 0
Por hipotesis de induccion

i
(
i

n+1
) = 0
pero
i

n+1
= 0 por hipotesis, por lo que
i
= 0 para i = 1, ..., n lo
que implica que v
n+1
= 0! contradiciendo el hecho de que v
n+1
era un
vector propio.
Corolario 2. Sea T un operador en V con dimV = n y n valores propios
diferentes. Entonces T es diagonalizable.
Demostracion. Para cada
i
existe un vector propio v
i
, el conjunto
{v
1
, ..., v
n
} es linealmente independiente y junto con la hipotesis de que
dimV = n tenemos que v
1
, ..., v
n
es una base de vectores propios de V.
Corolario 3. Sean T un operador en V y
1
, ...,
n
valores propios de T
diferentes entre s. Entonces la suma de los E

i
es directa.
Demostracion
Sea v
i
E

j=i
E

j
entonces v
i
= v
1
+... +v
i1
+v
i+1
+... +v
k
con v
j
E

j
para j = 1, ..., k entonces despejando a 0 tenemos que
v
1
, ..., v
k
son linealmente dependientes por lo que la unica manera que
esto pase y no se contradiga la proposicion anterior es que v
1
= 0, por lo
que E

i
|

j=i
E

j
= 0.
12 Diagonalizacion
Denicion. Un polinomio p K[x] se escinde en K, si existen ,
1
, ...,
k

K (no necesariamente diferentes) tales que p(x) = (x
1
)...(x
k
).
Proposicion 12. Sea T un operador en V diagonalizable entonces p
T
se
escinde.
Demostracion Sea una base de V de vectores propios, entonces
[T]

= D es una matriz diagonal, por lo que p


T
() = det(D I) =
(D
11
)...(D
nn
) = (1)
n
( D
11
)...( D
nn
)
Denicion. Para T un operador en V y un valor propio de T de-
nimos la multiplicidad algebraica de como la multiplicidad de en el
polinomio caracterstico p
T
, es decir, el mayor k tal que (x )
k
|p
T
(x).
Proposicion 13. Sea T un operador en V tal que p
T
se escinde en K y
m
i
la multiplicidad algebraica de
i
entonces dimV =

m
i
.
Proposicion 14. Sea T un operador en V y un valor propio de T,
entonces la multiplicidad geometrica de es menor o igual a la multipli-
cidad algebraica de .
Demostracion. Sea {v
1
, ..., v
k
} una base de E

, y la extendemos
a una de V , = {v
1
, ..., v
k
, ..., v
n
} entonces [T]

=
_
A
1
A
2
0 A
3
_
donde
A
1
= I M
k
(k), A
2
M
knk
(k), A
3
M
nk
(k) y 0 M
nkk
(k)
p
T
(x) =det([T]

xI)
=det(A
1
xI)det(A
3
xI)
=(1)
k
(x )
k
det(A
3
xI)
por lo que (x )
k
|p
T
(x).
Proposicion 15. Sea T un operador en V con dimV = n, tal que p
T
se
escinde en K y
1
, ...,
k
los valores propios de T (diferentes) entonces
son equivalentes:
1. T es diagonalizable
2. La multiplicidad algebraica coincide con la geometrica para todo
valor propio.
Demostracion.
5. Polinomio Mnimo 13
1. 2.) Si T es diagonalizable existe una base de vectores propios
llamamos
i
= E

i
, notamos que =

k
i=1

i
, es la union ajena de
los
i
. Calculando
n =||
=
k

i=1
|
i
|

i=1
dim(E

i
)
n
De aqu

k
i=1
dim(E

i
) = n.
Si llamamos m
i
a la multiplicidad algebraica de
i
, sabemos que

k
i=1
m
i
= n. Por lo que dim(E

i
) = m
i
para toda i = 1, ..., k.
2. 1.) Sea
i
una base de E

i
, entonces =

k
i=1

i
, por hipotesis
es linealmente independiente entonces
|| =
k

i=1
|
i
|
=
k

i=1
dim(E

i
)
=
k

i=1
m
i
=n
Por lo que es base y de vectores propios.
5. Polinomio Mnimo
Recordemos que para T un operador en V le habamos dado un sen-
tido a p(T) donde p es un polinomio en K[x]. Sin profundizar mucho,
recordemos de cursos pasados que en un anillo conmutativo R, si deni-
mos a divide a b, para a, b R, como que existe c R tal que ac = b, esta
relacion nos da un preorden, es decir, la relacion es reexiva y transitiva.
Todo esto para dar la siguiente denicion.
14 Diagonalizacion
Denicion. Sea T un operador de V , el polinomio mnimo de T, p
T
,
lo denimos como el mnimo polinomio monico de K[x] distinto de cero,
que con el preorden mencionado anteriormente hace que p
T
(T) = 0.
Proposicion 16. Sea T un operador en V , entonces p
T
existe y es unico.
Demostracion. Sea n = dimV , entonces dim(End(V )) = n
2
por lo
que 1
V
, T, ..., T
n
2
son n
2
+1 vectores que deben ser linealmente dependien-
tes por lo que existen a
0
, ..., a
n
2 K tales que a
0
1
V
+a
1
T +...+a
n
2T
n
2
=
0 con alg un a
i
= 0 por lo que p(x) = a
0
+a
1
x+...+a
n
2x
n
2
es un polinomio
que anula a T.
Ahora consideramos
I = {q N|q K[x] con q = 0 y q(T) = 0}
Claramente I N y p I, por lo que I = , ahora por el principio
del buen orden existe un mnimo en m I, ese m es el grado de un
polinomio f distinto de cero que anula a T, ahora veamos que es mnimo
con respecto al preorden de la divisibilidad.
Sea g K[x] tal que g(T) = 0, g = 0 y m g entonces por el
algoritmo de la division en polinomios existen h, r K[x] tales que
g = fh +r con r < f = m
Valuando en T
0 = g(T) =f(T)h(T) +r(T)
=0 h(T) +r(T)
=r(T)
por lo que r(T) = 0 si r es un natural tendramos que r I!
contradiciendo que f es mnimo, por lo que r = y r = 0. As que
g = fh y f|h. La siguiente observacion nos dara el truco de la unicidad,
ya que tenemos el grado m, todos los polinomios de grado m que anulan
a T son mnimos, pero si f y f

son dos polinomios que cumplen esto,


entonces existe a K tal que af = f

. Como f|f

existe h K[x]
fh = f

, pero m = (f

) = (fh) = (f) + (h) = m + (h) de donde


(h) = 0, por lo que h = a con a K. El regreso tambien se vale, es
decir, si f tiene grado m, f(T) = 0 y a K entonces af tiene grado m
y af(T) = 0. Por que el conjunto de polinomios de grado m que anulan
a T, todos son m ultiplos por un escalar.
6. Subespacios Tinvariantes 15
Sabemos que existe al menos un polinomio f tal que f(T) = 0 y f =
m. Si f no es monico entonces su coeciente principal a es distinto de cero,
por lo que a
1
f es monico y cumple lo deseado, por lo que llamemos p
T
=
a
1
f. Si f es otro polinomio monico que cumple lo deseado, entonces
p
T
= bf

con b K, pero p
T
, bf

tienen el mismo coeciente principal,


en este caso el de p
T
es 1 y el de bf

es b, por lo que b = 1 y p
T
= f

, es
decir, pedirle que sea monico le da unicidad.
Corolario 4. Si T es un operador en V con dimV = n entonces (p
T
)
n
2
.
Observacion. Si T es el operador cero, entonces p
T
(x) = x.
Ejemplos
1. Sea T : K
2
K
2
dado por T(x, y) = (y, x), notemos que T
2
=
1
K
2 por lo que T
2
1
K
2 = 0, en este caso p
T
(x) = x
2
1 =
(x 1)(x + 1), es facil observar que ni x 1 ni x + 1 anula a T.
Ahora un peque no calculo para plantear cierta conexion
p
T
() = det
_
1
1
_
=
2
1 = p
T
()
2. Sea T : K[x] K[x], dado por T(f) = f

, y veamos que T no
tiene polinomio mnimo, puede ser confuso pero no imposible,
sea p K[x] un polinomio para que anule a T, se necesita que
p(T) = 0, es decir, que p(T)(f) = 0, siendo mas explcitos, si
p(x) = a
0
+a
1
x +... +a
n
x
n
,
p(T)(f) = a
0
f +a
1
f

+... +a
n
f
(n)
donde f
(i)
denota la iesima derivada, por lo que pedir que
p(T)(f) = 0 es pedir que a
0
f+a
1
f

+...+a
n
f
(n)
= 0 si tomamos el
caso particular de f = x
n
entonces p(T)(x
n
) = b
0
+b
1
x+...+b
n
x
n
donde b
i
= a
ni
(ni)! con i = 0, ..., n que si pedimos que K = R
o C, vemos que p(T)(x
n
) = 0 al menos que p originalmente fuese
cero, por lo cual T no tiene polinomio mnimo. . . . . . . . . . .
6. Subespacios Tinvariantes
Denicion. Sea T un operador en V y W V , decimos que W es un
espacio Tinvariante, W
T
V , si T(V ) V . Pedir esta propiedad hace
sentido en que para W
T
V tenemos que T|
W
es un operador en W.
16 Diagonalizacion
Ejemplos.
1. 0
T
V
2. nucT
T
V
3. V
T
V
4. imT
T
V
Proposicion 17. Sea T un operador en V y W
T
V , entonces p
T|
W
|p
T
.
Demostracion.
Sea una base de W y la completamos a una base de V , entonces
[T]

=
_
[T]

A
0 B
_
por lo que
p
T
() =det([T]

I)
=det([T]

I)det(B I)
=p
T|W
()det(B I)
de aqu p
T|
W
()|p
T
().
Proposicion 18. Sea T un operador en V con V =

m
i=1
V
i
donde
V
i

T
V , entonces p
T
=

m
i=1
p
T|
v
i
.
Demostracion.
Ejercicio
Observacion. Para T un operador en V , W
T
V y f K[x],
f(T|
W
) = f(T)|
W
Ejercicio
Proposicion 19. Sea T un operador en V con W
T
V entonces
p
T|
W
|p
T
.
Demostracion.
p
T
(T|
W
) = p
T
(T)|
W
= 0|
W
= 0 por la minimalidad de p
T|
W
, con-
cluimos que p
T|
W
|p
T
.
Denicion. Para T un operador en V y x V denimos < x >
T
como
el subespacio generado por {T
n
(x)|n N}, lo llamaremos el subespacio
Tcclico generado por x.
Proposicion 20. Sea T un operador en V entonces p
T
= mcm{p
T|
<x>
T
|x
V }.
6. Subespacios Tinvariantes 17
Demostracion.
Primero ponemos
p
T
= mcn{p
T|
<x>
T
|x V }
de la proposicion anterior tenemos
p
T|
<x>
T
|p
T
x V
es decir, p
T
es un m ultiplo com un, de lo que se sigue que m|p
T
.
Por la parte de ser un com un m ultiplo tenemos que p
T
<x>
T
|m, para
toda x V . As que existe h
x
tal que p
T
<x>
T
h
x
= m, valuando T(x) en
la igualdad anterior
m(T)(x) =(h
x
(T) p
T
<x>
T
(x))(x)
=h
x
(T)(p
T
<x>
T
(T(x)))
=h
x
(T)(0)
=0
Es decir, manula a T, por lo que p
T
<x>
T
|m. Como los dos son monicos
y se dividen entre s, no queda mas que sean iguales.
Lema 1. Sea T un operador en V con dimV = n y < x >
T
= V para
alg un V , entonces x, T(x), ..., T
n1
(x) es una base de V .
Demostracion.
Si para alg un r N
+
,
T
r
(x) < x, T(x), ..., T
r1
(x) >
entonces {T
k
(x)|k N} {x, T(x), ..., T
r1
} por lo que V <
x, T(x), ..., T
r1
(x) > y de aqu que x, T(x), ..., T
r1
(x) genere, del curso
pasado sabemos que r n.
Dentro del mismo contexto sabemos que existe al menos un r con la
propiedad antes mencionada, en caso contrario tendramos que para todo
k N
+
T
k
(x) / < x, T(x), ..., T
k1
(x) > por lo que {x, T(x), ..., T
k1
(x)}
sera linealmente independiente para toda k N resultando en que V
sera de dimension innita.
18 Diagonalizacion
Lo anterior es para poder denir
s = mn{r N
+
|T
r
(x) < x, T(x), ..., T
r1
(x) >}
y que este exista dado que el conjunto es no vaco. Tengamos en
cuenta que para s tambien se tiene s n.
Por como se eligio s, x, T(x), ..., T
s1
(x) es linealmente independiente
por lo que s n, de aqu s = n. Como ya se haba notado, de aqu se
deduce el hecho de que x, T(x), ..., T
n1
(x) es base.
En la demostracion anterior usamos mucho el hecho de que si tenemos
un conjunto linealmente independiente S, entonces S{x} es linealmente
independiente si y solo si x / < S >.
Teorema 1. Sea T un operador en V con dimV = n y V =< x >
T
para
alg un x V , entonces p
T
= p
T
.
Demostracion
Por la proposicion anterior = {x, T(x), ..., T
n1
(x)} es base de V .
Calculando [T]

tenemos
[T(x)]

=
_
_
_
_
_
_
_
0
1
0
.
.
.
0
_
_
_
_
_
_
_
[T
2
(x)]

=
_
_
_
_
_
_
_
0
0
1
.
.
.
0
_
_
_
_
_
_
_
6. Subespacios Tinvariantes 19
[T
n2
(x)]

=
_
_
_
_
_
_
_
0
0
0
.
.
.
1
_
_
_
_
_
_
_
y si T
n
(x) = a
0
x +a
1
T(x) +... +a
n1
T
n1
(x) entonces
[T
n
(x)]

=
_
_
_
_
_
a
0
a
1
.
.
.
a
n1
_
_
_
_
_
Por lo que
[T]

=
_
_
_
_
_
_
_
0 0 0 a
0
1 0 0 a
1
0 1 0 a
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 a
n1
_
_
_
_
_
_
_
Ahora
P
T
() = det
_
_
_
_
_
_
_
0 0 a
0
1 0 a
1
0 1 0 a
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 a
n1

_
_
_
_
_
_
_
Calculando tenemos
20 Diagonalizacion
p
T
() =det
_
_
_
_
_
_
_
0 0 a
0
1 0 a
1
0 1 0 a
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 a
n1

_
_
_
_
_
_
_
+(1)
n+1
a
0
det
_
_
_
_
_
_
_
1 0 0
0 1 0
0 0 1 0
.
.
.
.
.
.
.
.
.
.
.
.

0 0 0 1
_
_
_
_
_
_
_
Como ejercicio queda demostrar que el ultimo determinante vale 1.
Notemos que el pen ultimo determinante tiene la misma forma que el
original, por lo que repitiendo el proceso llegamos a que
p
T
() = (1)
n
(
n
a
n1

n1
... a
1
a
0
)
Evaluando x en p
T
(T) tenemos
p
T
(T)(x) = (1)
n
(T
n
(x) a
n1
T
n1
(x)... a
1
T(x) a
0
x) = 0
De este hecho se sigue que p
T
(T)(T
i
(x)) = 0 para i = 0, ..., n1 por
lo que P
T
(T) anula a y por lo tanto anula a V , de aqu p
T
(T) = 0 y
p
T
|p
T
.
Ahora si ponemos a p
T
() = b
0
+b
1
+... +b
m1

m1
+ con m n
y evaluamos a T y evaluamos a T tenemos que
0 = p
T
(T) = b
0
1
V
+bT +... +b
m1
T
m1
+
en particular valdra para x. Si m < n, entonces b
0
x +b
1
T(x) +... +
b
m1
T
m1
(x) +T
m
(x) = 0, lo cual contradice la independencia lineal de
x, T(x), ..., T
m
(x), por lo que m = n y como p
T
|p
T
tenemos que p
T
= ap
T
con a K, como p
T
es monico y el coeciente principal de p
T
es 1, se
sigue el resultado.
6. Subespacios Tinvariantes 21
Teorema 2 (Cayley-Hamilton). Sea T un operador en V , entonces p
T
(T) =
0, es decir, p
T
|p
T
.
Demostracion
Sabemos que para x V
p
T|
<x>
T
= p
T|
<x>
T
y que
p
T|
<x>
T
|p
T
por lo que p
T|
<x>
T
|p
T
, es decir, p
T
es un com un m ultiplo de p
T|
<x>
T
corriendo por x V , y como p
T
es el mnimo com un m ultiplo p
T
|p
T
.
Proposicion 21. Sea T un operador en V . T es diagonalizable si y solo
si p
T
(x) = (x
1
)...(x
k
) con
1
, ...,
k
diferentes entre s.
Demostracion
) Como T es base, existe base de vectores propios, consideremos
q(x) = (x
1
)...(x
k
)
donde
1
, ...,
k
son los distintos valores propios de T, tomemos v ,
entonces T(v) =
j
para alg un j de 1 a k, entonces
q(T)(v) =((x
1
)...(x
j1
)(x
j+1
)...(x
k
))(T) ((x
j
)(T))(v)
=((x
1
)...(x
j1
)(x
j+1
)...(x
k
))(T)(T(v)
j
v)
=((x
1
)...(x
j1
)(x
j+1
)...(x
k
))(T)(0)
=0
Por lo que q(T) anula a toda la base y as que q(T) = 0 y de
aqu p
T
|q. Por otro lado
p
T
(
j
)v = p
T
(T)(v) = 0
22 Diagonalizacion
y como v es un vector propio es distinto de cero por lo que p
T
(
j
) = 0
y de aqu que los
j
sean races de p
T
, por lo que q|p
T
, ahora como los
dos son monicos y se dividen entre s q = p
T
.
) Si p
T
(x) = (x
1
)...(x
k
) con
1
, ...,
k
diferentes. La demos-
tracion se hara por induccion sobre k y hacemos la observacion que por
el teorema anterior los
i
son valores propios de T.
Base: Si k = 1, entonces 0 = p
T
(T) = (x
1
)(T) = T 1
V
por lo
que T = 1
V
y obviamente T es diagonalizable.
Si k = 2 entonces 0 = p
T
(T) = (T
1
1
V
)(T
2
1
V
). Por el algoritmo
de la division tenemos
x
1
= (x
2
)1 + (
2

1
)
de aqu
((x
1
) (x
2
))(
2

1
)
1
= 1
Por lo que aplicando T, tenemos
((T
1
1
V
) (T
2
1
V
))(
2

1
)
1
= 1
V
Para todo v V
(T
2
1
V
)((
2

1
)
1
(T
1
1
V
)(v)) =(
2

1
)
1
(T
2
1
V
)(T
1
1
V
)(v)
=(
2

1
)
1
0(v)
=0
entonces (
2

1
)
1
(T
1
1
V
)(v) E

2
.
Analogamente (
2

1
)
1
(T
2
1
V
)(v) E

1
.
Con lo anterior, para toda v V
v = (
2

1
)
1
(T
1
1
V
)(v) (
2

1
)
1
(T
2
1
V
)(v)
por lo que v E

1
+E

2
de aqu V = E

1
+E

2
.
6. Subespacios Tinvariantes 23
Para cuando k > 2 y se vale para k, primero notemos que por hipote-
sis de induccion S = T|

k
i=1
E

i
es diagonalizable por lo que p
S
(x) =
(x
1
)...(x
k
) por hipotesis de induccion, por otro lado p
S
(x) y
(x
k+1
son coprimos por lo que existen f, g K[x]
1 = p
S
f + (x
k+1
)g
Sea v V ,
p
S
(T) (x
k+1
g(T)(v) =gp
S
(T)(x
k+1
)(T)(v)
=gp
T
(T)(v)
=0
Por lo que ((x
k+1
)g)(T)(v) nucp
S
(T).
Af. nucp
S
(T)

k
i=1
E

i
. Ejercicio
Por otro lado
(x
k+1
) (p
S
f)(T)(v) =p
T
f(T)(v)
=f(T)(p
T
(T)(v))
=f(T)(0)
=0
Por lo que p
S
f(T)(v) E

k+1
.
As para toda v V , v
_

k
i=1
E

i
_
+E

k+1
.
Por lo que V =

k+1
i=1
E

i
.
Captulo 2
Formas Bilineales
Denicion. Una forma bilineal en un Kespacio V es na funcion B :
V V K tal que:
Para x, x

, y, y

V y K,
1. B(x +x

, y) = B(x, y) +B(x

, y)
2. B(x, y +y

) = B(x, y) +B(x, y

)
3. (B(x, y) = B(x, y) = B(x, y)
esto es que sea lineal en cada variable.
Ejemplos
1. V = K
n
con n natural
B( x, y) =
n

i=1
x
i
y
i
2. V = I([a, b]) las funciones integrables en el intervalo ([a, b]) con
B(f, g) =
_
b
a
f(x)g(x)dx
3. V = K
n
y A M
n
(K)
B( x, y) = xA y
t
Denicion. Para V un Kespacio, Bil(V ) es el conjunto de todas las
formas bilineales sobre K.
25
26 Formas Bilineales
Proposicion 22. Para V un Kespacio, Bil(V ) es un Kespacio.
Demostracion
Notemos que Bil(V ) K
V V
y como K
vV
es un Kespacio basta
ver que Bil(V ) es un subespacio.
Primero 0(v, w) = 0 es una forma bilineal, por lo tanto 0 Bil(V ).
Despues sean B, B

Bil(V ) y K. Para x, x

, y, y

V y K
(B +B

)(x +x

, y) =B(x +x

, y) +B

(x +x

, y)
=B(x, y) +B

(x

, y) +(B

(x, y) +B(x

, y))
=B(x, y) +B(x

, y) +B

(x, y) +B

(x

, y)
=(B +B

)(x, y) + (B +B

)(x

, y)
Analogamente
(B +B

)(x, y

) = (B +B

)(x, y) + (B +B

)(x, y

)
Tambien
(B +B

)(x, y) =B(x, y) +B

(x, y)
=B(x, y) +B

(x, y)
=(B +B

)(x, y)
Analogamente
(B +B

)(x, y) = (B +B

)(x, y)
Por lo tanto B +B

Bil(V )
Por lo tanto Bil(V ) es un Ksubespacio y espacio en su propio
derecho.
Del ejemplo 3 se tiene que las matrices representan algunas formas
bilineales por lo que es natural preguntar si representa a todas, sobreen-
tendiendo que hablamos del caso de dimension nita.
27
Denicion. Sea B : V V K una forma bilineal sobre V con V de
dimension nita y = {v
1
, ..., v
n
} una base de V , denimos la matriz
asociada a la forma B para la base como

B
ij
= B(v
i
, v
j
)
si no hay riesgo a confusion omitiremos la base, es decir nos queda-
remos con

B
Proposicion 23. Sea B Bil(V ) y = {v
1
, ..., v
n
} una base de V ,
entonces B(v, w) = [v]
t

B[w]

.
Demostracion
Para ver esto jamos v V y basta ver que
[B(v, )]

= [v]
t


B
Calculando
([v]
t


B)
ij
=
n

k=1
[v]
t

1k

B
kl
=
n

k=1
[v]
t

ik
B(v
k
, v
j
)
=
n

k=1
B([v]
t

ik
v
k
, v
j
)
=B(
n

k=1
[v]
t

ik
v
k
, v
j
)
=B(v, v
j
)
=[B(v, )]

j
Proposicion 24. Sea : Bil(V ) M
n
(K) para alguna base nita de
V , entonces es un isomorsmo.
28 Formas Bilineales
Demostracion
Ponemos a = {v
1
, ..., v
n
}.
Primero veamos que es lineal.
Sean B, B

Bil(V ) y K
(

BB

)
ij
=(B +B

)(v
i
, v
j
)
=B(v
i
, v
j
) +B

(v
i
, v
j
)
=

B
ij
+

B

ij
Ahora demostraremos que es lineal dando la inversa : M
n
(K)
Bil(V ) ponemos
A
:= (A) y denimos

A
(v, w) = [v]
t

A[w]

Notemos que es lineal, para A, A

M
n
(K) y K

A+A
(v, w) =[x]
t

(A+A

)[w]

=[x]
t

A[w]

+[x]
t

[w]

=
A
(v, w) +
A
(v, w)
Comprobemos que son inversas
Sea B Bil(V )

B
(v, w) =[v]
t


B[w]

=B(v, w)
por la proposicion anterior.

B
= B
Sea A M
n
(K),
29
(

A
)
ij
=
A
(v
i
, v
j
)
=[v
i
]
t

A[v
j
]
=(
t
i
A
j
)
ij
=
n

k=1
(
t
i
A)
ik

kj
=(
t
i
A)
ij
=
n

k=1

t
ik
A
kj
=A
ij
(

A
) = A
El resultado anterior contesta la pregunta de si las formas bilineales
son representadas por las matrices y mas a un lo hacen de manera unica
y lineal.
Denicion. Una forma bilineal B es simetrica si B(v, w) = B(w, v).
Proposicion 25. B es simetrica si y solo si

B es simetrica.
Demostracion
Sea = {v
1
, ..., v
n
} la base en la que esta

B.

B
ij
=B(v
i
, v
j
)
=B(v
j
, v
i
)
=

B
ji
Si

B es simetrica, entonces
30 Formas Bilineales
B(v, w) =[v]
t


B[w]

=[v]
t


B
t
[w]
t
t

=([w]
t


B[v]

)
t
=[w]
t


B[v]

Denicion. Una forma bilineal es antisimetrica si B(v, w) = B(w, v).


Proposicion 26. B es antisimetrica si y solo si

B es antisimetrica.
Demostracion
Tarea.
Denicion. B Bil(V ) es alternante si B(v, v) = 0.
Proposicion 27. Si 1 + 1 = 0, entonces son equivalentes
1. B es alternante.
2. B es antisimetrica.
Demostracion
) 0 = B(v +w, v +w) = B(v, v) +B(v, w) +B(w, v) +B(w, w) =
B(v, w) +B(w, v)
Por lo que B(v, w) = B(w, v)
) Si B(v, v) = B(v, v) entonces 2B(v, v) = 0
Por lo que B(v, v) = 0.
Observacion. De la demostracion se sigue que aunque 1 + 1 = 0,
alternante implica antisimetrica.
Observacion. En el caso de que 1 +1 = 0, se tiene que 1 = 1, por
lo que
31
B(v, w) = B(w, v) = B(w, v)
ser antisimetrico es lo mismo que ser simetrico.
Proposicion 28. B Bil(V ) es alternante si y solo si

B es antisimetri-
ca y

B
ii
= 0.
Demostracion
Sea = {v
1
, ..., v
n
}
)

B
ij
= B(v
i
, v
j
) = B(v
j
, v
i
) =

B
t
ij

B
ii
= B(v
i
, v
i
) = 0
)
B(v, v) =[v]
t


B[v]

=
n

k=1
([v]
t


B)
1k
[v]

k1
=
n

k=1
(
n

j=1
[v]
t

ij

B
jk
)[v]

k1
=
n

k=1
k1

j=1
[v]
t

ij

B
jk
[v]

k1
+
n

k=1
n

j=k+1
[v]
t

ij

B
jk
[v]

k1
=
n

k=1
k1

j=1
[v]
t

ij

B
jk
[v]

k1
+
n

k=1
n

j=k+1
[v]

ij
(

B
t
jk
)[v]
tt

k1
=0.
Ejercicio. Sean SB(V ) = {B BIl(V )|B es simetrica} y AB(V ) =
{B Bil(V )|B es antisimetrica}. Si 1 + 1 = 0 entonces Bil(V ) =
SB(V ) AB(V ).
Ahora veamos que relacion existe si cambiamos la base, si tenemos
= {v
1
, ..., v
n
} y = {w
1
, ..., w
n
}, como estan relacionados

B

y

B

.
Si ponemos w
j
=

n
i=1

ij
v
i
, entonces
32 Formas Bilineales
B(w
i
, w
j
) =
n

k=1

ki
B(v
i
, w
j
)
=
n

k=1
n

m=1

ki
B(v
i
, v
j
)
mj
Por lo que

B

= S
t

B

S donde S = [I
V
]

.
Veamos que si calculamos el determinante
det(

B

) =det(S
t

B

S)
=det(S)
2
det(

B

)
Como cualquier matriz invertible se puede usar como un cambio de
base, el conjunto de todos los determinantes que se le pueden asociar a
una forma bilineal B son todos los m ultiplos de los otros por un cuadrado
del campo K.
Denicion. El discriminante de B una forma bilineal lo denimos por
dis(B) = {a
2
det(

B)|a K}
notemos que por lo observado anteriormente no depende de la elec-
cion de una base particular para

B
Si dis(B) = {0} diremos que B es una forma no degenerada.
Denicion. Denimos el radical izquierdo de B Bil(V )
rad
L
(B) = {v V |w V B(v, w) = 0}
y el radical derecho por
rad
R
(B) = {v B|w V B(w, v) = 0}
33
Proposicion 29. Sea V de dimension nita, son equivalentes para B
Bil(V ):
1. B es no degenerada.
2. rad
L
(B) = {0}
3. rad
R
(B) = {0}
Demostracion
1. 2. Si rad
L
(B) = {0}, entonces existe v rad
L
(B) con v = 0,
por lo que existe una base = {v
1
, v
2
, ..., v
n
} con v
1
= v. Notemos que la
matriz

B

tiene en su primer columna todas las entradas cero por hipote-


sis. Por lo que det(

B

) = 0, por lo que dis(B) = {0}! contradiciendo el


hecho de que B fuese no degenerada.
3. 1. Supongamos que no se cumple que B no es no degenerada,
por lo que det(

B) = 0, elegimos una base de V , por lo que de lo ultimo
se sigue existe V con v = 0, tal que

B

[v]

= 0 de aqu que para todo


w V B(w, v) = [w]
t

[v]

= 0 de donde v rad
R
(B) por lo que
rad
R
(B) = {0}! por lo tanto det(

B) = {0}.
Denicion. Una forma bilineal se llama reexiva si B(v, w) = 0 implica
B(w, v) = 0.
Denicion. Si B es una forma bilineal reexiva diremos que v es orto-
gonal a w si B(v, w) = 0 y lo denotaremos por v w,notemos que pedir
que B sea reexiva es para que la relacion sea reexiva.
Denicion. Para S V y B una forma bilineal reexiva, denimos el
complemento ortogonal de S para B como S

= {v V |B(v, w) = 0
para todo w S}.
Proposicion 30. Sea B una forma bilineal reexiva, S, T V . Enton-
ces:
1. S

V
34 Formas Bilineales
2. S S

3. Si S T entonces T

4. S

=< S >

Denicion. Sea B una forma bilineal reexiva y W V , el radical de


W en B lo denimos como rad
B
(W) = W W

. Diremos que W es un
subespacio no degenerado si rad
B
(W) = 0.
Proposicion 31. Sea B una forma bilineal reexiva en V un espacio
de dimensi on nita y W un subespacio no degenerado de V , entonces
V = W W

.
Demostracion
Por hipotesis W W

= 0. Para ver que V = W + W

demos-
traremos que dimV = dimW + dimW

. Pongamos que dimV = n y


dimW = k y consideremos una base de W, {v
1
, ..., v
k
} y extendamosla
a una base de V con los elementos {v
k+1
, ..., v
n
}. Tomamos v W

y
lo expresamos como combinacion lineal v =

n
i=1

i
v
i
, tenemos por un
lado que B(v
i
, v) = 0 para i = 1, ..., k entonces

n
j=1

j
B(v
i
, v
j
) = 0
para i = 1, ..., k de aqu

n
j=1

j

B

ij
= 0 para i = 1, ..., k por lo que [v]

es anulado por la matriz de k n formada por los primeros k renglones


de

B

, entonces dimW

n k por el teorema de la dimension, de


aqu dimW +dimW

n k +k = n.
W +W

= W.
Captulo 3
Formas Cuadraticas
Denicion. El grado de un monomio en n variables x
k
1
1
x
k
2
2
...x
k
n
n
lo de-
nimos como k
1
+k
2
+... +k
n
.
Denicion. Una forma cuadratica naria sobre un campo K es un po-
linomio p en n variables tal que es una combinacion lineal de monomio
de grado 2.
Ejemplos
1. p(x, y, z) = xy +yz +z
2
2. p(x, y) = x
2
+xy +y
2
3. p(x) = 2x
2
4. p(x, y, z, w) = zw +w
2
+x
2
+yx
Observacion. Si consideramos una matriz A en M
n
(K), p(x) =
xAx
t
es un polinomio en n variables, mas a un
35
36 Formas Cuadraticas
p(x) =
n

i=1
x
1i
(Ax
t
)
i1
=
n

i=1
x
1i
(
n

j=1
A
ij
x
t
j1
)
=
n

i=1
n

j=1
x
1i
A
ij
x
ij
=
n

i=1
n

j=1
A
ij
x
i
x
j
que es una combinacion lineal de polinomios monicos de grado dos,
por lo que p es una forma cuadratica.
Dos matrices pueden inducir la misma forma cuadratica, por ejemplo
A =
_
1 1
1 0
_
p(x, y) =
_
x y
_
A
_
x
y
_
=
_
x +y x
_
_
x
y
_
=x
2
+xy +xy
=x
2
+ 2xy
B =
_
1 2
0 0
_
37
q(x, y) =
_
x y
_
B
_
x
y
_
=
_
x 2x
_
_
x
y
_
=x
2
+ 2xy
Supondremos que 1 + 1 = 0.
Para una forma cuadratica q, en n variables
q(x) =
n

i=1
i

j=1
a
ij
x
i
x
j
podemos poner a a
ij
= a
ji
, de este modo la matriza A
q
dada por
A
ij
=
_
a
ij
2
si i = j
a
ii
si i = j
induce a la forma cuadratica q

es decir xA
q
x
t
= q(x). Denimos
QF
n
(K) el conjunto de formas cuadraticas en n variables sobre K.
Proposicion 32. QF
n
(K) K[x
1
, ..., x
n
].
Proposicion 33. Hay un isomorsmo entre SM
n
(K), las matrices simetri-
cas de n n y QF
n
(K).
Demostracion
Denimos : SM
n
(K) QF
n
(K) por (A) = q
A
donde q
A
(x) =
xAx
t
y : QF
n
(K) SM
n
(K) (q) = A
q
como se describio anterior-
mente.
Primero q
A
(x) =

n
i=1

n
j=1
A
ij
x
i
x
j
por lo que (A
q
A
)
ij
=
_
2A
ij
2
si i = j
A
ii
si i = j
lo que lleva a que (A
q
A
)
ij
= A
ij
.
Por lo que A = A
q
A
.
38 Formas Cuadraticas
Por otro lado,
q
A
q
(x) =
n

i=1
n

j=1
A
q
ij
x
i
x
j
=
n

i=1
n

j=1
a
ij
2
x
i
x
j
+
n

i=1
a
ii
x
2
i
=
n

i=1
i

j=1
a
ij
x
i
x
j
=q(x).
Tambien, toda forma cuadratica q QF
n
(K) induce una forma bili-
neal simetrica en Bil(K
n
)
B
q
(x, y) =
1
2
(q(x +y) q(x) q(y))
y toda forma bilineal B induce una forma cuadratica
q
B
(x) = B(x, x)
Ejercicio
0.1. Operadores Normales. Supondremos que K = C y que V
es un Kespacio de dimension nita con producto interior < , >.
Denicion. T un operador en V se llama normal si T T

= T

T.
Proposicion 34. Sea T un operador normal en V . Entonces C es
un valor propio de T si y solo si

es valor propio de T

.
39
Demostracion
Sea v V con v = 0 y T(v) = v entonces T(v) v = 0,
entonces < T 1
V
(v), Y 1
V
(v) >= 0
entonces < v, (T 1
V
)(v) >= 0
entonces < v, (T 1
V
)(T 1
V
)

(v) >= 0
entonces < (T 1
V
)

(v), (T 1
V
)

(v) >= 0
entonces < (T

1
V
)(v), (T

1
V
)(v) >= 0
entonces T

(v) =

(v).
Para el regreso solo basta recordar que (T

= T y

= .
Proposicion 35. Sea T un operador normal en V = 0 entonces T es
diagonalizable.
Demostracion
Sean
1
, ...,
k
los distintos valores propios de T, entonces
k

i=1
E

i
V
si la contencion es propia entonces
W =
_
k

i=1
E

i
_

= 0
Consideremos w Wy v E

i
, entonces
< T(w), v >= < w, T

(v) >
= < w,

i
v >
= < w, v >
= 0
=0
Por lo que T(w) W.
40 Formas Cuadraticas
Ahora p
T|
W
|p
T
, como p
T|
W
C[x], p
T|W
tiene una raz , por lo que
existe x W V , con x = 0 T(x) = T|
W
(x) = x, lo que implica que
x
_

k
i=1
E

i
_
!.
Por lo que la contencion no puede ser propia, por lo tanto V =

k
i=1
E

i
.
Observacion. Si T

= f(T) con f C[x], entonces T es normal.


Proposicion 36. Sea T un operador en V entonces T es normal si y
solo si T tiene una base ortogonal de vectores propios.
Demostracion
Si T es normal entonces T es diagonalizable por lo que V =

k
i=1
E

i
donde los
i
son los distintos valores propios de T, considera-
mos una base ortogonal
i
en E

i
, sean v
i

i
y v
j

j
, entonces

i
< v
i
, v
j
>= <
i
v
i
, v
j
>
= < T(v
i
), v
j
>
= < v
i
, T

(v
j
) >
= < v
i
,

j
v
j
>
=
j
< v
i
, v
j
>
Si < v
i
, v
j
>= 0 entonces
i
=
j
! por lo que < v
i
, v
j
> y de aqu se
tiene que =

k
i=1

i
es una base ortogonal de vectores propios.
) Si V tiene una base ortogonal de vectores propios entonces tiene
una base ortonormal de vectores propios, por lo que [T]

es diagonal y
[T

=

[T]
t

pero por ser diagonal [T

=

[T]

. Claramente [T]

[T

=
[T

[T]

. Por lo que T

T = TT

.
1. Operadores Autoadjuntos 41
1. Operadores Autoadjuntos
Ahora cambiemos a C por R y recordemos que un operador T en V
se llama autoadjunto si T = T

.
Proposicion 37. Sea T un operador autoadjunto en V entonces T es
diagonalizable.
Demostracion
Consideremos base de V y n = dimV , entonces podemos pensar
V como R
n
y a R
n
metido en C
n
mas a un esto extiende [T]

como
transformacion lineal de R
n
en R
n
a una de C
n
en C
n
.
Como [T]

es un operador sobre C, tiene al menos un valor propio


C, mas a un

es un valor propio de [T

, pero por hipotesis T

= T,
por lo que y

son valores propios de [T]

entonces existe v C
n
con
v = 0 y
v =[T]

v
=[T

v
=

v
como v = 0 entonces =

, por lo que R. Por lo que T tiene todos
sus valores propios reales. Sean
1
, ...,
k
los diferentes valores propios de
T, si

k
i=1
E

i
V es una contencion propia denimos
W =
_
k

i=1
E

i
_

= 0
Sea w W y v E

i
, entonces
42 Formas Cuadraticas
< t(w), v >= < w, T

(v) >
= < w, v >
= < w, v >
=0
Por lo que W es Tinvariante y por la unicidad del adjunto tenemos
que T

|
W
= (T|
W
)

. Por lo que su w = 0 T|
W
sera autoadjunto pudiendo
encontrar un valor propio de T|
W
!.
Corolario 5. Toda matriz simetrica en R es diagonalizable.
2. Operadores Unitarios
Un operador se llama unitario si preserva el producto interior.
Proposicion 38. Sea T un operador normal en
C
V entonces T es uni-
tario si y solo si V tiene una base ortonormal de vectores propios con
valores propios de norma 1.
Demostracion
) Primero existe una base ortonormal de vectores propios, mas
a un para v
1 =||v||
=||T(v)||
=||v||
=||||v||
=||
) Sea = {v
1
, ..., v
n
} la base de la hipotesis, como T() = {T(v
1
), ..., T(v
n
)} =
{
1
v
1
, ...,
n
v
n
} que es un conjunto ortonormal, entonces T es unitario.

3. Teorema Espectral 43
3. Teorema Espectral
Aqu nos olvidaremos de la hipotesis de dimension nita.
Denicion. Si T es un operador en V , y V = W U a modo de que si
v V se ve como v = w +u con w W y u U, entonces
T(v) = w
en este caso se le llamara a T la proyeccion de W atraves de U y se
denotara por

W
U
.
Ejemplos
1. R
2
=

OX

OX, por lo que

OY

OX
(x, y) = (x, 0)

OY

OX
(x, y) = (0, y)
2. Consideremos para a R

, l
a
= {(x, ax) R
2
|x R},
l
a

0x
(x, y) =
l
a

0x
((x y/a, 0) + (y/a, y))
=(x y/a, 0)
3. Si HI = 0, P(K) = {f K
K
|f es par } y I(K) = {f K
K
|f es
impar} entonces K
K
= I(K) P(K)

I(K)
P(K)
(f)(x) =
f(x)f(x)
2
Proposicion 39. Sea T un operador en V entonces T es una proyeccion
si y solo si T es idempotente.
44 Formas Cuadraticas
Demostracion
)
) Si T es idempotente entonces
V =imT nucT
T =
imT

nucT
Denicion. Llamaremos a una proyeccion ortogonal

W
U
si U = W

y
W

= W, en este caso denotaremos a la proyeccion por

W
.
Recordemos que si V tiene dimension nita para todo subespacio W
se da que W

= W
Proposicion 40. Sea T un operador en V entonces T es una proyeccion
ortogonal si y solo si T es idempotente y normal.
Demostracion
) Sea T =

W
para W V . Sean v, w V tales que v = v
1
+ v
2
y w = w
1
+w
2
con v
1
, w
1
W y v
2
, w
2
W

<

W
(v), w >= < v
1
, w
1
+w
2
>
= < v
1
, w
1
> + < v
1
, w
2
>
= < v
1
, w
1
>
< v,

W
(w) >= < v
1
+v
2
, w
1
>
= < v
1
, w
1
> + < v
1
, w
2
>
= < v
1
, w
1
>
Por lo que <

W
(v), w >=< v,

W
(w) > de aqu

W
=

W
por
lo que T es autoadjunto y por lo tanto normal.
3. Teorema Espectral 45
) Se tienen que demostrar dos cosas, nucT = (imT)

y que imT =
(imT)

.
Primero nucT = (imT)

) Sea v nucT, entonces v = 0 o v es un vector propio de cero, en


el segundo caso tenemos que es un vector propio de T

con valor propio


cero conjugado, que es cero, por lo que nucT

= nucT. (Esto porque T


es normal).
Sea w V , entonces
< v, T(w) >=< T

(v), w >=< 0, w >= 0


Por lo que v (imT)

.
) Sea w (imT)

entonces t(w) imT calculando


< T(w), T(w) >= < w, T

T(w) >
= < w, T(T

(w)) >
=0
Por lo que T(w) = 0, por lo tanto (imT)

= nucT.
Para la segunda parte siempre tenemos que imT (imT)

. Por lo
que sea v (imT)

, sabemos que como T es idmpotente v = T(v) +


(v T(v)), ahora v T(v) nucT = (imT)

entonces < v, v T(v) >=


0(v (imT)

). Por otro lado T(v) imT (imT)

. Por lo que
< T(v), v T(v) >= 0, de esto que
< v T(v), v T(v) >= < v, v T(v) > < T(v), v T(v) >
= 0
De aqu v T(v) = 0 por lo que T(v) = v, esto es que v imT, por
lo tanto imT = (imT)

.
Proposicion 41. Sea W V con W

= W, entonces

W
(v) es el
elemento de W mas cercano a v.
46 Formas Cuadraticas
Demostracion
Primero v =

W
(v)+(v

W
(v)) y v

W
(v) nucT = (imT)

=
W

.
Ahora
||v w||
2
= < v w, v w >
= <

W
(v) + (v

W
(v)) w,

W
(v) + (v

W
(v)) w >
= <

W
(v) w,

W
(v) w > + < v

W
(v), v

W
(v) >
=||

W
(v) w||
2
+||v

W
(v)||
2
||v

W
(v)||
2
lo que implica que ||v w|| ||v

W
(v)||
Teorema 3 (Teorema Espectral). Sea T un operador en V de dimension
nita. Si T es normal, si K = C y autoajunto, si K = R con
1
, ...,
k
los diferentes valores de T y T
i
=

i
entonces
1. Si E

i
=

j=1
E

j
entonces (E

i
)

= E

i
2. T
i
T
j
=
ij
T
i
3. 1
V
=

k
i=1
T
i
4. T =

k
i=1

i
T
i
Demostracion
Primero notemos que como T es diagonalizable V =

k
i=1
E

i
1. T es autoadjunto entonces T es normal. Ahora sean v E

i
y
w E

j
con i = j, entonces
3. Teorema Espectral 47

i
< v, w >= <
i
v, w >
= < T(v), w >
= < v, T

(w) >
= < v,

j
w >
=
j
< v, w >
entonces (
i

j
) < v, w >= 0 como
i

j
= 0 entonces <
v, w >= 0. Con esto tenemos que E

i
(E

j
)

, si i = j esto implica que


E

j
(E

j
)

. Como tenemos que V = E

j
E

j
y V = E

j
(E

j
)

llegamos a que dimE

j
= dim((E

j
)

) que unido con la contencion ante-


rior llegamos a que E

j
= (E

j
)

, por lo que E

j
= (E

j
)

= (E

j
)

.
2. Como T
i
es una proyeccion T
i
T
i
= T
i
. Ahora si i = j, T
j
(T
i
(v)) =
T
j
(E

i
) = T
j
((E

i
)

) = 0.
3. Como V =

k
i=1
E

i
entonces todo v V es de la forma v =

k
i=1
v
i
con v
i
E

i
por lo que T
i
(v) =

i
(v) = v
i
, as
k

i=1
T
i
(v) =
k

i=1
v
i
= v
4. Siguiendo con lo establecido
T(v) =T(
k

i=1
v
i
)
=
k

i=1
T(v
i
)
=
k

i=1

i
v
i
=
k

i=1

i
T
i
(v).
48 Formas Cuadraticas
Corolario 6. Sea T un operador normal en
C
V entonces T es autoad-
junto si y solo si todo valor propio de T es real.
Demostracion
) Sea un valor propio de T y v un vector propio de entonces
v =T(v)
=T

(v)
=

v
entonces =

.
) Como
T

=(
k

i=1

i
T
i
)

=
k

i=1

i
T

i
Como las proyecciones son autoadjuntas
=
k

i=1

i
T
i
=T
4. Triangulacion Compleja 49
4. Triangulacion Compleja
Aqu regresemos a la hipotesis de dimensi on nita.
Teorema 4 (Descomposicion de Schur). Sea T un operador en
C
V , en-
tonces existe una base tal que [T]

es triangular superior.
Demostracion
Como p
T
C[x] entonces tiene al menos un valor propio
1
, descom-
ponemos a V = E

1
E

1
.
Ahora consideramos bases ortonormales

1
y

1
de E

i
y E

i
, por
lo que
1
=

1
es una base ortonormal de V , mas a un
[T]

1
=
_

1
I A

1
0 A

2
_
Si A

2
es triangular el proceso termina, si no considero T
2
: E

1
el operador inducido por A

2
, as T
2
tiene un valor propio
2
=
1
,
consideramos

2
y

2
bases de E

2
y E

2
(en E

1
) para obtener
2
=

2
.
Tenemos que
[A

2
]

2
=
_

2
a
2
1
0 A
2
2
_
Por lo que si llamamos

2
=
1

2
tenemos que
[T]

2
=
_
_

1
I A

2
1
A

2
2
0
2
I A

2
3
0 0 A

2
4
_
_
Si A

4
es triangular ya terminamos, si no repretimos el proceso.
Observacion. Como se construye se tiene que es una base orto-
normal.

You might also like