You are on page 1of 187

Introduccion

al Algebra Lineal

ii

Castaneda
/ Barrios

Introduccion al Algebra Lineal


M.Sc. Sebastian Casta
neda H.
Dr. Agustn Barrios S.
Barranquilla - Colombia

ii

Castaneda
/ Barrios

Contenido
1 La estructura de espacio vectorial
1.1 Introduccion . . . . . . . . . . . . . . . . . . . . .
1.2 El concepto de estructura algebraica . . . . . . .
1.3 Semigrupos, Monoides y Grupos . . . . . . . . . .
1.4 Anillos, campos y espacios vectoriales . . . . . . .
1.5 Espacios de Matrices sobre un campo . . . . . . .
1.5.1 Transposicion y producto matricial . . . .
1.5.2 El producto escalar . . . . . . . . . . . . .
1.5.3 La matriz identidad. Matrices invertibles.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

3
3
4
12
18
34
37
41
45

2 Sistemas lineales
2.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Sistemas lineales m n . . . . . . . . . . . . . . . . . .
2.2.1 La ecuacion lineal en Kn . . . . . . . . . . . . .
2.2.2 Sistemas lineales en Kn . . . . . . . . . . . . . .
2.2.3 Tecnicas de eliminacion . . . . . . . . . . . . .
2.3 Dependencia e independencia lineal, bases, dimension. .
2.4 Matrices Elementales. Rango y nulidad de una matriz.
2.5 Bases ortonormales y proyecciones ortogonales . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

55
55
56
56
61
68
83
111
130

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

Vectores en R2 y R3 .
3.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Segmentos dirigidos en En . . . . . . . . . . . . . . . . . . . . .
3.3 Aplicaciones geometricas . . . . . . . . . . . . . . . . . . . . .
3.3.1 Colinealidad y ecuaciones vectoriales de rectas. . . . .
3.3.2 Ecuaciones vectoriales de planos. . . . . . . . . . . . .
3.3.3 Proyecciones ortogonales, distancia de un punto a una
recta o a un plano. . . . . . . . . . . . . . . . . . . . .
3.3.4 Otras aplicaciones . . . . . . . . . . . . . . . . . . . . .
1

139
. 139
. 149
. 163
. 163
. 170
. 173
. 175


Castaneda
/ Barrios

Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183

CONTENIDO

Captulo

.....1

La estructura de espacio
vectorial

1.1

Introducci
on

El Algebra,
hablando en terminos rudimentarios pero modernos, es la disciplina
matematica dedicada al estudio de las denominadas estructuras algebraicas.
Una tal estructura esta formada basicamente por un conjunto no vaco y una
o mas operaciones definidas sobre ese conjunto. El Algebra Lineal, tambien
en terminos muy generales, tiene como objeto de estudio principal cierto tipo
de estructura conocida como espacio lineal o espacio vectorial. En este primer
captulo de la presente obra presentamos las definiciones de operacion (especialmente las denominadas binarias) y de las estructuras algebraicas basicas,
culminando justamente con la de espacio lineal o vectorial; definicion que se
hara desde la perspectiva matematica o algebraica y que en el captulo 3 se
relacionara con la nocion fsica o geometrica de vector con la que seguramente
los lectores, a
un los principiantes, tendran alguna familiaridad. Se presentan
tambien en este captulo los ejemplos mas importantes de los denominados
espacios de dimension finita, incluyendo los espacios de matrices sobre un
campo, importantes en el desarrollo ulterior del texto.
3


Castaneda
/ Barrios

1.2

El concepto de estructura algebraica

Existe cierta familiaridad con la nocion de operacion, especficamente con


la de operacion binaria. As, por ejemplo, la adicion, la multiplicacion, y
sus operaciones inversas (sustraccion y division) en conjuntos numericos,
constituyen ejemplos de operaciones binarias. Para ir abriendo paso a una
generalizacion de tales operaciones familiares, consideremos inicialmente la
adicion de n
umeros enteros.
En la adicion de enteros, partimos tomando dos n
umeros enteros, por ejemplo
3 y 4, y al hacer la operacion obtenemos el entero 7 = 3+4, denominado la suma
de 3 y 4. Mas generalmente, si tomamos dos enteros cualesquiera, notados x
e y, la adicion produce un entero z = x + y. Tecnicamente hablando, hemos
tomado un par (x, y) de enteros y le hemos asignado un entero x + y, la suma
de las componentes del par (x, y). En el lenguaje de la teora de conjuntos lo
que se tiene es una funcion
+ : Z Z
Z
(x, y) 7 x + y,
cuyo dominio es el producto cartesiano del conjunto de los enteros, Z, consigo
mismo y las imagenes -o resultados de la accion de la funcion- pertenecen al
mismo conjunto Z. Un analisis similar puede hacerse para la multiplicacion de
enteros, la cual es una funcion
: Z Z Z
(x, y) 7 xy.
Estos son dos ejemplos particulares de lo que denominaremos una ley de
composicion interna definida sobre un conjunto. El que los elementos operados
(sumados o multiplicados) se consideren formando pares ordenados parecera
no ser importante en estos ejemplos ya que el resultado obtenido -la suma
o el producto, respectivamente- es el mismo independientemente de si el par
considerado es (x, y) o (y, x). Esto es debido, en este caso, a que las dos operaciones consideradas gozan de la denominada propiedad conmutativa, seg
un la
cual el orden de los sumandos (o factores) no altera la suma (el producto).
Sin embargo, basta con pensar en la sustraccion de enteros para convencerse
de que si queremos generalizar nuestras particulares observaciones a conjuntos
(y operaciones) arbitrarios, el orden de las componentes es importante. As,
CAPITULO 1. LA ESTRUCTURA DE ESPACIO VECTORIAL


al Algebra
Introduccion
lineal

la sustraccion en el conjunto de los enteros es una funcion


: Z Z
Z
(x, y) 7 x y,
y, como tal, es una ley de composicion interna pero, por ejemplo, la imagen
de la pareja (2, 3), esto es 2 3 = 1, no es la misma que la de (3, 2), la
cual es 3 2 = 1. Esto, por supuesto, significara que la sustraccion no es una
operacion conmutativa.
Algunas preguntas son pertinentes en este momento. Solo podemos operar elementos del mismo conjunto? o estaran siempre los resultados de
las operaciones en el mismo conjunto al cual pertenecen los elementos operados? Si pensamos, por ejemplo, en la division de enteros, es claro que solo
podemos dividir un entero cualquiera entre un entero diferente de cero y que
los resultados no necesariamente son enteros. As, la division a la que estamos
haciendo referencia es entonces una funcion
: Z (Z {0})
Q
(x, y)
7 x y.
Aqu el dominio de nuestra funcion es el producto cartesiano de dos conjuntos
distintos y las imagenes (cocientes) pertenecen al conjunto de los n
umeros
racionales,Q, del cual los conjuntos cuyo producto cartesiano es el dominio
son subconjuntos propios.
Generalizando lo anterior, dados conjuntos no vacos A, B y C, una funcion
: A B C
(x, y) 7 x y
es denominada una operaci
on binaria. Notese que la imagen del par (x, y)
bajo la funcion la estamos notando por x y. Si A = B = C decimos
que es una ley de composici
on interna en el conjunto A o, simplemente,
una operacion binaria definida sobre A. Como dijimos antes, una estructura
algebraica es un conjunto con una o mas operaciones binarias definidas sobre
tal conjunto. La notacion para una estructura algebraica generalmente involucra al conjunto (y, posiblemente, a otros con cuyos elementos se opera o al cual
pertenecen los resultados) y a los smbolos de las operaciones. En particular,
si A es un conjunto no vaco y es una ley de composicion interna en A,
se acostumbra notar por (A, ) a la estructura algebraica resultante. Debe
1.2. EL CONCEPTO DE ESTRUCTURA ALGEBRAICA


Castaneda
/ Barrios

resaltarse que en dicha notacion nos referimos no solamente a los elementos


del conjunto A sino, principalmente, al comportamiento de los mismos con
relacion a la operacion . As, por ejemplo, cuando nos referimos a la estructura
aditiva (Z, +) estamos hablando de una estructura distinta a la multiplicativa (Z, ). En ambos casos los elementos del conjunto soporte de la estructura son los mismos, pero el comportamiento algebraico no es igual. Por ejemplo,
mientras que la estructura aditiva goza de la propiedad de existencia de inversos
para cada elemento de Z, esta propiedad no es valida, en general, en la
estructura multiplicativa, en la cual solo 1 y 1 tienen inversos (multiplicativos).
Propiedades, seguramente familiares para el lector, como la conmutatividad,
la asociatividad, etc de la adicion y la multiplicacion en los enteros, por
ejemplo, pueden definirse tambien para leyes de composicion interna. las
presentamos a continuacion.
Definici
on 1.2.1. Sean A y B conjuntos no vacos con B A. Si y  son
leyes de composicion interna definidas en A. Entonces:
1. B es cerrado bajo si, y solo si para todo x, y B se cumple que
x y B.
Trivialmente, el conjunto A es, por ser una ley de composicion interna
en A, cerrado para .
2. es:
(a) Conmutativa si, y solo si para todo x, y A se satisface
xy =yx

(1.1)

(b) Asociativa si, y solo si para todo x, y, z A se cumple


(x y) z = x (y z)

(1.2)

(c) Modulativa si, y solo si existe e A tal que para todo x A se


tiene
xe=ex=x
(1.3)
El elemento e, el cual puede probarse que es u
nico, se denomina
elemento neutro para en A. En ese sentido, la propiedad modulativa tambien se denomina de existencia de elemento neutro.
CAPITULO 1. LA ESTRUCTURA DE ESPACIO VECTORIAL


al Algebra
Introduccion
lineal

(d) Invertiva si y, solo si es modulativa, con neutro e, y para todo


elemento x A existe un elemento y A tal que
xy =yx=e

(1.4)

Para una operacion invertiva y asociativa, para cada x A el


elemento y de 1.4 es u
nico (ejercicio) y es denominado, entonces,
el inverso, bajo , de x. En una estructura (A, ) asociativa y
modulativa puede suceder que la condicion de existencia de inverso
no se cumpla para todos los elementos de A; si se cumple para alg
un
elemento particular x, diremos que x es invertible(o regular o no
singular) bajo y, consecuentemente, que y es el inverso de x.
(e) Distributiva con relaci
on a  si, y solo si para todo x, y, z A
se tienen:
(x  y) z = (x z)  (y z)
x (y  z) = (x y)  (x z)

(1.5)
(1.6)

La propiedad dada por 1.5 se denomina usualmente distributiva


(de con relaci
on a ) por la derecha, mientras que la dada
por 1.6 lo sera por la izquierda
Algunas de las definiciones dadas anteriormente pueden extenderse a operaciones binarias que no sean necesariamente leyes de composicion interna. Por
ejemplo, si : A B B es una operacion binaria, decimos que es
modulativa a izquierda si, y solo si existe e A tal que para todo x B
se tiene e x = x. En este caso e es denominado un neutro a izquierda. De
manera similar se puede definir elemento neutro a derecha para operaciones
del tipo : A B A. Notese as que para leyes de composicion interna el
neutro, si existe, lo es tanto a izquierda como a derecha. Tambien es costumbre,
para una operacion : A B B, decir que un conjunto no vaco D B
es cerrado para si, y solo si siempre que se tengan x A, y D se tiene
tambien que (x y) D. Se dejan al lector otras posibles extensiones de las
definiciones dadas. Diremos tambien que una estructura (A, ) es asociativa
(o conmutativa, modulativa, etc) si lo es la operacion .
Si es una ley de composicion interna en el conjunto A y B es un subconjunto
de A, cerrado bajo , entonces la restriccion de a B, usualmente notada |B ,
|B : B B
B
(x, y) 7 x y,
1.2. EL CONCEPTO DE ESTRUCTURA ALGEBRAICA


Castaneda
/ Barrios

es tambien una ley de composicion interna en B. Algunas de las propiedades


definidas anteriormente (conmutativa, asociativa, distributivas) claramente
son validas tambien para la restriccion de a B, en caso de que se cumplan
en A1 , diremos en tal caso que son hereditarias. Las propiedades 1.3 y 1.4,
por su parte, se satisfacen-si se cumplen en A- para todo x B, pero no se
garantiza la pertenencia del neutro, e, o el inverso de x al conjunto B.
Ejemplo 1.2.1. Consideremos algunos ejemplos.
1. La conocida estructura aditiva de los enteros, (Z, +) es, como recordara el
lector, asociativa, conmutativa, modulativa e invertiva. Una tal estructura, como se definira despues, es denominada un grupo abeliano. Aqu,
el elemento neutro (aditivo) es cero, 0, y cada entero x tiene un inverso
aditivo x. Por su parte la estructura multiplicativa (Z, ) es asociativa,
conmutativa y modulativa pero no es invertiva. Solamente, como ya se
menciono antes, son invertibles el 1 y el 1 y, en cada caso, el inverso
es el mismo elemento. Para enteros distintos de cero y de 1 y 1, por
ejemplo 2, el inverso multiplicativo existe si se consideran como parte
del conjunto de los racionales, es decir de la estructura (Q, ), pero no es
un entero. En el ejemplo considerado, el inverso de 2 es 0.5 = 21 . Este
ejemplo resalta la importancia de que una estructura depende tanto del
conjunto como de la o las operaciones consideradas.

Grupos abelianos, como el caso de (Z, +), son tambien (Q, +), (R, +),
(Q {0}, ) y (R {0}, ).
2. Consideremos el conjunto A = {a, b, c}. Una ley de composicion interna
sobre A debe asignar a cada par (x, y) A A, es decir, a cada par
de elementos de A, un elemento u
nico del mismo conjunto. Podemos
elegir arbitariamente tales resultados de la operacion. En este caso, la
operacion puede definirse mediante una tabla como, por ejemplo, las que
se muestran abajo.

a
b
c
1

a
a
c
b

b c
b c
a b
a c


a
b
c

a
a
b
c

b c
b c
c a
a b

De hecho son v
alidas sobre cualquier subconjunto no vaco de A, a
un no siendo cerrado.
CAPITULO 1. LA ESTRUCTURA DE ESPACIO VECTORIAL


al Algebra
Introduccion
lineal

En la primera fila y la primera columna de cualquiera de las tablas se


muestran el smbolo de la operacion y los elementos del conjunto A. El
resultado de operar un elemento de una columna con uno de una fila es
el elemento en la interseccion de dichas fila y columna. As, por ejemplo:
ab
bc
bb
bb

=
=
=
=

b
a
a
c

Notese que en (A, ), a es un neutro a izquierda pero no a derecha


(b a = c), mientras que en (A, ) es neutro tanto a derecha como a
izquierda; es decir,  es modulativa. Puesto que a b = b 6= c se sigue
que no es conmutativa Es asociativa? Puede verificarse que  es
asociativa, modulativa, invertiva y conmutativa; es decir, (A, ) es un
grupo abeliano. Notese que el inverso de b, bajo , es c y el de c es b. a,
por su parte, es su propio inverso bajo .
3. Para un entero n 2 sea
Zn = {0, 1, 2, . . . , n 1}
el conjunto de los enteros no negativos menores que n. Por ejemplo:
Z2 = {0, 1}
Z3 = {0, 1, 2}
Z6 = {0, 1, 2, 3, 4, 5}
As, Zn es, en principio, un subconjunto del conjunto de los enteros. Es
claro, sin embargo, que no es cerrado bajo la adicion usual de enteros.
As, por ejemplo 1+(n1) = n, pero n
/ Zn . Para el caso multiplicativo,
si n > 2, tampoco lo es. Sin embargo, es un hecho conocido que el
cociente de un entero no negativo entre n 2 tiene residuo menor que
n. As, podemos definir unas nuevas adicion y multiplicacion en Zn ,
tomando como resultados los residuos de la division entre n de la adicion
y multiplicacion usuales de los elementos considerados, garantizando
as la cerradura de nuestro conjunto bajo tales operaciones (adicion y
multiplicacion m
odulo n). Por ejemplo, si consideramos
Z6 = {0, 1, 2, 3, 4, 5},
1.2. EL CONCEPTO DE ESTRUCTURA ALGEBRAICA


Castaneda
/ Barrios

10

entonces como suma de 3 y 4 tomamos el residuo de dividir 7 (la suma


usual) entre 6. As, en este caso, tenemos 3 + 4 = 1. Por su parte,
3(4) = 0 ya que el residuo de dividir 12 (producto usual de 3 por 4)
entre 6 es 0. Las tablas de estas adicion y multiplicacion (m
odulo 6) se
muestran abajo.
+
0
1
2
3
4
5

0
0
1
2
3
4
5

1
1
2
3
4
5
0

2
2
3
4
5
0
1

3
3
4
5
0
1
2

4
4
5
0
1
2
3

0
1
2
3
4
5

5
5
0
1
2
3
4

0
0
0
0
0
0
0

1
0
1
2
3
4
5

2
0
2
4
0
2
4

3
0
3
0
3
0
3

4
0
4
2
0
4
2

5
0
5
4
3
2
1

Notese que ambas operaciones son conmutativas y que 0 y 1 siguen siendo


los neutros aditivo y multiplicativo, respectivamente, en Z6 (y, en general,
en Zn ) y que cada elemento tiene un inverso aditivo. Especifcamente, el
inverso aditivo de un elemento x Zn {0} es n x ya que (n x) + x =
x+(nx) = 0. Si siguiendo la notacion familiar en los enteros, denotamos
por x al inverso aditivo de x, tenemos entonces 2
0 = 0, 1 = 5, 2 = 4,
3 = 3, 4 = 2, 5 = 1.
Tal como en el caso de los enteros, y siguiendo la notacion anterior,
los u
nicos elementos invertibles (multiplicativamente) en Z6 son 1 y
1 = 5 y si, nuevamente tomando prestada la notacion multiplicativa
para inversos usual en los n
umeros reales, para un elemento invertible x
notamos por x1 su inverso en Z6 , tenemos:
11 = 1
51 = 5,
es decir, como en Z, cada uno es su propio inverso. Puede mostrarse
facilmente que para cualquier valor de n 2, en (Zn , ) efectivamente 1
y n 1(el inverso aditivo de 1) son invertibles y cada uno es su propio
2
Aqu el signo menos no se refiere a negativo en el sentido de un entero menor que 0,
sino se utiliza como un smbolo para denotar el inverso, bajo +, del elemento al cual precede.
Es decir, denota al elemento que sumado con el elemento dado da como resultado el neutro
aditivo (0)

CAPITULO 1. LA ESTRUCTURA DE ESPACIO VECTORIAL


al Algebra
Introduccion
lineal

11

inverso. Para n = 6, como muestra la tabla, son los u


nicos elementos
invertibles, pero podran, para otros valores de n, existir otros elementos
invertibles. Como ejemplo considere en (Z9 , ) a los elementos 1, 2, 4, 5, 7
y 8. Como se esperaba, por lo dicho antes 1 y 8 son invertibles y cada
uno es su propio inverso. Sin embargo, los otros elementos considerados
tambien son invertibles. En efecto se tiene:
2(5) = 1
4(7) = 1.
Por lo que 21 = 5, 51 = 2, 41 = 7, 71 = 4. Al lector puede parecerle
sorprendente que bajo la multiplicacion modulo n (en este caso n = 9)
enteros no invertibles bajo la multiplicacion usual lo sean en la estructua
modular.

Ejercicios 1.2.1.
1. Demuestre que en una estructura modulativa (A, ), siendo una ley de
composicion interna en A, el neutro es u
nico. Demuestre tambien que
en una estructura asociativa y modulativa si un elemento es invertible,
entonces el inverso es u
nico. Concluya, de la demostracion realizada, que
si un elemento x tiene un inverso, y, a mano derecha, y un inverso, Z, a
mano izquierda, entonces y = z.
2. Considere en R la ley de composicion interna definida por
x y = xy + x + y.
1
(a) Calcule 2 3, 3 .
2
(b) Demuestre que (R, ) es una estructura asociativa, modulativa y
conmutativa, pero no es invertiva pues existe un u
nico elemento, z,
no invertible.
1
(c) Calcule los inversos, bajo , de 1, 0 y
.
3
(d) Si A = R {z}, muestre que A es cerrado bajo y que (A, |A )
es una estructura asociativa, modulativa, conmutativa e invertiva
(grupo abeliano).
1.2. EL CONCEPTO DE ESTRUCTURA ALGEBRAICA


Castaneda
/ Barrios

12

3. Considere los conjuntos A = {a, b, c}, B = {c, d, e} y C = A B =


{a, b, c, d, e} y la operacion definida por la tabla mostrada abajo:

a
b
c

c
c
c
a

d
d
d
b

e
e
e
a

(a) Existe un neutro a izquierda para ?


(b) Calcule, si existen, (a c) e y a (c e).
(c) Que puede decir acerca de la existencia de inversos unilaterales ?
4. Considere el conjunto A = {a, b} defina sobre A una ley de composicion
interna asociativa, modulativa e invertiva.
5. Sean A y B conjuntos no vacos y una operacion binaria en A (ley de
composicion interna). Si f : A B es una funcion biyectiva, muestre
que
~ : B B
B
1
(x, y) 7 x ~ y = f (f (x) f 1 (y))
define una ley de composicion interna sobre B y que la estructura (B, ~)
es asociativa (resp. conmutativa, modulativa, invertiva,etc) si, y solo si
(A, ) lo es.
6. Utilice el ejercicio anterior para construir una estructura asociativa, modulativa, conmutativa e invertiva sobre el conjunto B dado.
(a) B = {a, b, c}.
(b) B = {a, b, c, d, e, f }.
(c) B = N.

1.3

Semigrupos, Monoides y Grupos

Consideraremos inicialmente una estructura algebraica (G, ), siendo una


ley de composicion interna en G. La estructura resultante recibe en principio
la denominacion de Grupoide. Un grupoide asociativo se denominara un
semigrupo. Con la denominacion de monoide nos referiremos a un semigrupo
modulativo. Un grupo es un monoide invertivo. Finalmente, un grupo
conmutativo es denominado un grupo abeliano.3
3

En honor a Abel...
CAPITULO 1. LA ESTRUCTURA DE ESPACIO VECTORIAL


al Algebra
Introduccion
lineal

13

Los grupos constituyen una de las estructuras algebraicas basicas subyacentes


a estructuras mas complejas. Por lo dicho anteriormente, un grupo es una
estructura algebraica (G, ), con asociativa, modulativa e invertiva. As,
como ya se haba anunciado antes, las estructuras (Z, +), (Q, +), (R, +), (Q
{0}, ), (R {0}, ) son grupos abelianos.
Algunos resultados basicos sobre grupoides se presentan a continuacion.
Antes, introducimos una notacion multiplicativa, mas comoda para referirnos
a una ley de composicion interna. As, si G es un conjunto no vaco con una
ley de composicion interna, escribiremos, en general, x y o, simplemente, xy
para referirnos a la imagen del par (x, y) bajo la ley de composicion interna; es
decir, para referirnos al resultado de operar x con y bajo la ley de composicion
interna considerada. Esta notacion multiplicativa sera utilizada para hablar en
terminos generales y se reflejara tambien en las propiedades de la estructura.
As, si la estructura sobre G es un monoide, el neutro se notara en general como
1G y si un elemento x es invertible, su inverso se notara por x1 . Por supuesto,
en estructuras particulares aditivas el neutro sera notado 0G y utilizaremos
x para referirnos al inverso de un elemento invertible x. Tambien sera usual
referirnos a una estructura mencionando solamente al conjunto soporte G, pero
debera entenderse que nos referimos no solo al conjunto G sino a la estructura
sobre dicho conjunto, lo cual incluye a la ley de composicion interna que le
suministra tal estructura. Siguiendo la notacion multiplicativa, nos referiremos
como producto de dos elementos de un grupoide G al resultado de operarlos
bajo la ley de composicion interna que le da la estructura al conjunto G.
Teorema 1.3.1. Sea G un grupoide. Entonces:
1. Si existe elemento neutro en G, entonces dicho elemento es u
nico.
2. Si G es un monoide y un elemento x, en G, es invertible, entonces su
inverso es u
nico.
3. Si G es un monoide y x, y, z G, siendo x invertible, se tienen:
xy = xz = y = z
yx = zx = y = z

(1.7)
(1.8)

4. Si G es un monoide y x, y son elementos invertibles en G, entonces x1


y xy lo son y
(x1 )1 = x
(xy)1 = y 1 x1
1.3. SEMIGRUPOS, MONOIDES Y GRUPOS

(1.9)
(1.10)


Castaneda
/ Barrios

14

Demostracion. La unicidad del neutro y del inverso de un elemento invertible


fueron propuestas como ejercicios. Para demostrar 1.7 tenemos
xy = xz =
=
=
=

x1 (xy) = x1 (xz)
(x1 x)y = (x1 x)z
1G y = 1G z
y=z

En la prueba anterior, ademas de las propiedades asociativa y de existencia


de neutro, hemos usado el hecho siguiente, valido para elementos cualesquiera
a, b, c, d en un conjunto y una ley de composicion interna cualquiera sobre
dicho conjunto:
a = b c = d = a c = b d
el cual refleja el hecho de que es una funcion y, por tanto, debe asignar una
misma imagen a las parejas (a, c)y (b, d) si estas son iguales. La demostracion
de 1.8 es similar y se deja al lector. Para el u
ltimo item del teorema basta
verificar que
xx1 = x1 x = 1
(xy)(y 1 x1 ) = (y 1 x1 )(xy)
= 1

Las propiedades en 1.7 y 1.8 son denominadas usualmente leyes cancelativas (a izquierda y a derecha, respectivamente) y sus respectivos recprocos son
validos pues estamos considerando una ley de composicion interna, como se
explico en la demostracion de 1.7. Es claro que en Grupos el teorema anterior es
valido. En un grupo (G, ), puede definirse una operaci
on inversa, digamos
, de modo que para elementos x, y G se tiene
x y = xy 1 ,

(1.11)

donde, siguiendo la notacion adoptada en general, y 1 denota al inverso de


y bajo la operacion del grupo. En el caso particular de grupos aditivos
escribimos en lugar de . Es decir: x y = x + (y).
Ademas de los grupos abelianos numericos ya considerados anteriormente
como ejemplos, otros grupos importantes se presentan a continuacion.
CAPITULO 1. LA ESTRUCTURA DE ESPACIO VECTORIAL


al Algebra
Introduccion
lineal

15

El grupo aditivo Zn
Dado que Z es un grupo, bajo la adicion, es claro que las propiedades de grupo
se transportan a Zn . Esto es debido a que si dos enteros positivos son iguales,
digamos a = b, entonces los residuos de dividirlos entre n son iguales. Esto es
una consecuencia del denominado algoritmo de Euclides(ver apendice):
Teorema 1.3.2. Dados m, n Z,con n > 0, existen enteros u
nicos c, r tales
que
m = nc + r, 0 r < n
(1.12)
As, por ejemplo, si x, y, z Zn , entonces x, y, z Z y considerando la
suma usual de enteros se tiene
x + (y + z) = (x + y) + z.
Si, para diferenciar, denotamos por la suma modulo n, entonces x (y z)
y (x y) z son, respectivamente, los residuos de dividir entre n, los enteros
x + (y + z) y (x + y) + z, pero como estos son iguales se sigue que lo tambien
los residuos; es decir
x (y z) = (x y) z,
por lo que la adicion modulo n es tambien asociativa. Argumentos similares
se siguen para las otras propiedades de grupo. En definitiva. tenemos que
Teorema 1.3.3. (Zn , +) es un grupo abeliano
Con relacion a la estructura multiplicativa, Zn , por las razones anteriormente expuestas, es entonces un monoide conmutativo. Se ha visto, en ejemplos
anteriores, que algunos elementos no nulos son invertibles. Puede demostrarse4
que un elemento m 6= 0 en Zn es invertible si, y solo si es primo relativo con
n; esto significa que el u
nico divisor com
un positivo de m y n es 1. As, por
ejemplo, en Z10 son invertibles, ademas de 1 y 9, los elementos 3 y 7 (ambos
primos). Por su parte 5, que es primo, no es invertible pues divide a 10 y 6 no
es invertible pues es divisible por 2, como lo es 10. Si n es un n
umero primo,
entonces todo elemento no nulo de Zn sera, en consecuencia, invertible. Se
tiene as que:
4
En los apendices se hace una presentacion mas elaborada de las estructuras modulo n y
puede consultarse para una justificaci
on de las afirmaciones aqu hechas.

1.3. SEMIGRUPOS, MONOIDES Y GRUPOS


Castaneda
/ Barrios

16

El grupo multiplicativo Zp {0}


Teorema 1.3.4. Si p es un n
umero primo, entonces (Zp {0}, ) es un grupo
abeliano.
Por el teorema 1.3.1 se tiene que en un monoide G el producto de dos
elementos invertibles es tambien invertible. Esto implica que el subconjunto
de todos los elementos invertibles de G es un conjunto no vaco (pues 1G es
invertible) y cerrado. Puesto que la asociatividad es una propiedad hereditaria,
se tiene entonces que el conjunto de los elementos invertibles en un monoide
es un grupo. As, en particular:

El grupo de Euler
Teorema 1.3.5. Si Un es el conjunto de los elementos invertibles en (Zn , ),
entonces (Un , ) es un grupo abeliano.

Ejercicios 1.3.1.
1. En cada caso indique, marcando con una X en la casilla correspondiente,
si la estructura dada es semigrupo, monoide, grupo o grupo abeliano.
Semigrupo

Monoide

Grupo

Grupo abeliano

(N, )
(N, +)
(N0 , )
(N0 , +)
(Z, +)
(Z, )
(Z, )
(Q, +)
(Q, )
(Q, )
(Q {0}, )
(Q {0}, )
(R, +)
(R, )
(R {0}, )
(R, )
(R {0}, )
CAPITULO 1. LA ESTRUCTURA DE ESPACIO VECTORIAL


al Algebra
Introduccion
lineal

17

2. En cada caso determine en Zn , si existen, 2, 5, 7, 21 , 51 , 71 , para


el valor de n indicado.
(a) n = 8.
(b) n = 13.
(c) n = 35.
(d) n = 70.
3. Encuentre en cada caso el conjunto solucion de la ecuacion dada.
(a) 2x = 6 en Z10 .
(b) 2x = 6 en Z7 .
(c) 5x = 6 en Z10 .
(d) 2x = 7 en Z10 .
(e) 2x + 9 = 15 en Z20 .
4. Sea A un conjunto cualquiera y 2A = P(A) la familia de todos los
subconjuntos5 de A. Indique, en cada caso, si el grupoide dado es
semigrupo, monoide, grupo o grupo abeliano.
(a) (P(A), ).
(b) (P(A), ).
(c) (P(A), ).
5. Sea A un conjunto no vaco. Si S(A) = {f : A A| f es biyectiva }.
Muestre que S(A), bajo la composicion de funciones es un grupo. Es
conmutativo?
6. Demuestre que si G es un grupo y a, b G, entonces las ecuaciones
ax = b, xa = b
tienen, cada una, una u
nica solucion.
7. Sea G un semigrupo finito y suponga que las leyes cancelativas 1.7 y 1.8,
pagina 13, se cumplen en G. Demuestre que G es un grupo.
5
Si A es finito, existen 2|A| subconjuntos distintos de A, lo que motiva la notacion
utilizada.

1.3. SEMIGRUPOS, MONOIDES Y GRUPOS


Castaneda
/ Barrios

18

8. Sea G un grupo. Demuestre:


(a) Si para cada x G, se cumple x1 = x, entonces G es abeliano.
(b) Si para todo x, y G se verifica que (xy)2 = x2 y 2 , entonces G es
abeliano.
9. Demuestre que si G es un grupo finito no abeliano, entonces |G| 6,
donde |G| es la cardinalidad o n
umero de elementos de G.
10. Sean G un grupo y G H 6= . Suponga que para todo x, y H se
cumple que xy 1 H. Demuestre que H es cerrado y que es tambien un
grupo bajo la restriccion de la operacion de G a H ( decimos entonces
que H es un subgrupo de G). Demuestre tambien que la condicion
indicada es tambien una condicion necesaria para que un subconjunto
no vaco de G sea un subgrupo.

1.4

Anillos, campos y espacios vectoriales

Consideraremos ahora estructuras con dos leyes de composicion interna, usualmente denominadas adicion y multiplicacion, (R, +, ). Una tal estructura
se denomina un anillo si, y solo si satisface:
1. (R, +) es un grupo abeliano.
2. (R, ) es un semigrupo y la multiplicacion es distributiva con relacion a
la adicion.
El neutro aditivo en (R, +) sera notado usualmente 0R y para un elemento
x R su inverso aditivo se escribira como x. Si, adicionalmente, tiene
otras propiedades tales como conmutatividad o existencia de neutro, el que
notaramos 1R , reflejaremos esto en la denominacion hablando de anillo conmutativo o anillo con elemento identidad. Un anillo conmutativo (K, +, ),
con elemento identidad 1K 6= 0K se denominara campo si, y solo si todo
elemento x K, x 6= 0K , es invertible. Notese que esto implica:
1. (K, +) es un grupo abeliano.
2. (K {0K }, ) es un grupo abeliano.
Notese tambien que todo campo tiene al menos dos elementos distintos: los
neutro aditivo y multiplicativo. En particular, por ejemplo, (Z2 , +, ) es un
campo con dos elementos. Tenemos el siguiente resultado basico sobre anillos.
CAPITULO 1. LA ESTRUCTURA DE ESPACIO VECTORIAL


al Algebra
Introduccion
lineal

19

Teorema 1.4.1. Sea (R, +, ) un anillo. Entonces:


1. Para todo x R se tiene x0R = 0R x = 0R .
2. Si x, y R entonces:
(x) = x
(x + y) = x + (y)
x(y) = (x)y
= (xy)
(x)(y) = xy

(1.13)
(1.14)
(1.15)
(1.16)

Demostracion. Las ecuaciones 1.13 y 1.14 son consecuencia del teorema 1.3.1.
Ahora, para un elemento x R se tiene:
x0R = x(0R + 0R )
x0R + 0R = x0R + x0R
luego, por la ley cancelativa a izquierda (1.7), en (R, +), se sigue que 0R = x0R .
De manera similar se demuestra que 0R x = 0R . Por otra parte, si y R,
entonces
x(y) + xy = x(y + y)
= x0R
= 0R
de donde se sigue, sumando (xy) en ambos miembros, que x(y) = (xy).
de manera similar se obtiene que (x)y + xy = 0R y, por tanto (x)y =
(xy).
Si R es un anillo con identidad 1R , el teorema anterior implica que para
todo elemento x R se sigue que x = (1R )x = x(1R ). Por otra parte,
el teorema anterior establece que el producto de un elemento cualquiera de
un anillo por el cero (neutro aditivo) del anillo es cero. Puede suceder, sin
embargo que un producto de dos elementos no nulos de un anillo sea cero.
Considere, por ejemplo, el anillo (Z6 , +, ). En tal estructura se tiene que
2(3) = 3(2) = 0, pero 3 6= 0 y 2 6= 0. As, en el ejemplo considerado no
es valido el familiar resultado en la estructura multiplicativa de los n
umeros
reales (o enteros) que establece que un producto de dos reales (enteros) es cero
si, y solo si al menos uno de ellos es cero. Esta propiedad define a un tipo
especial de anillo conocido como dominio entero, de los cuales los campos
son un ejemplo particular. En efecto, tenemos:
1.4. ANILLOS, CAMPOS Y ESPACIOS VECTORIALES


Castaneda
/ Barrios

20

Teorema 1.4.2. Sea K un campo, entonces


(x, y K)(xy = 0K x = 0K y = 0K )

(1.17)

Demostracion. =] Supongamos xy = 0K , si uno de los dos, digamos x, fuese


diferente de cero, entonces tendra un inverso multiplicativo x1 , por lo que
tendramos
x1 (xy) = x1 0K
= (x1 x)y = 0K
= (1K )y = 0K
= y = 0K
=] Si alguno de los dos, x o y, es cero, por el teorema 1.4.1 se tiene xy =
0K
Ejemplo 1.4.1. Las estructura aditiva multiplicativa de los enteros, (Z, +, ),
es claramente un anillo conmutativo con identidad. Esto se transfiere a la
estructura modular (Zn , +, ), n 2. Si n es primo, por lo ya explicado
anteriormente, se tiene un campo (finito). Nuestro interes se centrara particularmente en el campo real (R, +, ). Por supuesto, tambien (Q, +, ) es un campo
(campo de los racionales).
Como se anticipo ya en la introduccion, la estructura principal a considerar
es la de espacio vectorial sobre un campo. Presentamos seguidamente la
definicion.
Definici
on 1.4.1. Sea V un conjunto no vaco y + : V V V una ley de
composicion interna (adicion) sobre V . Si K es un campo y : K V V
es una operacion binaria, decimos que (V, +, ) es un K-espacio vectorial
(o lineal), o un espacio vectorial sobre K si, y solo si se cumplen:
1. (V, +) es un grupo abeliano.
2. Para todo v V y , K se tiene
( v) = () v

(1.18)

3. Para todo v V se tiene


1K v = v
CAPITULO 1. LA ESTRUCTURA DE ESPACIO VECTORIAL

(1.19)


al Algebra
Introduccion
lineal

21

4. Para todo , K y v, w V se tiene


( + ) v = ( v) + ( v)
(v + w) = ( v) + ( w)

(1.20)
(1.21)

Los elementos del conjunto V se denominaran vectores y el neutro aditivo


de (V, +), notado 0V , se denominara el vector cero o vector nulo de V .
Como se recordara tambien, para un vector v su inverso aditivo (en el grupo
abeliano (V, +) se notara v. Por su parte, los elementos del campo, K, se
denominaran escalares y usualmente se utilizaran letras griegas min
usculas
para simbolizarlos. La operacion se denominara entonces multiplicaci
on
por escalares. Por brevedad, si no hay lugar a confusion en el contexto,
escribiremos v = v pero debera entenderse en esta notacion que se
esta operando un elemento del campo por un vector y que, en general, es
una operacion distinta a la multiplicacion entre escalares. Por comodidad,
como hemos venido haciendo, diremos que V es un espacio vectorial sobre K,
entendiendo que estamos hablando de la estructura indicada en la definicion.
Ejemplo 1.4.2. Si K es un campo, entonces es tambien un espacio vectorial
sobre s mismo, considerando la adicion vectorial y la multiplicacion por
escalares como la adicion y multiplicacion, respectivamente, que le dan la
estructura de campo.
Si n es un n
umero natural, y A es un conjunto cualquiera no vaco, definimos
An = {(x1 , x2 , . . . , xn ) |x1 , x2 , . . . , xn A}.
Cada elemento de An es una nada o ntupla ordenada de elementos del
campo K. La calidad de ordenada viene dada por la siguiente definicion
de igualdad en An . Consideramos elementos x1 , x2 , . . . xn , y1 , y2 , . . . , yn A,
entonces
(x1 , x2 , . . . , xn ) = (y1 , y2 , . . . , yn ) (i {1, 2, . . . , n})(xi = yi )

(1.22)

Para cada i, xi es denominada la componente i esima de la nada x =


(x1 , x2 , . . . , xn ). Por lo tanto dos nadas en An son iguales si, y solo si tienen
las mismas componentes en el mismo orden.
En particular, si K es un campo, entonces Kn puede dotarse de la estructura
de espacio vectorial definiendo, para nadas
1.4. ANILLOS, CAMPOS Y ESPACIOS VECTORIALES


Castaneda
/ Barrios

22

x = (x1 , x2 , . . . , xn ), y = (y1 , y2 , . . . , yn ) y un escalar :


x + y = (x1 + y1 , x2 + y2 , . . . , xn + yn )
x = (x1 , x2 , . . . , xn )

(1.23)
(1.24)

Es rutinario, utilizando las propiedades de campo, demostrar que efectivamente


Kn es un espacio vectorial bajo las operaciones definidas por 1.23 y 1.24. Como
ilustracion, consideremos la propiedad asociativa de la adicion en Kn . Para x
y y, como arriba, y z = (z1 , z2 , . . . , zn ) la componente iesima de (x + y) + z
es
(xi + yi ) + zi = xi + (yi + zi )
pero la u
ltima es la iesima componente de x + (y + z). Se sigue as que
(x + y) + z = x + (y + z). Por su parte, el vector nulo es
0Kn = (0K , 0K , . . . , 0K ),
la nada con cada componente igual al cero del campo. Para x Kn se tiene
tambien que
x = (x1 , x2 , . . . , xn ),
donde xi denota el inverso aditivo del escalar xi K.
Ejemplo 1.4.3. El campo complejo. El conjunto R2 , el cual es -bajo
las operaciones indicadas en el ejemplo anterior-un espacio vectorial, puede
dotarse tambien de la estructura de campo. Para ello definimos la adicion como
en el ejemplo anterior y, ademas, una ley de composicion interna (multiplicacion)
como se indica seguidamente. Si (x, y), (z, w) R2 , definimos
(x, y) (z, w) = (xz yw, xw + yz)

(1.25)

Con la adicion y la multiplicacion definidas como se indico, tenemos entonces


que (R2 , +, ) es un campo 6 ,(denominado el campo complejo). Los neutros
aditivo y multiplicativo son, respectivamente, (0, 0) y (1, 0). Si se considera la
funcion
f : R R2
x 7 (x, 0)
6
Esto es una consecuencia de que lo sea (R, +, ) y se propone como ejercicio la
verificaci
on.

CAPITULO 1. LA ESTRUCTURA DE ESPACIO VECTORIAL


al Algebra
Introduccion
lineal

23

se encuentra que tal funcion es inyectiva (uno-a-uno) y que para reales cualesquiera
x, y, se verifican7
f (x + y) = f (x) + f (y)
f (xy) = f (x)f (y)
f (1) = (1, 0)

(1.26)
(1.27)
(1.28)

por lo que la estructura (de campo) (R, +, ) y la del rango de la funcion


f (R) = {(x, 0)| x R}, el cual tambien (verquelo) es un campo, pueden
identificarse. En ese sentido puede decirse que el campo real es un subcampo
del campo complejo. As, si x es un real, el complejo (x, 0) puede identificarse
con el real x.
Si escribimos i = (0, 1) (unidad imaginaria), entonces todo elemento del
campo complejo puede escribirse como
(x, y) = (x, 0)(1, 0) + (y, 0)(0, 1),
y, por lo ya explicado antes, tenemos (x, y) = x + yi. La unidad imaginaria i,
satisface tambien que
i2 = (0, 1)(0, 1) = (1, 0) 1
Usualmente escribiremos C para referirnos a la estructura de campo (R2 , +, );
es decir, al campo complejo.
Ejemplo 1.4.4. Espacios de polinomios. Supongamos que K es un campo
y n N0 = {0, 1, 2, . . . } es un n
umero cardinal fijado. Sea

(
)
n

X

Pn (K) = ao + a1 x + + an xn =
ak xk k {0, 1, . . . , n} : ak K

k=1

Es decir, Pn (K) es un conjunto de polinomios en la variable x y con coeficientes


sobre el campo K. En tal conjunto, se encuentra el polinomio nulo
O(x) = 0 + 0x + + 0xn .
Si p(x) es un elemento del conjunto considerado, distinto del polinomio nulo,
sera entonces un polinomio de grado menor o igual a n. Por ejemplo, si
7
Una funci
on entre campos que verifique estas propiedades es denominada un morfismo
u homomorfismo de campos

1.4. ANILLOS, CAMPOS Y ESPACIOS VECTORIALES


Castaneda
/ Barrios

24

p(x) = 1 + x2 3x3 , entonces p(x) es un polinomio de grado 3 y estara


en cualquier conjunto Pn (R), si n 3. El conjunto Pn (K) puede dotarse
facilmente de la estructura de espacio vectorial definiendo adicion y multiplicacion
por escalares como es usual en el calculo y el algebra elemental:
n
X
k=1

ak x k +

n
X

bk xk = (a0 + a1 x + + an xn ) + (b0 + b1 x + + bn xn )

k=1

n
X

(ak + bk )xk

k=1

= (a0 + b0 ) + (a1 + b1 )x + + (an + bn )xn


n
X
n
ak x k
(a0 + a1 x + + an x ) =
=

k=1
n
X

ak xk

k=1

= a0 + (a1 )x + + (an )xn


Con tales operaciones Pn (K) es claramente un espacio vectorial. Esto no
debe extra
nar ya que cada polinomio esta determinado completamente por
una n + 1 ada (a0 , a1 , . . . , an ) Kn+1 , de modo que dados polinomios
p(x) = a0 + a1 x + + an xn y q(x) = b0 + b1 x + + bn xn ,
entonces p(x) = q(x) si, y solo si para cada i = 1, 2, . . . , n se tiene ai = bi . Es
decir, dos polinomios son iguales si, y solo si tienen los mismos coef`cientes.
Por lo tanto se trata simplemente de una presentacion diferente del espacio
Kn+1 . Formalmente hablando, como se vera despues, el espacio de polinomios
considerado y Kn+1 son espacios isomorfos.
Algunas propiedades basicas de espacios vectoriales se enuncian en el siguiente
teorema.
Teorema 1.4.3. Sea V un espacio vectorial sobre el campo K. Entonces:
1. Para todo K, v V se cumple:
v = 0V = 0K v = 0V
2. Para todo v V se tiene v = (1K )v
CAPITULO 1. LA ESTRUCTURA DE ESPACIO VECTORIAL

(1.29)


al Algebra
Introduccion
lineal

25

3. Si S es un subconjunto no vaco de V y S es cerrado para la adicion y la


multiplicacion por escalares, entonces S es tambien un espacio vectorial
sobre K.
Demostracion.
1. =] Para un escalar se tiene que
0V + 0V

= 0V
= (0V + 0V )
= 0V + 0V ,

por lo que 0V + 0V = 0V + 0V de donde, cancelando, se tiene 0V =


0V . Siguiendo una idea similar8 se prueba que para todo v V se tiene
0K v = 0V . Se tiene as que si = 0K o si v = 0V , entonces v = 0V .
=] Supongamos v = 0V . Si = 0K no hay nada que demostrar.
Supongamos entonces 6= 0K , de modo que existe 1 y tenemos
1 (v) = 1 0V
=
(1 )v = 0V
=
1K v = 0V
=
v = 0V .
2. Para v V tenemos
v + (1K )v =
=
=
=

1K v + (1K )v
(1K + (1K ))v
0K v
0V ,

de donde se sigue que v = (1K )v.


3. Supongamos S un subconjunto no vaco y cerrado de V . As, la adicion y
la multiplicacion por escalares, restringidas a S, son operaciones binarias.
Ahora, puesto que S es no vaco, existe al menos un elemento v de V
tal que v S y, puesto que S es cerrado para la multiplicacion por
escalares, se tiene entonces 0K v = 0V S, por lo que el vector nulo
esta en S. Ahora, si w es un elemento cualquiera de S, entonces w =
8

Utilice 0K v = (0K + 0K )v.


1.4. ANILLOS, CAMPOS Y ESPACIOS VECTORIALES


Castaneda
/ Barrios

26

1K w S. Teniendo en cuenta que la asociatividad y la conmutatividad


son propiedades hereditarias se sigue entonces que (S, +) es un grupo
abeliano. Las demas propiedades que definen espacio vectorial son heredadas por S, por lo que S es tambien un espacio vectorial sobre el campo
K.

Un subconjunto S, como en el teorema anterior, no vaco y cerrado para las


operaciones de espacio vectorial se denominara, consecuentemente, un subespacio del espacio vectorial V . En particular, si V es un K espacio vectorial,
entonces tambien lo son {0V } (subespacio nulo) y el mismo V ; estos son
los subespacios triviales de V . As, todo espacio vectorial que tenga mas
de un elemento tiene al menos dos subespacios. Si S es un subespacio de V
escribiremos S  V para indicarlo. Si S es subespacio de V y S 6= V , decimos
que S es un subespacio propio de V .
Si V es un espacio vectorial sobre el campo K y M es un subconjunto de V ,
entonces M esta contenido en al menos un subespacio de V ya que M V y
V  V . Nos interesa, sin embargo, determinar un subespacio minimal que
contenga a M . Es decir, un subespacio de V que contenga a M y que este
contenido, a su vez, en cualquier subespacio que contenga al conjunto M . Para
demostrar la existencia de tal subespacio, introducimos algunos resultados y
definiciones previas.
Teorema 1.4.4. Sea V un espacio vectorial sobre
T el campo K. Si {Si |i I}
es una familia de subespacios de V , entonces
Si es tambien un subespacio
iI

de V .
Demostracion. Sea T =

Si , entonces para cada i I, se tiene que 0V Si ,

iI

por lo que 0V T y se tiene que T 6= . Ahora, si v, w T y K, entonces


para cada i I se tiene que v, w Si por lo que v + w Si y v Si . As,
entonces v + w T y v T : Se sigue que T es, por tanto, un subespacio de
V.
Ahora, si consideramos SM como la familia, no vaca, de subespacios que
contienen al conjunto M V se tiene entonces que la interseccion de los
elementos de dicha familia es un subespacio de V . Claramente, tal subespacio
contiene a M y esta contenido en cualquiera de los elementos de SM ; es decir,
CAPITULO 1. LA ESTRUCTURA DE ESPACIO VECTORIAL


al Algebra
Introduccion
lineal

27

en cualquier subespacio de V que contenga al conjunto M . Tal subespacio sera


denominado el subespacio generado por M y se notara por hM i. As:
hM i =

(1.30)

SSM

La definicion anterior es equivalente a decir que H = hM i si, y solo si:


1. H  V .
2. M H.
3. Para todo subespacio, S, de V , si M S, entonces H S.
Lo que establece as que H es el menor (en el sentido de la inclusion)
subespacio de V que contiene al conjunto M .
El subespacio generado por un conjunto no vaco puede caracterizarse, como
se establecera seguidamente, como el conjunto de todas las combinaciones
lineales de elementos del conjunto. Si V es un espacio vectorial sobre el
campo K y S es un subconjunto no vaco de V decimos que un vector v V
es combinaci
on lineal de elementos de S si, y solo si existe un n
umero finito
de vectores v1 , v2 , . . . , vn S y escalares 1 , 2 , . . . , n tales que
v=

n
X

k vk = 1 v1 + 2 v2 + + n vn

(1.31)

k=1

La ecuacion 1.31 establece que v es una suma de m


ultiplos escalares de elementos
de S. En particular, para un conjunto finito de vectores w1 , w2 , . . . , wm V
una combinacion lineal de ellos es un vector de la forma
1 w1 + 2 w2 + + m wm ,
para escalares 1 , 2 , . . . , m K.
De la definicion de subespacio se tiene que un subconjunto no vaco, S, de
un espacio vectorial V es un subespacio de V si, y solo si para todo par de
escalares , y vectores v, w S se cumple que
v + w S,
1.4. ANILLOS, CAMPOS Y ESPACIOS VECTORIALES


Castaneda
/ Barrios

28

es decir, toda combinacion lineal de elementos de S es tambien un elemento


de S. Mas a
un esto es equivalente a decir que para tales elementos v, w S y
todo escalar se cumple:
v + w S.
Tenemos entonces la siguiente caracterizacion del subespacio generado por un
conjunto cualquiera:
Teorema 1.4.5. Sean V un espacio vectorial sobre el campo K, y M un
subconjunto de V . Entonces.
1. Si M = , entonces hM i = {0V }.
2. Si M 6= , entonces
( n
X
i vi
hM i =
k=1


)


n N y (i = 1, 2, . . . , n : i K, vi M )

(1.32)

Demostracion.
1. Trivialmente {0V } es un espacio vectorial que contiene a
y esta contenido en cualquier subespacio de V .
2. Sea
(
H=

n
X
k=1


)


i vi n N y (i = 1, 2, . . . , n : i K, vi M )

el conjunto en el miembro derecho de 1.32. Es claro (ejercicio) que H es


un subespacio de V ya que es no vaco y la suma de combinaciones lineales
de elementos de M es tambien una combinacion lineal de elementos de
M , as como tambien lo es el producto de un escalar por una combinacion
lineal de elementos de M . Tambien, si v M , entonces v = 1K v H,
por lo que M H. Finalmente, si S  V y M S, entonces cada
combinacion lineal de elementos de M esta en S; es decir, H S. Se
tiene as que H = hM i.
El conjunto M es un conjunto de generadores de hM i. En general, si S
es un subespacio de V , un conjunto M S es un conjunto de generadores
de S (o M genera a S) si, y solo si S = hM i. Un espacio vectorial es
finitamente generado si existe un subconjunto finito que lo genera.
CAPITULO 1. LA ESTRUCTURA DE ESPACIO VECTORIAL


al Algebra
Introduccion
lineal

29

Ejemplo 1.4.5. Si M = {v1 , v2 , . . . , vn } es un conjunto finito no vaco, entonces


hM i = {1 v1 + 2 v2 + + n vn |1 , 2 , . . . , n K}
En este caso escribiremos
hM i = hv1 , v2 , . . . , vn i.
Por ejemplo si V = R3 , entonces:
h(1, 0, 2)i =
=
h(1, 0, 2), (3, 1, 4)i =
=

{t(1, 0, 2)|t R}
{(t, 0, 2t)|t R}
{t(1, 0, 2) + s(3, 1, 4)|t, s R}
{(t + 3s, s, 2t 4s)|t, s R}

Ejemplo 1.4.6. Si consideramos el conjunto


H = {a + (a + b)x + (3b a)x2 |a, b K} P2 (K),
siendo K un campo, entonces tenemos:
H = {a(1 + x x2 ) + b(x + 3x2 )|a, b K}
= h1 + x x2 , x + 3x2 i
Es decir, H es el subespacio de P2 (K) generado por los polinomios 1 + x x2
y x + 3x2 .
Ejemplo 1.4.7. Para cualquier campo K y todo natural n se tiene que el
espacio vectorial Kn es finitamente generado. En efecto, si para i {1, 2, . . . , n}
definimos el vector
ei = (0K , 0K , . . . , 0K , 1K , 0K , . . . , 0K ),

(1.33)

en el cual la iesima componente es el elemento identidad del campo, 1K ,


y las demas componentes son nulas, entonces se tiene que para todo vector
v = (v1 , v2 , . . . , vn ) Kn se cumple que
v = v1 e1 + v2 e2 + + vn en
n
X
=
vi ei
i=1
n

Es decir K = he1 , e2 , . . . , en i = hei |i {1, 2, . . . , n}i.


1.4. ANILLOS, CAMPOS Y ESPACIOS VECTORIALES


Castaneda
/ Barrios

30

Ejemplo 1.4.8. Considere el subconjunto de R3


H = {(x, y, z)|x + y + 2z = 0 x y + z = 0}.
Entonces claramente (0, 0, 0) = 0R3 H pues
0 + 0 + 2(0) = 0
0 0 + 0 = 0,
por lo que H 6= . Si consideramos ahora dos elementos cualesquiera de H,
digamos v = (v1 , v2 , v3 ) y w = (w1 , w2 , w3 ), y si es un real, entonces se
satisfacen
v1 + v2 + 2v3
v1 v2 + v3
w1 + w2 + 2w3
w1 w2 + w3

=
=
=
=

0
0
0
0

Sumando miembro a miembro la primera con la tercera igualdad y la segunda


con la cuarta, y multiplicando las dos primeras por obtenemos:
(v1 + w1 ) + (v2 + w2 ) + 2(v3 + w3 )
(v1 + w1 ) (v2 + w2 ) + (v3 + w3 )
(v1 ) + (v2 ) + 2(v3 )
(v1 ) (v2 ) + (v3 )

=
=
=
=

0
0
0
0,

lo cual implica que v +w = (v1 +w1 , v2 +w2 , v3 +w3 ), v = (v1 , v2 , v3 ) H.


Se sigue as que H  R3 . Notese que los conjuntos
S1 = {(x, y, z)|x + y + 2z = 0}
S2 = {(x, y, z)|x y + z = 0}
son subespacios de R3 (pruebelo) y que H = S1 S2 . Si en la ecuacion
x + y + 2z = 0, que define a S1 , despejamos y, obtenemos y = x 2z, por
lo que todo vector de S1 se puede obtener asignando valores arbitrarios a x y
z y escogiendo y de forma tal que satisfaga la ecuacion anterior. Es decir, se
tiene que
S1 = {(t, t 2s, s)|t, s R}
= h(1, 1, 0), (0, 2, 1)i
CAPITULO 1. LA ESTRUCTURA DE ESPACIO VECTORIAL


al Algebra
Introduccion
lineal

31

De manera similar se obtiene que


S2 = {(t, t + s, s)|t, s R}
= h(1, 1, 0), (0, 1, 1)i
Ahora, puesto que H = S1 S2 , entonces un vector v estara en H si, y solo si
pertenece a S1 y S2 . Por estar en S1 debe ser de la forma v = (t, t 2s, s)
para reales t, s. Como debe estar en S2 tambien, entonces debe satisfacer que
t (t 2s) + s = 0. Es decir 2t + 3s = 0, o sea t = 23 s. Tenemos entonces
que




3
3
H =
s, s + s, s s R
2
2

ns
o

=
(3, 1, 2) s R
2
= {u(3, 1, 2)|u R}
= h(3, 1, 2)i

Ejercicios 1.4.1.
1. Demuestre en detalle que los conjuntos considerados en los ejemplos de
la seccion son, efectivamente, espacios vectoriales con las operaciones
indicadas.


2. Sean v = (1, 2, 3), w = 5, 7, 12 , u = 0, 13 , 51 .
(a) Calcule v + w, 13 w, 3v + 2w 14 u.
(b) Resuelva las ecuaciones (incognitas vectoriales x e y):
i. 2x + 3v = w.
ii. 3x + 2v = 5w u.
iii. 2x + y = v w.
3. Dado un complejo z = x + iy definimos
su conjugado por z = x iy
p
y su valor absoluto por |z| = x2 + y 2 . Decimos tambien que x es
la parte real de z y que y es la parte imaginaria. Escribiremos x =
Re(z), y = Im(z). Demuestre:
(a) Si z C, entonces
zz = |z|2
z + z = 2Re(z)
z z = 2iIm(z)

1.4. ANILLOS, CAMPOS Y ESPACIOS VECTORIALES


Castaneda
/ Barrios

32

(b) Si z es no nulo entonces z 1 =

1
z.
|z|2

(c) Si z, w C, entonces:
|zw|
|z + w|
z+w
zw

=
=

|z||w|
|z| + |w|
z+w
zw

4. Calcule:
(a) (2 + 3i)(5 i).
(b) (3 + 5i)(4 2i) + i3 + 7i.
(c) (3 + 4i)1 (2 + 5i).
(d) 2 + i(2 i)(3 + i) 4i(5 3i).
(e) Re((2 + i)(4 i)).
(f) Re(2 + i)(4 i).
(g) Im((5 + 3i)(4 i)1 ).
(h) (2 + 3i)3 .
5. Considere el anillo conmutativo con identidad (Zn , +, ), n 2.
(a) Demuestre que si n no es primo, entonces existen elementos no nulos
x, y Zn tales que xy = 0.
(b) Si a, b Zn , con a =
6 0 Tiene solucion u
nica la ecuacion ax = b?
Si no es as, bajo cuales condiciones, para a, hay solucion u
nica?
(c) Demuestre que la ecuacion ax = b, con a 6= 0, tiene solucion si, y
solo si el maximo com
un divisor 9 de a y n divide a b. Si denotamos
por d a dicho maximo com
un divisor, demuestre que si d divide a b
entonces existen exactamente d soluciones distintas (Sugerencia:
Utilice el hecho de que el maximo com
un divisor de dos enteros se
puede escribir como una suma de m
ultiplos de los enteros; es decir
existen enteros y, z tales que d = ay + nz. Muestre tambien que
toda solucion es de la forma x0 + k nd , para
 k = 0, 1, . . . , d 1,
siendo x0 la u
nica solucion de la ecuacion ad x = db en Z nd ).
9

Ver apendice Enteros


CAPITULO 1. LA ESTRUCTURA DE ESPACIO VECTORIAL


al Algebra
Introduccion
lineal

33

(d) En cada caso halle el conjunto solucion (conjunto de todas las


soluciones) de la ecuacion dada en (Zn , +, ) para el n indicado.
i.
ii.
iii.
iv.

2x = 7, para n = 9.
2x 5 = 6 para n = 11.
3x = 6, para n = 9.
5x 5 = 0 para n = 15.

(e) Si a, b, c, d Zn , con a, c 6= 0, considere la ecuacion (cuadratica)


(ax + b)(cx + d) = 0.
i. Puede afirmarse que el conjunto solucion de dicha ecuacion es
la union de los conjuntos solucion de las ecuaciones ax + b = 0
y cx + d = 0?
ii. Considere, en particular, la ecuacion (x + 2)(x + 12) = 0 en
(Zn , +, ). Encuentre todas sus soluciones para n = 16,n = 13
y n = 24.
6. En cada caso indique si el subconjunto del espacio vectorial dado es o no
un subespacio del mismo. En caso afirmativo, encuentre un conjunto de
generadores del subespacio.
(a) En R2 : {(x, y)|2x + 3y = 0} .
(b) En R2 : {(x, y)|3x + 5y = 1}.
(c) En R3 : {(t, 2t + s, s)| t, s R}.
(d) En R3 : {(x, y, z)|3x + 5y + z = 0 2x y + z = 0}.
(e) En R3 : {(x, y, z)|3x + 5y + z = 0 2x y + z = 5}.
(f) En K3 , siendo K un campo cualquiera: {(t, 2t + s, s)| t, s K} .
(g) En K3 , siendo K un campo cualquiera: {(t, 2t + s, s + 1)| t, s K}.
(h) En Pn (K), siendo K un campo cualquiera y n 3:
i. {a + bx + (a b)x2 | a, b K}.
ii. {a + bx + (a b)x2 + (c + a)x3 | a, b, c K}.
iii. {a + bx + (a b)x2 + x3 | a, b K}.
(i) En Z22 : {(0, 0), (0, 1)} y {(0, 1), (1, 0)
(j) En Z23 : {(0, 0), (0, 1), (0, 2)}
7. Determine todos los subespacios de Z23 .
1.4. ANILLOS, CAMPOS Y ESPACIOS VECTORIALES


Castaneda
/ Barrios

34

8. Es la union de subespacios de un espacio vectorial un subespacio del


mismo?
9. En cada caso describa el subespacio generado por el subconjunto M dado.
Si es finito, liste todos sus elementos.
(a)
(b)
(c)
(d)
(e)
(f)
(g)

M
M
M
M
M
M
M

= {(3, 1)} en R2 .
= {(1, 3)} en Z25 .
= {(1, 0), (0, 1)} en Z23 .
= {(1, 1, 3), (0, 0, 1)} en R3 .
= {1, x, x2 } en P3 (R).
= {1 + x, 2x} en P2 (Z3 ).
= {(1, 2), (2, 4)} en R2 .

10. Sea K un campo finito con n elementos10 . Sea M un subconjunto no


vaco de un espacio vectorial V sobre K.
(a) Cuantos elementos tiene el subespacio generado por M si M tiene
un solo elemento?
(b) Cuantos elementos tiene el subespacio generado por M si M tiene
dos elementos?

1.5

Espacios de Matrices sobre un campo

Otro ejemplo importante de espacios vectoriales sobre un campo K, del cual Kn


puede considerarse como un caso particular, es el de funciones definidas sobre
un conjunto fijo no vaco, X, y con imagenes sobre el campo. Denotaremos tal
conjunto de funciones por KX . Es decir
KX = {f : X K|f es una funcion }.

(1.34)

La estructura de campo es aqu aprovechada para definir una adicion y una


multiplicacion por escalares en el conjunto KX . As. si f, g KX y K,
definimos
f + g : X
K
(1.35)
x 7 (f + g)(x) = f (x) + g(x)
f : X
K
x 7 (f )(x) = f (x)
10

(1.36)

Para un campo finito, su n


umero de elementos es una potencia de un n
umero primo.
CAPITULO 1. LA ESTRUCTURA DE ESPACIO VECTORIAL


al Algebra
Introduccion
lineal

35

Nuevamente, las propiedades de campo pueden utilizarse para verificar que


1.35 y 1.36 definen operaciones de espacio vectorial sobre KX . Se deja su
comprobacion al lector.
Si X = {1, 2, . . . , n} y f KX , entonces f esta completamente determinada
por las n imagenes f (1), f (2), . . . , f (n), las cuales son elementos del campo.
Podemos entonces identificar f con la nada
(f (1), f (2), . . . , f (n)) Kn .
En esta identificacion convenimos que las imagenes estan ordenadas como se
indica. As, si (x1 , x2 , . . . , xn ) Kn identificamos tal nada con la funcion
f KX tal que para cada i {1, 2, . . . , n} se tiene f (i) = xi . En ese sentido
identificamos KX con Kn . Esto tambien lo haremos si X = {a1 , a2 , . . . , an } es
un conjunto finito con n elementos.
Para un n
umero natural n sea Jn = {1, 2, . . . , n}. Si m, n N, entonces
escribiremos Kmn = KJm Jn y tal espacio sera denominado el espacio de
matrices m n sobre el campo K. Es decir, una matriz m n sobre el
campo considerado es una funcion
A : {1, 2, . . . , m} {1, 2, . . . .n}
K
(i, j)
7 A(i, j)
que asigna a cada par ordenado (i, j), con i {1, 2, . . . , m}, j {1, 2, . . . , n},
un escalar u
nico A(i, j), notado tambien aij . Nuevamente, cada matriz A
esta determinada por las mn imagenes A(i, j) las cuales se pueden escribir
ordenadamente en un arreglo rectangular de m filas (horizontales) y n columnas
(verticales)

A(1, 1) A(1, 2) . . . A(1, n)


a11 a12 . . . a1n
A(2, 1) A(2, 2) . . . A(2, n) a21 a22 . . . a2n

.
..
..
..
..
..
..
..

.
.
.
.
.
.
.
.

A=
=

A(i, 1) A(i, 2) . . . A(i, n) ai1 ai2 . . . ain

..
..
..
..
..
..
..

...
.
.
.
.
.
.
.
A(m, 1) A(m, 2) . . . A(m, n)
am1 am2 . . . amn
Es decir, para cada i fijo en Jm , las imagenes A(i, j), variando j en Jn se
escriben en la fila i del arreglo. Tal fila se notara Ai y sera considerada como
un vector en Kn
Ai = (ai1 , ai2 , . . . , ain ).
1.5. ESPACIOS DE MATRICES SOBRE UN CAMPO


Castaneda
/ Barrios

36

Para un j fijo en Jn , por su parte, las imagenes A(i, j), con i en Jm forman la
jesima columna de A, notada A(j) :

a1j
a2j

(j)
A = ..
.
amj
Se abreviara escribiendo A = (aij )mn = (A(i, j))mn . Tambien escribiremos

A1
A2


A = .. = A(1) A(2) . . . A(n)
.
Am
A sera, consecuentemente, denominada una matriz de m filas y n columnas
sobre el campo K. Si m = n se dice que A es una matriz cuadrada.
Consideremos, como ejemplo, el campo real R. Si


1 2
2
A=
0 5 6
entonces A es una funcion
A : {1, 2} {1, 2, 3}
(1, 1)
(1, 2)
(1, 3)
(2, 1)
(2, 2)
(2, 3)

R
7 1
7
2
2
7
7 0
7 5
7 6

As, por ejemplo,


A(1, 1) = a11 = 1
A(2, 3) = a23 = 6
A2 = (0, 5, 6)
 
2
(3)
A
=
6
CAPITULO 1. LA ESTRUCTURA DE ESPACIO VECTORIAL


al Algebra
Introduccion
lineal

37

Notese que K1n = Kn . De acuerdo con la definicion de la adicion y la


multiplicacion por escalares entre funciones se tiene, para el caso particular
de matrices A, B Kmn que para (i, j) Jm Jn , R :
(A + B)(i, j) = A(i, j) + B(i, j)
(A)(i, j) = A(i, j)

(1.37)
(1.38)

Es decir, vistas como arreglos rectangulares de escalares en m filas y n columnas,


la suma de dos matrices es la matriz que se obtiene sumando componente a
componente los elementos de las matrices dadas. De igual manera el producto
de un escalar por una matriz se obtiene multiplicando cada componente de la
matriz por el escalar. As, por ejemplo:


 


2 3 5
5 2 4
7 1
+
=
0 4 1
3 7 1
3 11



2 3 5
6 9
3
=
0 4 1
0 12


9
0

15
3

De las definiciones de las operaciones de espacio vectorial entre matrices es


inmediato que para matrices A yB en Kmn , siendo K un campo cualquiera,
i Jm , j Jn y K se tienen
(A + B)i
(A + B)(j)
(A)i
(A)(j)

1.5.1

=
=
=
=

Ai + Bi
A(j) + B (j)
Ai
A(j)

(1.39)
(1.40)
(1.41)
(1.42)

Transposici
on y producto matricial

Si K es un campo, dada una matriz A Kmn , la matriz transpuesta de A,


notada AT , es la matriz n m definida por
AT (i, j) = A(j, i)
para cada i {1, 2, . . . , n}, j {1, 2, . . . , m}. Se sigue que:
1.5. ESPACIOS DE MATRICES SOBRE UN CAMPO

(1.43)


Castaneda
/ Barrios

38

Teorema 1.5.1. Sea K un campo. Si A, B Kmn y K, entonces:


(AT )T
(AT )i
(AT )(j)
(A)T
(A + B)T

=
=
=
=
=

A
(A(i) )T , i {1, 2, . . . , n}
(Aj )T , j {1, 2, . . . , m}
AT
AT + B T

(1.44)
(1.45)
(1.46)
(1.47)
(1.48)

Demostracion. Se tiene claramente que (AT )T Kmn . Ahora si (i, j)


Jm Jn , entonces
(AT )T (i, j) = AT (j, i)
= A(i, j),
de donde se sigue 1.44. De la definicion se siguen tambien 1.45 y 1.46 de
manera inmediata. Para probar 1.48 tenemos en cuenta que A + B es m n
y, por tanto, (A + B)T es n m, luego si tomamos (i, j) Jn Jm se tiene
(A + B)T (i, j) = (A + B)(j, i)
= A(j, i) + B(j, i)
= AT (i, j) + B T (j, i).
La prueba de 1.47 se deja como ejercicio.
El conjunto Kmn , como hemos visto, tiene una estructura de espacio
vectorial. Si m = n podemos dotar a Kmn de la estructura de anillo,
definiendo una multiplicacion de matrices adecuadamente. Tal operacion puede,
sin embargo, definirse en forma mas general como una operacion binaria entre
matrices no necesariamente cuadradas. Introducimos enseguida dicha operacion.
Definici
on 1.5.1. Sean K un campo y A Kmn , B Knp , con m, n, p N.
El producto de A por B, notado AB es la matriz m p definida por
AB(i, j) =

n
X

A(i, k)B(k, j), para (i, j) Jm Jp

(1.49)

k=1

Si A y B son matrices como en la definicion anterior, entonces para (i, j)


Jm Jp , se tiene que Ai K1n , B (j) Kn1 de modo que el producto entre
CAPITULO 1. LA ESTRUCTURA DE ESPACIO VECTORIAL


al Algebra
Introduccion
lineal

39

filas de A y columnas de B esta definido y es una matriz 1 1 sobre K, la cual


identificaremos con su u
nica componente; es decir, escribiremos usualmente11
Ai B (j) (1, 1) = Ai B (j) .
Se sigue de 1.49 que
AB(i, j) = Ai B (j) ,

(1.50)

es decir, el elemento i, j de AB es la u
nica componente del producto de la fila
i de A por la columna j de B.
Ejemplo 1.5.1. Consideremos, por ejemplo, las siguientes matrices sobre el
campo real.



1
4
2
3 0
A=
, B = 2 3
1 1 6
8
6
Entonces, tanto AB como BA estan definidas aunque son de tama
nos diferentes, lo cual muestra de paso que la multiplicacion matricial no es conmutativa.
Tenemos entonces

1
4
(2, 3, 0) 2
3
(2,
3,
0)

8
6

AB =

1
4

(1, 1, 6) 2 (1, 1, 6) 3
8
6


8 1
=
47 43
Por su parte (verifquelo):

6 1
24
9 18
BA = 1
22 18
36
Las principales propiedades del producto matricial se presentan en el siguiente
teorema.
Teorema 1.5.2. Sean K un campo, K y m, n, p, s N. Entonces:
11

Vease la definici
on de producto escalar mas adelante.
1.5. ESPACIOS DE MATRICES SOBRE UN CAMPO


Castaneda
/ Barrios

40

1. Si A Kmn , B Knp , C Kps , entonces


(AB)i
(AB)(j)
(AB)C
(AB)T
(A)B

=
=
=
=
=
=

Ai B, para i Jm
AB (j) , para j Jp
A(BC)
B T AT
A(B)
(AB)

(1.51)
(1.52)
(1.53)
(1.54)
(1.55)

2. Si A, B Kmn , C Knp , D Kpm , entonces:


(A + B)C = AC + BC
D(A + B) = DA + DB

(1.56)
(1.57)

Demostracion.
1. Demostremos 1.53. Es claro que (AB)C y A(BC) son de
tama
no m s y AB es m p. Supongamos entonces i Jm , j Js ,
entonces
((AB)C)(i, j) =

p
X

(AB)(i, k)C(k, j)

k=1

p
n
X
X
k=1
p

=
=
=

X
k=1
n
X
t=1
n
X
t=1

n
X

t=1
n
X

!
A(i, t)B(t, k) C(k, j)
!
A(i, t)B(t, k)C(k, j)

t=1
p

!
A(i, t)(B(t, k)C(k, j))

k=1

A(i, t)

p
X

!
B(t, k)C(k, j)

k=1

A(i, t)(BC)(t, j)

t=1

= (A(BC))(i, j)
Luego (AB)C = A(BC). Ahora, (AB)T es p m, entonces para i
CAPITULO 1. LA ESTRUCTURA DE ESPACIO VECTORIAL


al Algebra
Introduccion
lineal

41

Jp , j Jm tenemos
(AB)T (i, j) = (AB)(j, i)
n
X
=
A(j, k)B(k, i)
k=1

n
X

B T (i, k)AT (k, j)

k=1
T

= (B AT )(i, j),
por lo que (AB)T = B T AT . Las demas pruebas del numeral 1 del teorema
se dejan como ejercicio.
2. Demostremos la propiedad 1.56, conocida como propiedad distributiva
a derecha (del producto matricial respecto de la adici
on). Tenemos
que A + B es m n y C es n p. Tomando i Jm , j Jp se tiene
entonces
n
X
(A + B)(i, k)C(k, j)
((A + B)C)(i, j) =
k=1
n
X
=
(A(i, k) + B(i, k))C(k, j)

=
=

k=1
n
X
k=1
n
X

(A(i, k)C(k, j) + B(i, k)C(k, j))


A(i, k)C(k, j) +

k=1

n
X

B(i, k)C(k, j)

k=1

= (AC)(i, j) + (BC)(i, j)
La demostracion de 1.57 es similar.

1.5.2

El producto escalar

Consideramos ahora, en particular, el espacio vectorial Rn sobre el campo


real. Como hemos visto Rn = R1n . Para vectores v = (v1 , v2 , . . . , vn ), w =
(w1 , w2 , . . . , wn ) Rn definimos el producto escalar (o producto punto) de
v por w, notado v w, como la u
nica componente de la matriz vwT R11 .
1.5. ESPACIOS DE MATRICES SOBRE UN CAMPO


Castaneda
/ Barrios

42

Es decir:
vw =

n
X

vk wk

(1.58)

k=1

Notese que el producto escalar de dos vectores es un escalar (real). Algunas


propiedades inmediatas se establecen seguidamente.
Teorema 1.5.3. Sean v, w, u Rn y R. Entonces:
vv 0
v v = 0 v = (0, 0, . . . , 0)
(v) w = v (w)
= (v w)
vw = wv
(u + w) v = (u v) + (w v)

(1.59)
(1.60)
(1.61)
(1.62)
(1.63)

Demostracion. Las propiedades 1.61 y 1.63 son consecuencia de las propiedades


del producto matricial. Las restantes son mas o menos inmediatas.
Debe observarse que el producto escalar se definio especficamente para
vectores en Rn . Para un campo cualquiera K, podra pensarse en extender
dicha definicion al espacio Kn . Sin embargo, el cumplimiento de algunas
de las propiedades establecidas en el teorema anterior no se garantizara en
general. Por ejemplo, el cumplimiento de 1.59 requerira que K fuese un campo
ordenado, en el cual se tuviesen los conceptos de positivo y negativo.
Por su parte, ademas, la propiedad 1.60 no se cumplira, por ejemplo, en
campos finitos. Considerese, en tal sentido, el campo Z3 . Si tomamos v =
(1, 1, 1), entonces

1
T

vv = (1, 1, 1) 1 = (0)
1
pero v 6= (0, 0, 0).
El producto escalar es, de acuerdo con la definicion dada, una operacion
binaria
: Rn Rn
R
(v, w) 7 v w
CAPITULO 1. LA ESTRUCTURA DE ESPACIO VECTORIAL


al Algebra
Introduccion
lineal

43

Si n = 1, entonces coincide con la multiplicacion en el campo R. El producto


escalar es un caso particular de una operacion binaria
h., .i : V V
(v, w)

K,
7 hv, wi

denominada producto interior y definida sobre un espacio vectorial V sobre


el campo K, siendo este u
ltimo el campo real o el campo complejo. Para tal
operacion se exige el cumplimiento de algunas propiedades mnimas, entre ellas
las indicadas en 1.59, 1.60 y 1.63. En los ejercicios del captulo se presenta
una definicion y se muestran algunos ejemplos.
La propiedad 1.59 muestra que el producto escalar de un vector por si mismo
es un real no negativo. Esto permite definir el concepto de norma de un vector
en Rn , concepto que mas adelante tendra una interpretacion geometrica para
n 3.
Definici
on 1.5.2. Sea v = (v1 , v2 , . . . , vn ) Rn , la norma de v, notada kvk
es el real no negativo
n
X

vk2
(1.64)
kvk = v v =
k=1

Tenemos el siguiente teorema relativo a la norma vectorial. Por convencion,


para un vector v en Rn , su iesima componente sera notada vi .
Teorema 1.5.4. Sean v, w Rn y R, entonces:
1. kvk 0. Mas a
un kvk = 0 si y solo si v = (0, 0, . . . , 0).
2.
kvk = ||kvk

(1.65)

3. Desigualdad de Cauchy Schwarz


|v w| kvkkwk

(1.66)

kv + wk kvk + kwk

(1.67)

4. Desigualdad triangular

Demostracion.
y 1.60.

1. El primer numeral es inmediato de la definicion y de 1.59

1.5. ESPACIOS DE MATRICES SOBRE UN CAMPO


Castaneda
/ Barrios

44

2. Ejercicio.
3. Si v es el vector nulo, el resultado es inmediato. Supongamos que v no
es el vector nulo. Por 1.59 se tiene que para todo escalar se cumple
que
0 (v w) (v w)
= 2 kvk2 2(v w) + kwk2
=
2(v w) 2 kvk2 + kwk2
Tomando =

vw
se tiene entonces
kvk2
2(v w)2
(v w)2 + kvk2 kwk2

kvk2
kvk2
(v w)2 kvk2 kwk2

de donde se sigue 1.66. Demostremos, finalmente, la desigualdad triangular


1.67. Tenemos entonces:
kv + wk2 =
=

(v + w) (v + w)
kvk2 + 2(v w) + kwk2
kvk2 + 2kvkkwk + kwk2
(kvk + kwk)2

De la que, extrayendo raz cuadrada en ambos miembros, se obtiene 1.67.

Por la desigualdad de Cauchy-Schwarz si v y w son vectores no nulos se tiene


entonces que


vw


kvkkwk 1,
por lo que existe un angulo u
nico [0, ] tal que
Cos() =

vw
kvkkwk

(1.68)

Definimos tal angulo como el angulo entre v y w. Para n 3 tal angulo


tendra una interpretacion geometrica como se vera en el captulo 3. Notese
que 1.68 establece que el signo del coseno del angulo es el mismo del producto
CAPITULO 1. LA ESTRUCTURA DE ESPACIO VECTORIAL


al Algebra
Introduccion
lineal

45

escalar de los vectores. En particular, si v w = 0, entonces el angulo entre v

y w es (angulo recto). En tal caso decimos que los vectores (no nulos) son
2
perpendiculares. Por supuesto, si un vector es nulo entonces su producto
escalar con cualquier vector es cero, pero no podramos hablar, en tal caso, de
un angulo entre vectores ya que 1.68 no tendra sentido en ese caso, aunque
siga siendo valida la desigualdad de Cauchy schwarz (en este caso se dara la
igualdad). Mas generalmente, dos vectores en Rn cuyo producto escalar sea
cero se denominaran ortogonales. As, dos vectores perpendiculares siempre
son ortogonales. El recproco, sin embargo, como lo muestra el caso del vector
cero, es falso en general. Sin embargo, si v y w son vectores ortogonales
escribiremos vw (o wv).
Un vector v Rn se denomina unitario si, y solo si tiene norma uno. Si
v 6= 0Kn entonces definimos el vector unitario direccional de v por
Uv =

1
v
kvk

(1.69)

De la propiedad 1.65, pagina 43, se sigue facilmente que Uv es unitario. Tal


vector unitario se define como la direcci
on del vector v. Para n 3, se dara
mas adelante una justificacion geometrica de tal definicion. Tenemos as que
todo vector no nulo se puede escribir como el producto de su norma (un escalar
positivo) por su direccion12 . En efecto, de 1.69, se sigue que
v = kvkUv

(1.70)

Dos vectores no nulos v, w Rn son paralelos si, y solo si Uv = Uw o Uv =


Uw . En el segundo caso, se acostumbra a decir que v y w tienen direcciones
opuestas.

1.5.3

La matriz identidad. Matrices invertibles.

Hemos visto que el producto matricial es una operacion binaria


: Kmn Knp Kmp
(A, B)
7 AB
donde m, n, p son naturales cualesquiera. En general, tal operacion no es
una ley de composicion interna pero, como se mostrara enseguida, existen
12

Este modelo responde a la caracterizacion fsica de una cantidad vectorial


1.5. ESPACIOS DE MATRICES SOBRE UN CAMPO


Castaneda
/ Barrios

46

elementos neutros unilaterales( a derecha e izquierda). Consideremos un


n
umero natural cualquiera n. Simbolizaremos por In la matriz 13 n n sobre
un campo cualquiera K como la matriz definida por

1, si i = j;
In (i, j) =
0, si i 6= j.

1 0 0 ... 0 0
0 1 0 . . . 0 0

0 0 1 . . . 0 0

= .. .. .. . . .. ..
(1.71)
. . .
. . .

0 0 0 ... 0 1
Se acostumbra tambien escribir In = (ij )nn , donde ij (conocido como delta
de Kronecker) es 1 o 0 de acuerdo con las condiciones dadas en 1.71. tenemos
entonces el siguiente teorema cuya demostracion se deja como ejercicio.
Teorema 1.5.5. Sea A Kmn , entonces
AIn = A
Im A = A

(1.72)
(1.73)

Es decir, In es un neutro (multiplicativo) a derecha para matrices m n


y a izquierda para matrices n p. Se sigue entonces que en el anillo Knn ,
de matrices cuadradas n n, In es neutro multiplicativo. Tenemos entonces
que (Knn , +, ) es un anillo (no conmutativo si n > 1) con identidad. Aqu
la multiplicacion considerada es la matricial como ley de composicion interna
que es.
Por lo demostrado antes, la estructura multiplicativa (Knn , ) es un monoide,
el neutro multiplicativo es la matriz identidad In . Surge la cuestion acerca de
cuales son los elementos invertibles en dicho monoide. El que una matriz
A Knn sea invertible o no singular significa, como se recordara, que existe
una matriz B Knn , tal que AB = BA = In . Tambien sabemos que si tal
elemento existe es u
nico y se nota por A1 , al cual denominamos la inversa
de A. Si bien no daremos respuesta inmedita a la pregunta sobre los elementos
13
No confundir esta notaci
on con la de la fila n de una matriz I. Usaremos I solamente
para simbolizar la matriz definida aqu, de modo que el subndice se refiere al n
umero de
filas y columnas de la misma.

CAPITULO 1. LA ESTRUCTURA DE ESPACIO VECTORIAL


al Algebra
Introduccion
lineal

47

invertibles en el monoide considerado, podemos dar algunos resultados que se


siguen de manera inmediata de la definicion de elemento inverso en un monoide.
Respuestas parciales al problema planteado se daran en el siguiente captulo,
en el cual, ademas, abordaremos el problema del calculo de la inversa de una
matriz, en caso de existir.
Teorema 1.5.6. Sean A, B Knn , matrices no singulares y un escalar no
nulo. Entonces las matrices A1 , A, AT y AB son invertibles y se cumplen:
(A1 )1 = A
(AB)1 = B 1 A1
1 1
A
(A)1 =

(AT )1 = (A1 )T

(1.74)
(1.75)
(1.76)
(1.77)

Demostracion. Las propiedades 1.74 y 1.75 ya fueron demostradas en general


para elementos invertibles en un monoide. Veanse 1.9 y 1.10, teorema 1.3.1,
pagina 13. Para las otras dos, tenemos:


 
1 1
1
A
(A1 A)
(A) =

 
1
=
(AA1 )



1 1
= (A)
A

 
1
=
(A1 A)

= 1K In
= In
In = AA1 = A1 A
InT = (AA1 )T = (A1 A)T
In = (A1 )T AT = AT (A1 )T

Ejercicios 1.5.1.
1. Sean


A=






2 5
1 0
3 5
,B =
,C =
,
1 3
4 7
2
4

matrices 2 2 sobre el campo real.


1.5. ESPACIOS DE MATRICES SOBRE UN CAMPO


Castaneda
/ Barrios

48

(a) Determine:
i.
ii.
iii.
iv.
v.
vi.
vii.
viii.
ix.

3A + 2B 5C.
3AT + (B C)T
(2A + B)1
(3A + 4C)(2)
2AB.
3AT C.
(AC)(1, 2).
(3AT + 2B C)(2, 1)
((3A + B C)T )(1) .

(b) Resuelva las ecuaciones (incognitas matriciales X e Y ):


i.
ii.
iii.
iv.
v.
vi.

2X + 3A = B.
3X + AT = 2B + C.
2X T + 5A = C.
(2X + B)T = 3C.
3X AB = AC.
2X + 3Y A = B.

2. Sean

A=




5
1
1 0
5
2 3 1
1 3
, B = 2 3 , C =
, D = 2 6 3
0
3
4
1 6
4
4
0 4
1

Calcule, si estan definidas:


(a) AB, BA, (AB)C, B(AD).
(b) (CA)1 , (CA)(2) .
(c) (AB + 2C)2
3. Muestre que si K es un campo, entonces el anillo Knn , para n 2 no
es un dominio entero. Es decir, existen matrices n n, no nulas, A y
B sobre el campo K, tales que AB = 0Knn .
4. Una matriz A Knn es sim
etrica si, y solo si AT = A. Demuestre
que el subconjunto de las matrices simetricas en el espacio Knn es un
subespacio de dicho espacio. Para los casos n = 2 y n = 3 encuentre un
conjunto de generadores para el subespacio de las matrices simetricas.
CAPITULO 1. LA ESTRUCTURA DE ESPACIO VECTORIAL


al Algebra
Introduccion
lineal

49

5. Una matriz cuadrada A Knn es antisim


etrica si, y solo si AT = A.
(a) Demuestre que si A es antisimetrica, entonces

0K ,
si i = j;
A(i, j) =
A(j, i), si i 6= j.
para todo i, j {1, 2, . . . , n}.
(b) Demuestre que toda matriz cuadrada n n, sobre el campo K se
puede escribir (descomponer) como la suma de una matriz simetrica
con una antisimetrica.
(c) Con relacional ejercicioanterior encuentre la descomposicion de la
1 2 3
4 5 sobre el campo real.
matriz A = 0
1 3 8
6. Indique, en cada caso si el subconjunto dado en el espacio vectorial R23
es un subespacio del mismo. En caso afirmativo encuentre un conjunto
de generadores.



s
t 0
s, t R .
(a)
2s + t 3t s



s
t 1
s, t R .
(b)
2s + t 3t s



s
t
r
(c)
s, t R .
2s + t r 3 2r s
7. En el espacio real R2 , dado un vector v = (a, b) no nulo.
(a) Cuantos vectores paralelos y con norma 2 tiene v?
(b) Cuantos vectores ortogonales a v y con norma 2 existen?.
(c) Determine el conjunto de todos los vectores ortogonales a v.
8. Realice el ejercicio anterior si v = (a, b, c) R3 .
9. Sean v = (1, 1, 2, 3), w = (1, 4, 0, 2), u = (1, 1, 4, 5).
(a) Calcule v w, (2v + 3w) u, (v 2w)u.
(b) Determine la norma de cada uno de los vectores dados.
1.5. ESPACIOS DE MATRICES SOBRE UN CAMPO


Castaneda
/ Barrios

50

(c) Encuentre todos los vectores ortogonales a v. Demuestre que el


conjunto de tales vectores es un subespacio de R4 y encuentre un
conjunto de generadores para dicho subespacio.
(d) Encuentre un vector ortogonal a v y con norma 2.
(e) Encuentre un vector de norma 3 y con la misma direccion de v + w.
(f) Encuentre un vector paralelo a v y con norma 5.
(g) Sea S el conjunto de todos los vectores x R4 tales que v x = 2.
Es S un subespacio de R4 ?
10. Sea A Kmn . Demuestre que:
(a) R(A) = {AX T |X Kn } es un subespacio de Km1 y es generado
por las columnas de A.
(b) N (A) = {X Kn |AX T = 0Km1 } es un subespacio de Kn .


a11 a12
K22 . Demuestre que si
11. Sean K un campo y A =
a21 a22
d = a11 a22 a12 a21 6= 0K ,
entonces
1

1
=
d

a22 a12
a21 a11

12. Suponga que A y B son matrices 2 2 sobre el campo real y que






1 2
1 3
1
T
A =
,B =
.
3 4
4
2
Utilice el resultado anterior y el teorema 1.5.6 para determinar:
(a) (2A)1 .
(b) (AB T )1 .
(c) ((3A)(2B 1 ))1 .
13. Sea A una matriz cuadrada n n sobre el campo K. Una inversa a
derecha de A es una matriz B tal que AB = In . B es una inversa a
izquierda para A si BA = In . Demuestre que si A tiene una inversa a
derecha y una inversa a izquierda, entonces son iguales y, por tanto, A
es no singular
CAPITULO 1. LA ESTRUCTURA DE ESPACIO VECTORIAL


al Algebra
Introduccion
lineal

51

14. Una matriz A = (aij ) Knn se denomina diagonal si, y solo si para
todo i, j Jn se cumple que aij = 0K , si i 6= j. Demuestre que una matriz
diagonal es invertible si, y solo si para todo i Jn , se tiene aii 6= 0K . En
tal caso calcule A1 . .
15. Una matriz A Kmn es triangular superior, si y solo si para todo
(i, j) Jm Jn se tiene que A(i, j) = 0K si i > j. A es triangular
inferior si, y solo si para todo (i, j) Jm Jn se tiene que A(i, j) = 0K
si i < j. Una matriz que sea triangular superior o inferior se denomina
triangular. Demuestre que una matriz n n triangular es invertible si,
y solo si para todo i Jn , A(i, i) 6= 0K y que, en tal caso, la inversa
es tambien triangular. En el caso triangular superior, encuentre una
formula recursiva que permita hallar los elementos en la columna iesima
de A1 , partiendo de A1 (i, i) y expresando A1 (j, i), para j < i, en
terminos de las componentes inferiores de la columna. Haga algo similar
para el caso triangular inferior.
16. Calcule las inversas de las matrices dadas a

1 1 1
1
2
3
0 1 3
A = 0 2 1 , B =
0 0 1
0
0
4
0 0 0

continuacion:

1
2
0
0
4
, C = 1 3 0
5
2 3 4
5

17. Sean A, B matrices nn sobre el campo real. Si 2A3BA+5In = 0Rnn ,


demuestre que A es no singular. Cual es, en terminos de B e In , su
inversa?
18. Sea S un subconjunto no vaco de V = Rn , definamos
S = {v V |(w S)(v w = 0}
Demuestre que S es un subespacio de V .
19. Con relacion al ejercicio anterior, si n = 2 determine S si:
(a) S = R2 .
(b) S = {(0, 0)}.
(c) S = {(1, 2)}
(d) S = {(1, 0), (0, 1)}
(e) S = {v, w}, donde v y w son vectores cualesquiera distintos.
1.5. ESPACIOS DE MATRICES SOBRE UN CAMPO


Castaneda
/ Barrios

52

20. Considere el espacio V = R[a,b] de funciones reales definidas sobre el


intervalo cerrado [a, b]. Demuestre que los subconjuntos dados son subespacios de V .
(a) El conjunto, C 0 ([a, b], R), de las funciones continuas en [a, b]
(b) El conjunto, C 1 ([a, b], R), de las funciones diferenciables y con derivada continua en [a, b] (derivadas unilaterales en los extremos).
(c) El conjunto de las funciones polinomicas.
(d) El conjunto de las funciones integrables en [a, b].
21. Sea V un espacio vectorial sobre el campo real o el campo complejo
(K = R o K = C). Una funcion
h, i : V V
K
(v1 , v2 ) 7 hv1 , v2 i
se denomina un producto interior sobre V si satisface:
(a) Para todo v V : hv, vi 0. Ademas
hv, vi = 0 v = 0V
(b) Para todo v1 , v2 , v3 V y escalares 1 , 2 se tiene
h1 v1 + 2 v2 , v3 i = 1 hv1 , v3 i + 2 hv2 , v3 i

(1.78)

(c) Para todo v1 , v2 V :


hv1 , v2 i = hv2 , v1 i

(1.79)

Demuestre, en cada caso, que las funcion dada define un producto interior
sobre el espacio indicado.
(a) El producto escalar definido en 1.58, pagina 42, sobre Rn .
n
P
(b) hv, wi =
vi wi , para v = (v1 , . . . , vn ), w = (w1 , . . . , wn ), sobre Cn .
i=1

(c) hf, gi =

b
a

f (t)g(t)dt, en el subespacio C 1 ([a, b], R)  R[a,b] .

22. Con relacion al ejercicio anterior, demuestre que dados dos productos
interiores sobre un espacio real o complejo, entonces la suma de los dos
es tambien un producto interno y que la multiplicacion de un producto
interior por un real positivo tambien lo es.
CAPITULO 1. LA ESTRUCTURA DE ESPACIO VECTORIAL


al Algebra
Introduccion
lineal

53

23. En cada caso calcule el producto interior hv, wi para los vectores dados:
(a) v = (1 + i, 2 i), w = (3 i, 5 + 4i) en C2 .
(b) v = (1 + i, 3 + 4i, 5i), w = (3, 2 + 4i, 6) en C3 .
(c) v(x) = 1, w(x) = x en C 0 ([0, 1], R).
(d) v(x) = x, w(x) = Sen(x) en C 0 ([0, 1], R).
24. Demuestre que si V es un espacio con producto interior, entonces para
todo vector v V se tiene que hv, 0V i = 0 = h0V , vi.
25. Si V es un espacio con producto interior h, i, para v V podemos
tambien definir la norma de v por
p
kvk = hv, vi.
Demuestre que la norma satisface las propiedades del teorema 1.5.4,
pagina 43, tal como en el caso de Rn .

1.5. ESPACIOS DE MATRICES SOBRE UN CAMPO

54

Castaneda
/ Barrios

CAPITULO 1. LA ESTRUCTURA DE ESPACIO VECTORIAL

Captulo

.....2

Sistemas lineales
2.1

Introducci
on

Las ecuaciones denominadas lineales surgen de manera natural, por ejemplo,


en el problema de determinar el conjunto de todos los vectores ortogonales a un
vector dado. Tambien muchos problemas del mundo fsico pueden modelarse
utilizando ecuaciones lineales o sistemas de ecuaciones lineales; esto es, una
coleccion finita de ecuaciones lineales. En este captulo, presentamos la definicion de sistema lineal en el espacio Kn , siendo K un campo cualquiera. Para
ello utilizaremos la teora de espacios vectoriales de matrices sobre un campo y
las propiedades de las operaciones matriciales para deducir resultados teoricos
importantes sobre tales sistemas.
Los sistemas lineales estan intimamente ligados, en el caso de espacios finitamente generados, a problemas como determinar si un vector dado es o no una
combinacion lineal de un conjunto de vectores fijado y, por tanto, al de decidir
si un conjunto finito de vectores genera o no a un subespacio dado y, en caso
de hacerlo, si la combinacion lineal mediante la cual se obtiene un vector dado
en el subespacio es u
nica. Un caso particular de interes es el de determinar
de cuantas maneras se puede obtener el vector nulo como una combinacion
lineal de vectores dados (problema de la independencia lineal). La cuestion de
obtener un conjunto optimo de generadores lleva al concepto de base y, en el
caso finitamente generado, las matrices no singulares juegan un papel central.

55


Castaneda
/ Barrios

56

Iniciamos el captulo con la definicion de ecuacion lineal en Kn , con algunos


resultados importantes relativamente faciles de probar y seguiremos con los
sistemas lineales y las tecnicas estandares de solucion. Sin embargo, lo mas
importante del captulo se relaciona con los temas posteriores donde se abordan
la dependencia e independencia lineal y la existencia de bases, entre otros.

2.2
2.2.1

Sistemas lineales m n
La ecuaci
on lineal en Kn

Inicialmente consideramos el problema siguiente:


Sea K un campo. Dados un vector v = (v1 , v2 , . . . , vn ) Kn y un escalar b K,
se quiere determinar el conjunto de todos los vectores X = (x1 , x2 , . . . , xn ) en
Kn tales que
vX T = (b),
(2.1)
es decir
v1 x1 + v2 x2 + + vn xn = b

(2.2)

La ecuacion 2.1 es una ecuaci


on lineal en Kn y es una ecuacion en la incognita
vectorial X = (x1 , x2 , . . . , xn ). Por su parte, la ecuacion 2.2 se acostumbra
a denominar ecuaci
on lineal en las n variables (inc
ognitas) escalares
x1 , x2 , . . . , xn .
Ejemplo 2.2.1. Si v = (1, 2, 3), b = 0, X = (x, y, z), entonces tenemos la
ecuacion lineal en R3

x

(1, 2, 3) y = (0).
z
La que en forma escalar sera
x + 2y 3z = 0.
Una solucion de la ecuacion considerada es un vector, en R3 , ortogonal al
vector dado. Por ejemplo, u = (0, 3, 2) es una solucion de la ecuacion. Notese
que en este caso, la ecuacion puede escribirse como
v X = 0.
Debe notarse, sin embargo, que la forma escalar x + 2y 3z = 0 podra
tambien ser considerada como una ecuacion en Rn , para n > 3, considerando
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

57

un vector w = (1, 2, 3, 0, . . . , 0) Rn y la incognita vectorial


Y = (x1 , x2 , x3 , x4 , . . . , xn ),
con x1 = x, x2 = y, x3 = z, de modo que la ecuacion en Rn sera
(1, 2, 3, 0, . . . , 0) Y = 0,
cuya forma escalar podra escribirse simplemente como x + 2y 3z = 0. Para
evitar ambig
uedades de ese tipo, usualmente especificaremos el universo de
la ecuacion; este sera el espacio Kn en el cual estaran, si existen, las soluciones
de la ecuacion.
Por comodidad, escribiremos la ecuacion 2.1 en Kn como
v X = b,

(2.3)

para un campo cualquiera K, a


un si K 6= R. Se entendera, como en el caso
real, que
n
X
vk xk .
vX =
k=1

Podramos tambien denominar este u


ltimo como el producto escalar de v con
X, pero debe ser claro que no todas las propiedades del producto escalar real
enunciadas en el teorema 1.5.3 son validas. Formalizamos a continuacion la
definicion de solucion y conjunto solucion de una ecuacion lineal.
Definici
on 2.2.1. Una soluci
on de la ecuacion lineal 2.1 es un vector
u = (u1 , u2 , . . . , un ) Kn
tal que la proposicion
vu=b
es verdadera. El conjunto solucion de la ecuacion lineal considerada es el
conjunto de todas las soluciones. La ecuacion es consistente si tiene al menos
una solucion; es decir, si su conjunto solucion es no vaco. La ecuacion es
inconsistente si tiene conjunto solucion vaco. Dos ecuaciones lineales en Kn
se denominan equivalentes si, y solo si tienen el mismo conjunto solucion.
Ejemplo 2.2.2. Consideremos, por ejemplo, la ecuaci
on lineal nula
0Kn X = 0K .
Es decir
0K x1 + 0K x2 + + 0K xn = 0K .

(2.4)

Entonces claramente todo vector u Kn es una solucion ya que 0Kn u = 0K ,


para todo vector u Kn . Se tiene as que el conjunto solucion es S = Kn .
2.2. SISTEMAS LINEALES M N


Castaneda
/ Barrios

58

Si, en 2.1, v = 0K y b 6= 0K , entonces la ecuacion


0Kn X = b
es claramente inconsistente; es decir, su conjunto solucion es {} = , el
conjunto vaco.
Si b = 0K decimos que la ecuacion 2.1 es homog
enea. Es decir, una ecuacion
lineal homogenea es de la forma
v X = 0K .

(2.5)

El vector nulo 0Kn es una solucion (soluci


on trivial) de 2.5. Si n = 1 y
v 6= 0K , entonces el vector nulo (en este caso, el cero del campo) es la u
nica
solucion. Si v = 0Kn , entonces se tiene la ecuacion nula y todo vector es una
solucion. Diremos que la ecuacion 2.5 es la ecuaci
on homog
enea asociada
a 2.1.
El siguiente teorema nos da las herramientas para determinar el conjunto
solucion de una ecuacion lineal.
Teorema 2.2.1. Supongamos que S Kn es el conjunto solucion de la
ecuacion 2.3 y que A es un subconjunto no vaco de Kn que contiene a S.
Sean
F :
A

K
n
K
(x1 , x2 , . . . , xn ) 7 F (x1 , x2 , . . . , xn )
una funcion y K, 6= 0K . Entonces la ecuacion (2.3) v X = b es
equivalente a las ecuaciones:
v X + F (x1 , x2 , . . . , xn ) = b + F (x1 , x2 , . . . , xn )
(v X) = b

(2.6)
(2.7)

Demostracion. Supongamos, inicialmente, que la ecuacion 2.3 es consistente.


Si u es una solucion de 2.3, entonces u A y entonces existe el real
F (u) = F (u1 , u2 , . . . , un ).
Tenemos entonces:
v u = b v u + F (u) = b + F (u)
v u = b = (v u) = b
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

59

Es decir, u es una solucion de 2.3 si, y solo si lo es de la ecuacion 2.6; y si


u es solucion de 2.3, entonces tambien lo es de 2.7. Recprocamente, si u es
solucion de 2.7, entonces (v u) = b y como 6= 0K , multiplicando ambos
miembros de esa igualdad por 1 se obtiene v u = b; es decir, u es solucion
de 2.3. Tenemos as que la ecuacion lineal dada es consistente si, y solo si lo
son 2.6 y 2.7 y, en tal caso, son equivalentes. Se sigue que una de las ecuaciones
consideradas sera inconsistente si, y solo si las otras dos tambien lo son. En
este u
ltimo caso se tendra que el conjunto solucion de cualquiera de ellas es
y son, por tanto, equivalentes.
Ejemplo 2.2.3. Hablando en terminos elementales, el teorema anterior establece que dada una ecuacion lineal podemos obtener una ecuacion equivalente
a ella, ya sea sumando en ambos miembros una expresion en las variables
x1 , . . . , xn , o multiplicando ambos miembros por un mismo escalar diferente
de cero. Ilustremos el teorema con algunos ejemplos:
1. La ecuacion en R2 :
2x + 3y = 5
es equivalente a las ecuaciones
3y = 5 2x
y
5 2x
y =
3
La primera de ellas se obtuvo sumando en ambos miembros
F (x, y) = 2x = 2x + 0y.
La segunda se obtuvo multiplicando la anterior por el escalar no nulo 13 .
El conjunto solucion de la u
ltima ecuacion es facil de hallar: toda solucion
se obtiene asignando a x un valor arbitrario, digamos x = t R, con lo
que y = 52t
. As, el conjunto solucion esta dado por
3



5 2t
S=
t,
t R .
3

As, por ejemplo, para t = 0 obtenemos la solucion 0, 35 .Por supuesto,
por ser ecuaciones equivalentes, el conjunto solucion hallado es el mismo
para la ecuacion dada inicialmente.
2.2. SISTEMAS LINEALES M N


Castaneda
/ Barrios

60

2. En el teorema anterior, el que el escalar por el cual se multiplican ambos


miembros de la ecuacion sea no nulo es de gran importancia. Si la
ecuacion considerada en el ejemplo anterior es multiplicada por 0, se
obtiene la ecuacion nula
0x + 0y = 0
la cual tiene como conjunto solucion a todo el espacio R2 , de modo que
no es equivalente a la ecuacion original. Tambien, si multiplicamos, por
ejemplo, por la variable x en ambos miembros, obtenemos la ecuacion
x(2x + 3y) = 5x.
Esta u
ltima no es equivalente a la original pues, por ejemplo, el vector
(0, 3) (y cualquier vector (0, t), con t R) es solucion de la u
ltima
ecuacion pero no lo es de 2x + 3y = 5 ya que
2(0) + 3(3) = 5
es una proposicion falsa.
3. Son equivalentes las ecuaciones x + y = 3 y (x + y)2 = 9?
La respuesta es no. Si se considera el vector u = (0, 3) se tiene que es
solucion de la u
ltima ecuacion pero no lo es de la primera. Sin embargo,
es claro que toda solucion de x + y = 3 lo es tambien de (x + y)2 = 9,
pero el conjunto solucion de esta u
ltima tambien contiene al conjunto
solucion de x + y = 3.
4. La ecuacion homogenea en R4
3x1 x2 + x3 2x4 = 0
es equivalente a
x3 = 3x1 + x2 + 2x4 .
El conjunto solucion de ambas es entonces:
S = {(t, s, 3t + s + 2r, r)|t, s, r R}.
Se tiene tambien (explique) que
S = {(t, 3t + s 2r, s, r)|t, s, r R}.
5. La ecuacion x1 x3 + x4 = 9 en R4 tiene como conjunto solucion a
S = {(t, s, r, 9 t + r)|t, s, r R}.
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

2.2.2

61

Sistemas lineales en Kn

Informalmente hablando, dado un n


umero natural m, un sistema de m ecuacion
nes lineales en K , es una familia de m ecuaciones lineales en Kn . Formalmente hablando, dados m vectores A1 , A2 , . . . , Am Kn y m escalares b1 , b2 , . . . , bm ,
la proposicion abierta, en la variable o incognita vectorial X = (x1 , x2 , . . . , xn ),
A1 X = b1 A2 X = b2 Am X = bm ,

(2.8)

esto es la conjuncion de las ecuaciones Ai X = bi , para i = 1, 2, . . . , m, es


denominada un sistema de m ecuaciones lineales en Kn . Por comodidad,
escribiremos 2.8 en cualquiera de las formas1

A1 X = b1
A1 X T = b1

A2 X = b2
A2 X T = b2

..
..
..
..
.
.
.
.

(2.9)
T
A i X = bi
Ai X
= bi

..
..
..
..

.
.
.
.

Am X = bm
Am X T = bm
Si para i {1, 2, . . . , m}, tenemos Ai = (ai1 , ai2 , . . . , ain ), entonces 2.8 es:

a x + a12 x2 + a13 x3 . . . + a1n xn = b1

11 1

a21 x1 + a22 x2 + a23 x3 . . . + a2n xn = b2

31.x1 + a32.x2 + a33.x3 . . . + a3n.xn = b3


..
..
..
..
(2.10)

ai1 x1 + ai2 x2 + ai3 x3 . . . + ain xn = bi

..
..
..
...

.
.
.

am1 x1 + am2 x2 + am3 x3 . . . + amn xn = bm


Podemos escribir el sistema de ecuaciones lineales como una sola ecuacion,
utilizando la notacion matricial. En efecto, las ecuaciones en 2.9 pueden
escribirse como una sola proposicion abierta


A1 X
b1
A2 X b2


.. = .. ,
. .
Am X
bm
1

En adelante, identificaremos una matriz 1 1, (a11 ) con el escalar a11 .


2.2. SISTEMAS LINEALES M N


Castaneda
/ Barrios

62


A1
b1
A2
b2


es decir, si escribimos A = .. = (aij )mn Kmn y b = .. Km1 ,
.
.
Am
bm
entonces
AX T = b
(2.11)
o, en forma equivalente,
XAT = bT

(2.12)

Notese que tambien podemos escribir


n
X

xi A(i) = b

(2.13)

i=1

Cualquiera de las formas 2.8 a 2.13 se utilizara para referirse al sistema mencionado. En 2.13, el miembro izquierdo es una combinacion lineal, con las
incognitas escalares xi , de las columnas de A. La matriz A en 2.11 es denominada la matriz del sistema.
De la definicion 2.8 se sigue que si Si es el conjunto solucion de la ecuacion
Ai X = bi , entonces el conjunto solucion de 2.8 es
S=

m
\

Si = S1 S2 Sm .

i=1

Es decir, una solucion de 2.8 es un vector u Kn , el cual es solucion de cada


una de las ecuaciones del sistema. Esto, de acuerdo con 2.11 equivale a que
AuT = b.
El sistema es consistente si tiene un conjunto solucion no vaco; en caso
contrario, decimos que es inconsistente. En adelante nos referiremos al sistema
lineal considerado como un sistema lineal m n sobre K. El sistema
AX T = 0Km1

(2.14)

es denominado el sistema homog


eneo asociado a 2.8. Notese que el sistema
lineal 2.8 tiene al menos una solucion, si b se puede escribir como una combinacion
lineal de las columnas de la matriz A. Tenemos el siguiente resultado importante
en la teora de sistemas lineales.
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

63

Teorema 2.2.2. Consideremos el sistema 2.11 y el sistema homogeneo asociado


2.14 en Kn . Si S es el conjunto solucion de 2.11 y SH el conjunto solucion del
homogeneo asociado, entonces:
1. SH es un subespacio de Kn .
2. Si S 6= y up S, entonces
S = {up + uh |uh SH }

(2.15)

Es decir, toda solucion del sistema lineal es la suma de una solucion fija
(particular) cualquiera con una del homogeneo asociado.
Demostracion.
1. Claramente SH 6= , ya que 0Kn es una solucion del
sistema homogeneo. Ahora, si u, v SH y K, entonces se tienen
AuT = 0Km1
Av T = 0Km1
por lo que
A(u + v)T =
=
=
=

A(uT + v T )
AuT + Av T
0Km1 + 0Km1
0Km1

de donde se sigue que u + v SH . Es decir SH es cerrado para las


operaciones de espacio vectorial y es , por tanto, un subespacio de Kn .
2. Si up S, entonces se tiene AuTp = b. Luego, si w es cualquier elemento
de S, entonces se tiene para uh = w up :
AuTh = A(w up )T
= A(wT uTp )
= AwT AuTp
= bb
= 0Km1
Es decir uh SH y w = up + uh . Recprocamente, si uh es una solucion
del sistema homogeneo, entonces
A(up + uh )T = AuTp + AuTh = b + 0Km1 = b
por lo que up + uh S.

2.2. SISTEMAS LINEALES M N


Castaneda
/ Barrios

64

La condicion en 2.15 se acostumbra a escribir como S = up + SH , entendida


esta en el sentido indicado por la condicion; es decir, cada elemento del conjunto
up + SH es la suma del vector fijo up con un elemento del subespacio SH . Esto
expresa el hecho que todo conjunto solucion de un sistema lineal consistente es
una traslacion del subespacio SH , conjunto solucion del sistema homogeneo
asociado. El teorema implica ademas (demuestrelo) que la funcion
fup : SH
S,
uh 7 up + uh
para un elemento fijo up S, es una biyecci
on. Es decir S y SH son conjuntos
equipotentes (con la misma cardinalidad). Dicho rudimentariamente: Un
sistema consistente tiene tantas soluciones como tenga su sistema homogeneo
asociado.
Si un sistema homogeneo tiene al menos una solucion no trivial uh 6= 0Kn ,
el teorema anterior implica que para todo escalar el vector uh es tambien
una solucion. Ahora, para escalares , se tiene que
uh = uh ( )uh = 0Kn
= 0K uh = 0Kn
= ,
por lo que si 6= entonces uh 6= uh . Es decir, el subespacio no nulo huh i,
de SH , tiene tantos elementos como tenga el campo K. En particular, si el
campo es infinito entonces lo es el subespacio huh i y, por tanto, lo es tambien
el espacio solucion SH . Tenemos entonces:
Corolario 2.2.3. Si K es un campo infinito y un sistema homogeneo en Kn
tiene una solucion no trivial, entonces tiene infinitas soluciones.
El resultado anterior, por supuesto, no es valido si el campo es finito. Por
ejemplo, la ecuacion (sistema 1 3) homogenea en Z5 :
x + 2y + 2z = 0.
tiene como una solucion no trivial a uh = (0, 3, 2) y el subespacio generado por
uh es
h(0, 3, 2)i = {(0, 3, 2)| {0, 1, 2, 3, 4}}
= {(0, 0, 0), (0, 3, 2), (0, 1, 4), (0, 4, 1), (0, 2, 3)}
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

65

y tiene cinco elementos. El conjunto solucion de la ecuacion es (despejando


x):
SH = {(3s + 3t, t, s)|t, s Z5 }
= {t(3, 1, 0) + s(3, 0, 1)|t, s Z5 }
= h(3, 1, 0), (3, 0, 1)i
As, cada vector en SH esta determinado por una pareja u
nica (por que?)
2
(t, s) Z5 . Hay exactamente 25 de tales parejas, por lo que SH es un conjunto
finito con 25 elementos. Notese que
uh = 3(3, 1, 0) + 2(3, 0, 1) = (0, 3, 2).
Si consideramos la ecuacion no homogenea x + 2y + 2z = 4, cuya homogenea
asociada es la considerada anteriormente, entonces el conjunto solucion es
(nuevamente despejando x):
S = {(4 + 3s + 3t, t, s)|t, s Z5 }
= {(4, 0, 0) + t(3, 1, 0) + s(3, 0, 1)|t, s Z5 }
= (4, 0, 0) + SH
lo que ilustra que cada solucion de la ecuacion es la suma de la solucion
particular (4, 0, 0) (obtenida haciendo t = s = 0) con una solucion
t(3, 1, 0) + s(3, 0, 1),
de la ecuacion homogenea asociada. Debe notarse que de acuerdo al teorema
anterior la solucion particular puede ser cualquiera. Por ejemplo tambien
tenemos que
S = {(0, 1, 1) + t(3, 1, 0) + s(3, 0, 1)|t, s Z5 } = (0, 1, 1) + SH .
Dado que la interseccion de conjuntos es una operacion asociativa y conmutativa, es claro que sistemas que consistan de las mismas m ecuaciones, en
orden distinto, son equivalentes. Se sigue que en un sistema lineal podemos
intercambiar dos ecuaciones cualesquiera, obteniendo as un sistema equivalente
al original. De igual manera, si una de las ecuaciones del sistema es reemplazada
por un m
ultiplo escalar no nulo de ella entonces, por el teorema 2.2.1, pagina
58, obtenemos tambien un sistema equivalente al original. Estas constituyen
dos herramientas importantes en el proceso de solucion de un sistema. Otra
2.2. SISTEMAS LINEALES M N


Castaneda
/ Barrios

66

herramienta determinante, la da el siguiente teorema, el cual establece que una


ecuacion cualquiera de un sistema lineal se puede reemplazar por la ecuacion
que resulte de sumarle a dicha ecuacion un m
ultiplo escalar de otra ecuacion
del sistema.


b1
c1
b2
c2


Teorema 2.2.4. Sean A, B Kmn , y b = .. , c = .. Km1 tales
.
.
bm
cm
que existen i, j {1, 2, . . . , m} y un escalar para los cuales se satisface que
Bk
Bj
ck
cj

=
=
=
=

Ak , para todo k 6= j
Aj + Ai
bk , para todo k 6= j
bj + bi

Entonces los sistemas AX T = b y BX T = c son equivalentes.


Demostracion. Sea S1 el conjunto solucion de AX T = b, y S2 el de BX T = c.
Las ecuaciones en el sistema BX T = c son las mismas que en AX T = b,
excepto la jesima ecuacion. Esta es
(Ai + Aj ) X = bi + bj
Por su parte, la jesima ecuacion de AX T = b es
Aj X = bj .
Entonces, si u S1 se tiene que Aj u = bj y Ai u = bi ; multiplicando esta
u
ltima por y sumando miembro a miembro con la primera igualdad tenemos
(Ai + Aj ) u = bi + bj ,
es decir, u es solucion de la j esima ecuacion del sistema BX T = c y como
las demas ecuaciones de este sistema son las mismas del sistema AX T = b,
se tiene entonces que u S2 . De igual manera es facil probar (ejercicio) que
si un vector satisface la jesima ecuacion de BX T = c entonces tambien lo
hace con la jesima de AXt = b. Se sigue que si uno de los sistemas es
consistente entonces lo es el otro y son equivalentes. De modo que si uno de
ellos es inconsistente lo es tambien el otro. As, en cualquier caso los sistemas
considerados son equivalentes.
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

67

El teorema 2.2.4 constituye uno de los pilares teoricos de las llamadas


t
ecnicas de eliminaci
on en la solucion de sistemas lineales. Como se dijo
antes, el teorema establece que un sistema obtenido de otro reemplazando una
ecuacion cualquiera de dicho sistema por el resultado de sumarle a ella un
m
ultiplo escalar de otra ecuacion del mismo sistema tiene el mismo conjunto
solucion del sistema. Ilustremos su aplicacion con un ejemplo sencillo.
Ejemplo 2.2.4. Consideremos el sistema 2 2 en R2 :

x + 2y = 5
3x y = 1
Podemos usar el teorema anterior para eliminar la variable x en la segunda
ecuacion del sistema. Para tal efecto, reemplazamos dicha ecuacion segunda
por la que resulta de sumarle la primera previamente multiplicada por 3.
Obtenemos as el sistema equivalente:

x + 2y =
5
0x 7y = 14
Si, ahora, reemplazamos la u
ltima ecuacion del sistema obtenido por el resultado
1
de multiplicarla por 7 obtenemos el sistema equivalente:

x + 2y = 5
0x + y = 2
Denotemos por Si al conjunto solucion de la ecuacion i, i = 1, 2, de este u
ltimo
sistema, de modo que S = S1 S2 es el conjunto solucion de los tres sistemas
equivalentes. La segunda ecuacion requiere que y = 2 y que x tome cualquier
valor arbitrario. Es decir, tenemos que
S2 = {(t, 2)|t R}.
Una solucion del sistema sera un vector (t, 2) S2 tal que (t, 2) pertenezca
tambien a S1 ; es decir, debe cumplirse que t + 2(2) = 5, por lo que debe
tenerse t = 1. Por lo tanto el sistema considerado tiene u
nica solucion (1, 2) y
el conjunto solucion es entonces
S = {(1, 2)}.
Para sistemas de mayor tama
no al considerado en el ejemplo anterior, es
conveniente usar un esquema matricial mas facil de manejar. As, en el ejemplo
anterior, la matriz 2 3:


1 2
5
3 1 1
2.2. SISTEMAS LINEALES M N


Castaneda
/ Barrios

68

se puede usar para representar al sistema dado, conviniendo en que cada fila
contiene a los coeficientes de la ecuacion correspondiente y que cada columna
contiene, ya sea a los coeficientes de una misma variable, o-en el caso de la
u
ltima columna- a los terminos independientes. Mas especficamente, el vector
(1, 2, 5), primera fila de la matriz indicada, representa a la primera ecuacion,
siendo las dos primeras componentes los coeficientes, ordenados, de x e y en
dicha ecuacion. De igual manera, el vector (3, 1, 1) corresponde a la segunda
ecuacion. La matriz


1 2
5
3 1 1
es denominada la matriz ampliada del sistema. Las manipulaciones o transformaciones que se pueden hacer con las ecuaciones de un sistema, sin alterar el
conjunto solucion, se convierten entonces en transformaciones sobre las filas
de la matriz ampliada y suelen denominarse operaciones elementales en las
filas o renglones de la matriz. Tales transformaciones son, por los teoremas
demostrados, de tres tipos: Intercambios de filas, reemplazo de una fila por un
m
ultiplo escalar no nulo, y reemplazo de una fila por el resultado de sumarle
a la misma un m
ultiplo escalar de otra. Podemos esquematizar el proceso
realizado en el ejemplo anterior en la forma que se muestra a continuacion:






1 2 5 3F1 + F2 1 2
5 71 F2 1 2 5
0 1 2
3 1 1

0 7 14
donde 3F1 + F2 simboliza el que se haya reemplazado la fila 2, en la primera
matriz, por el resultado de sumarle la fila 1 multilicada por 3. Por su parte
17 F2 simboliza que la fila 2, en la segunda fila, ha sido reemplazada por el
resultado de multiplicarla por 17 . Una primera formalizacion de lo anterior se
presenta seguidamente. Mas adelante, se vera que las operaciones elementales
en las filas de una matriz son resultado de la accion multiplicativa de ciertas
matrices especiales.

2.2.3

T
ecnicas de eliminaci
on

Definici
on 2.2.2. Consideremos el sistema lineal m n:
AX T = b, ( 2.11)
La matriz ampliada del sistema es la matriz B Km(n+1) definida por

A(i, j),
si j n;
B(i, j) =
(2.16)
bi ,
si j = n + 1.
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

69

De acuerdo con 2.16, las primeras n columnas de la matriz ampliada del


sistema son las mismas de la matriz, A, del sistema. La u
ltima columna esta
formada por las componentes del vector de terminos independientes, b. Para
efectos de calculos es usual separar esta u
ltima columna de las demas por una
barra vertical. As, usualmente se escribira:

A1 b1
a11 a12 . . . a1n b1
A2 b2 a21 a22 . . . a2n b2



B = (A|b) = .. .. = ..
..
.. ..
. . .
.
. .


A m bm
am1 am2 . . . amn bm
Representaremos un sistema lineal por su matriz ampliada. Hablando en
terminos generales, una tecnica de solucion de un sistema lineal consiste en
determinar un sistema equivalente tal que su matriz ampliada tenga una forma
particularmente simple, de forma tal que sea relativamente facil determinar
el conjunto solucion de este sistema equivalente. Por la equivalencia, tal
conjunto solucion sera el mismo del sistema original. En ese sentido, la definicion
siguiente presenta matrices con formas particularmente comodas para el efecto
deseado.
Definici
on 2.2.3. Dada una matriz m n, B sobre el campo K, decimos
que B esta en una forma escalonada si, y solo si satisface las siguientes
condiciones.
1. Ning
un renglon nulo esta por encima de un renglon no nulo. Es decir,
si existe un renglon nulo Bk , entonces para todo i Jm si Bi 6= 0Kn ,
entonces i > k.
2. Si Bk es un renglon no nulo de B, entonces la primera componente no
nula de Bk es 1K .
3. Para dos renglones no nulos consecutivos, digamos Bk y Bk+1 , de B, si
los hay, y si las primeras componente no nulas de dichos renglones son
B(k, j) y B(k + 1, l), respectivamente, entonces j < l.
Si B esta en forma escalonada, entonces las primeras componentes no nulas
en cada renglon no nulo se denominan unos principales. La tercera condicion
de la definicion exige entonces, hablando en lenguaje coloquial, que los unos
principales de dos renglones no nulos consecutivos esten escalonados; esto
significa que el uno principal del renglon inferior debe estar en una columna
mas a la derecha que el uno principal de la columna superior. Esto implica que
2.2. SISTEMAS LINEALES M N


Castaneda
/ Barrios

70

en cada columna de un uno principal las componentes de dicha columna, por


debajo de dicho uno principal deben ser 0K , a menos que el uno principal este
en el u
ltimo renglon de B. La matriz B esta en forma escalonada reducida
si esta en forma escalonada y, ademas, para toda columna que tenga un uno
principal, las demas componentes, distintas a dicho uno principal, son 0K .
Ejemplo

1
A = 0
0

2.2.5. Consideremos las matrices sobre el campo

2 1 3
1 2 1 0 0 4
0
1 4 0 , B = 0 0 0 1 0 5 , C = 0
0 1 2
0 0 0 0 1 7
0

real:

1 1 2 3
0 1 1 1 .
0 0 0 1

1. La matriz A esta en forma escalonada. En efecto, la primera condicion


en la definicion 2.2.3 se satisface trivialmente pues no hay renglones nulos
( de hecho, para B y C tambien se cumple la primera condicion). En el
primer renglon el primer n
umero distinto de cero es 1, as como en los
renglones 2 y 3. Finalmente, para i = 1, 2, 3, el uno principal del renglon
i esta en la columna i. Puesto que i + 1 > i, se tiene que se cumple la
tercera condicion.
La matriz A es la matriz ampliada del sistema 3 3:

x + 2y z = 3
0x + y + 4z = 0

0x + 0y + z = 2
Si Si es el conjunto solucion de la ecuacion i, entonces de la tercera
ecuacion se tiene
S3 = {(x, y, 2)|x, y R}.
Una solucion (x, y, 2) S3 estara en S2 S3 si satisface la ecuacion 2, de
la cual se tiene: y = 4(2) = 8, por lo que
S2 S3 = {(x, 8, 2)|x R}.
Finalmente, el conjunto solucion S = S1 S2 S3 estara formado por
los vectores (x, 8, 2) S2 S3 que satisfacen la primera ecuacion. Es
decir, debe tenerse x = 3 + 2 2(8) = 21. Se tiene entonces que el
sistema tiene solucion u
nica y que el conjunto solucion es
S = {(21, 8, 2)}.
El procedimiento empleado ilustra la tecnica conocida como de eliminaci
on
Gaussiana. En general, se trata de llevar la matriz ampliada a la
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

71

forma escalonada (ya se tena en este ejemplo). Luego resolver la u


ltima
ecuacion no nula (z = 2, con x y y arbitrarios) y proceder a sustituir
hacia arriba en las otras ecuaciones del sistema.
2. La matriz B esta en forma escalonada reducida (explique).

1 2 1 0 0 4
0 0 0 1 0 5

0 0 0 0 1 7
Esta es la matriz ampliada de un sistema 3 5, en las variables x1 , x2 , x3 ,
x4 y x5 , cuyos coeficientes estan dados, ordenadamente, por las cinco
primeras columnas. Convendremos, en general, en denominar variables
principales a las variables correspondientes a columnas (distintas a la
u
ltima) que tengan unos principales. En este caso tenemos las variables
x1 , x4 y x5 . Las variables correspondientes a columnas sin unos principales
seran denominadas variables libres y, en sistemas consistentes, podran
tomar valores arbitrarios. En general, cada variable principal tomara un
valor constante o dependera de una o mas variables libres. En el ejemplo
considerado, las variables libres son x2 y x3 . Si hacemos x2 = t y x3 = s,
siendo s y t reales arbitrarios, entonces se tiene, de acuerdo con la matriz
ampliada en cuestion:
x1 =
=
x4 =
x5 =

4 2x2 x3
4 2t s
5
7,

de donde se obtiene que el conjunto solucion del sistema considerado es


S = {(4 2t s, t, s, 5, 7)|t, s R}
Tenemos que cada solucion es de la forma
(4 2t s, t, s, 5, 7) = (4, 0, 0, 5, 7) + t(2, 1, 0, 0, 0) + s(1, 0, 1, 0, 0),
de donde se tiene que el sistema homogeneo asociado al sistema considerado tiene como solucion al subespacio de R5 generado por los vectores
(2, 1, 0, 0, 0) y (1, 0, 1, 0, 0):
SH = {(2t s, t, s, 0, 0)|t, s R} = h(2, 1, 0, 0, 0), (1, 0, 1, 0, 0)i.
2.2. SISTEMAS LINEALES M N


Castaneda
/ Barrios

72

3. La matriz C esta en forma escalonada pero no en forma escalonada


reducida ya que, por ejemplo, la columna 3 tiene un uno principal, pero la
primera componente de dicha columna es 1 6= 0. El sistema correspondiente a esta matriz ampliada es inconsistente, pues la u
ltima ecuacion
(variables x1 , x2 , x3 , x4 ) lo es. En efecto seg
un la u
ltima ecuacion se tiene
0x1 + 0x2 + 0x3 + 0x4 = 1,
cuyo conjunto solucion es vaco. En consecuencia, la interseccion que
define al conjunto solucion del sistema tambien es vaca.
En los ejemplos anteriores se mostro la conveniencia de tener la matriz
ampliada de un sistema lineal en una de las formas escalonadas definidas.
Dada la matriz ampliada de un sistema, surge la cuestion: Como obtener de la
misma una forma matricial escalonada? Como ya se dijo, en la matriz ampliada
de un sistema podemos realizar operaciones elementales en los renglones, tales
que el sistema correspondiente a la matriz obtenida sea equivalente al sistema
original. Resumimos a continuacion tales operaciones y damos una notacion
para las mismas.

Operaciones elementales en las filas ( renglones)


1. Intercambiar dos filas cualesquiera de la matriz. Escribiremos Fi Fj ,
para indicar que las filas j e i se intercambian.
2. Reemplazar una fila por un m
ultiplo escalar no nulo de ella. Escribiremos
Fi para indicar que la fila i, notada Fi , se reemplaza por el vector Fi .
3. reemplazar una fila por el resultado de sumarle un m
ultiplo escalar de
otra fila. Se notara Fi + Fj , lo que indicara que la fila j se reemplaza
por el resultado de sumarle la fila i previamente multiplicada por .
Con las operaciones descritas, toda matriz puede llevarse a una de las formas
escalonadas. Los procedimientos estandares son conocidos como eliminaci
on
gaussiana y eliminaci
on de Gauss-Jordan. En el primero, la matriz
ampliada es llevada a la forma escalonada y luego se procede a resolver la
u
ltima ecuacion no nula y se aplica la denominada sustitucion regresiva, como
se indico en los ejemplos dados anteriormente. En el segundo procedimiento
la matriz es llevada a la forma escalonada reducida y, si es consistente el
sistema, se procede a resolver cada ecuacion no nula, despejando las variables
principales. Podemos esquematizar tales procedimientos como se muestra a
continuacion.
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

73

Suponemos un sistema lineal m n sobre el campo K y con matriz ampliada


a11 a12 . . . a1n b1


a21 a22 . . . a2n b2


..
..
.. ..
.
.
. .
am1 am2 . . . amn bm
1. Podemos suponer que no todos los elementos de la primera columa son
ceros, pues si as fuera entonces la variable correspondiente (x1 , en este
caso) podra tomar cualquier valor sobre el campo, independiente de
las variables restantes, y entonces podramos eliminar dicha primera
columna y trabajar con el sistema m (n 1) correspondiente a la
matriz resultante. Bajo esa suposicion, procedemos entonces a buscar
el uno principal de la primera fila, utilizando operaciones elementales en
las filas. La matriz resultante tendra entonces la forma


c1
1
b
.
.
.
b
K
12
1n


b21 b22 . . . b2n c2


..
..
.. ..
.
.
. .
bm1 bm2 . . . bmn cm
2. Utilizaremos el uno principal de dicha primera fila para eliminar por
debajo del mismo. Es decir, realizamos, a lo mas, m 1 operaciones
bi1 F1 + Fi
para 2 i m. Obtenemos as una matriz


c1
1
b
.
.
.
b
K
12
1n



0
c
.
.
.
c
2n d2
K 22
0K c32 . . . c3n d3


..
..
.. ..
.
.
. .
0K cm2 . . . cmn dm
3. El procedimiento indicado en el primer paso, se repite ahora para la
submatriz encerrada en el recuadro mostrado en 2.17.

1K b12


0K c22
0K c32


.. ..
. .

0K cm2

b13 . . . b1n c1
c23 . . . c2n d2

c33 . . . c3n d3

..
.. ..


.
. .
cm3 . . . cmn dm

2.2. SISTEMAS LINEALES M N

(2.17)


Castaneda
/ Barrios

74

Es decir, buscamos el uno principal en la primera fila de dicha submatriz.


Si no todos los elementos ci2 , para 2 i m, son ceros, entonces debe
obtenerse una matriz en la forma


b
b
.
.
.
b
1
c
12
13
1n
K
1




0K 1K d23 . . . d2n h2




0K d32 d33 . . . d3n h3
(2.18)




.. ..
..
.. ..
. .
.
. .


0K dm2 dm3 . . . dmn hm
El proceso siguiente de eliminacion, como en el paso 2, tiene ahora dos
variantes:
(a) Hacia la forma escalonada: Se elimina por debajo del uno principal
(di2 F2 + Fi , para 3 i m).
(b) Hacia la forma escalonada reducida. Se elimina tambien por encima
del uno principal (como antes y, ademas, b12 F2 + F1 ).
Ejemplo 2.2.6. Consideremos el sistema en R4 :

2x1 x2 + x3 + 3x4 = 8

3x
1 + 2x2 5x3 2x4 = 9
x1 + x2 x3 + x4
= 5

5x1 + x2 4x3 + x4 = 17

4x1 + x2 x3 + 5x4 = 18
Con matriz ampliada

2 1
1
3 8
3
2 5 2 9

1
1 1
1 5

5
1 4
1 17
4
1 1
5 18

Para buscar el uno principal en la primera fila tenemos varias alternativas,


entre ellas, por ejemplo:
1. Multiplicar la primera fila por 12 . Es decir, hacer

1
F1 .
2

2. Sumar a la fila uno la fila tres multiplicada por 1. Es decir: 1F3 + F1 .


3. Intercambiar las filas uno y tres (F3 F1 ).
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

75

Elegiremos la u
ltima opcion. Tenemos as:

l
2 1
1
3 8
1
1
3
9 F3 F1 3
2
5
2
2

1 1
1 5 2 1

5
5
1 4
1 17
1

4
1 1
5 18
4
1


1
1 5
5 2 9

1
3 8

4
1 17
1
5 18

Utilizando el uno principal (encerrado en el crculo) como pivote, eliminamos


por debajo del mismo, como se muestra seguidamente
l
1
1
3
2

2 1

5
1
4
1

1
1 5 3F1 + F2 1l 1 1
1 5

5 2 9
2F1 + F3 0 1 2 5 6


1
3 8

3
1 2
0 3

4
1 17 5F1 + F4 0 4
1 4 8
1
5 18 4F1 + F5 0 3
3
1 2

Nos concentramos ahora en el subsistema encerrado en el recuadro. Los


calculos, que se muestran seguidamente, se haran para llevar la matriz a la
forma escalonada.

l
1
1 1
1 5
1
1 1
1 5
0 1 2 5 6 1F2 0
1l 2
5 6

0 3

3
1 2
3
1 2

0 3

0 4
0 4
1 4 8
1 4 8
0 3
3
1 2
0 3
3
1 2
l

l
1 1 1
1 1 1
1 5
3F2 + F3
1F
+
F

3
4
0 1l 2
l 2
6
0
1
5


4F2 + F4

0 0
9 16 16
0 0
1l


1F
+
F

3
5
0 0
9 16 16
0 0
0
3F2 + F5
19 F3
0 0
9 16 16
0 0
0


1
5
16

9
0
0

5
6

16

9
0
0

Notese que se aprovecho que las tres u


ltimas filas en la pen
ultima matriz son
iguales, para eliminar las dos u
ltimas y luego se busco, al final, el uno principal
de la u
ltima fila no nula. La u
ltima matriz esta ya en forma escalonada.
Las variables x1 , x2 , x3 , cuyos coeficientes estan en las columnas con unos
principales, son las variables principales. Por su parte x4 es una variable libre.
As, haciendo x4 = t, siendo t un real arbitrario, y sustituyendo hacia arriba,
2.2. SISTEMAS LINEALES M N


Castaneda
/ Barrios

76

tenemos
x3 =
=
x2 =
=
=
x1 =
=
=

16 16
x4
9
9
16 16
t
9
9
6 2x3 5x4


16 16
62
t 5t
9
9
22 13
t
9
9
5 x2 + x3 x4

 

22 13
16 16
5
t +
t t
9
9
9
9
13 4
t,
3
3

de modo que el conjunto solucion es






13 4 22 13 16 16

t,
t,
t, t t R .
S=
3
3 9
9 9
9
Ejemplo 2.2.7. Resolvamos ahora el sistema (tomado literalmente de [3], del
mismo autor):

2x1 + 3x2 + x3 x4 x5

4x1 2x2 x3 + x4 + x5
4x2 + x3 x4 x5

2x1 x2 x3 + x4 + x5

= 5
= 6
= 8
= 3

Notese que los coeficientes de x4 son todos de valor absoluto igual a 1.


Podemos aprovechar tal hecho para tomar tal variable como primera variable,
reacomodando los terminos en las ecuaciones, como lo muestra la matriz
ampliada siguiente

x4 x2 x3 x1 x5
1
3
1
2 1 5

1 2 1 4
6
1


1
4
1
0 1 8
1 1 1 2
1 3

CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

77


x4 x2 x3 x1 x5
1F4 + F1
0
2
0
4 0 2

(1)F4 + F2
0 1
0
2 0 3

0
3
0
2 0 5
1F4 + F3
1 1 1 2 1 3

x4 x2 x3 x1 x5
F1 F4
2
1 3
1 1 1


1
0 2 0 3
0

(1)F2 0
3
0
2
0 5
0
2
0
4
0 2

x4 x2 x3 x1 x5
(3)F2 + F3
2
1 3
1 1 1

3
(2)F2 + F4
0
1
0
2
0

0
0
8
0 4
0
0
0
8
0 4

x4 x2 x3 x1 x5
(1)F3 + F4
2
1 3

1 1 1

(1/8)F3 0
1
0 2 0 3

0
0
1
0 1
2

0
0
0
0
0 0

Cual es el conjunto solucion ?


Ejemplo 2.2.8. Considerese el sistema en R3 :

= 5
x1 + x 2 x3
2x1 x2 + 3x3 = 6

4x1 + x 2 + x3 = 12
Tenemos entonces:


1
1 1 5 2F1 + F2 1
1 1 5
1
1 1 5
F2 + F3
2 1
0 3
3 6

5 4
0 3
5 4



4
1
1 12 4F1 + F3 0 3
5 8
0
0
0 4
La u
ltima fila corresponde a una ecuacion inconsistente, por lo que el sistema
tambien lo es.
2.2. SISTEMAS LINEALES M N


Castaneda
/ Barrios

78

Ejemplo 2.2.9. Consideremos el sistema 3 3 sobre el campo finito Z7 ,

= 5
x1 + x2 + x3
2x1 + x2 + x3 = 4

3x1 + 4x2 + 5x3 = 6


Llevando la matriz ampliada a la forma escalonada reducida, tenemos (verifique
los calculos):

F2 F3

1 1 1 5 5F1 + F2 1 1 1 5
1 0 6 0
2 1 1 4 0 6 6 1 0 1 2 5



6F2 + F1
3 4 5 6 4F1 + F3 0 1 2 5
0 0 1 6
1F2 + F3

5F3 + F2 1 0 0 6
0 1 0 0
1F3 + F1 0 0 1 6

Por lo que el conjunto solucion es


S = {(6, 0, 6)},
y el sistema homogeneo asociado tiene como u
nica solucion la trivial. Por su
parte, para el sistema 3 3, sobre el mismo campo,

= 5
x 1 + x2 + x3
2x1 + x2 + x3 = 4

4x1 + 3x2 + 3x3 = 0


tenemos:

6F2 + F3

1 1 1 5 5F1 + F2 1 1 1 5
1 0 0 6
2 1 1 4 0 6 6 1 0 1 1 6



1F2 + F1
4 3 3 0 3F1 + F3 0 6 6 1
0 0 0 0
6F2

Este sistema no es de solucion u


nica, pero tiene un n
umero finito de soluciones.
En efecto, su conjunto solucion es
U = {(6, 6 + 6t, t)|t Z7 } = {(6, 6, 0) + t(0, 6, 1)|t Z5 } = (6, 6, 0) + UH
siendo UH el espacio solucion del sistema homogeneo asociado, Notese que
UH = h(0, 6, 1)i
= {(0, 0, 0), (0, 6, 1), (0, 5, 2), (0, 4, 3), (0, 3, 4), (0, 2, 5), (0, 1, 6)}
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

79

Mientras que
U = (6, 6, 0)+UH = {(6, 6, 0), (6, 5, 1), (6, 4, 2), (6, 3, 3), (6, 2, 4), (6, 1, 5), (6, 0, 6)}.

Ejercicios 2.2.1.
1. En cada caso indique si las ecuaciones dadas son o no equivalentes.
Justifique sus respuestas.
(a) x + y = 5, 2x + 2y = 10 en R2 .
(b) 2x + y + z = 3, 2cx + cy + cz = 3c, en R3 , siendo c una constante
real.
(c) 2x + y + z = 3, 4x + 2y + 2z = 1, en Z35 .
(d) 3x + y + 4z = 6, 6x + 2y + z = 4, en Z37 .
(e) 2x + y + z = 3, 4x + 2y + 2z = 1, en R3 .
(f) x + 2y + z = 1, (x + 2y + z)2 = 1, en R3 .
(g) x1 + x2 3x3 + x4 = 0, (x1 + x2 3x3 + x4 )2 = 0 en R4 .
(h) x + (2 i)y + 3iz = 4i, ix + (2i + 1)y 3z = 4 en C3 .
(i) x + y = 2, (x + y)(x y) = 2(x y) en R2 .
(j) (x2 + x + 1)(2x 3y) = 5(x2 + x + 1), en R2 .
2. Considere la ecuacion lineal en las variables reales x, y, z :
ax + 3by + 2z = 5, siendo a, b constantes reales.
Determine los valores de a y b para los cuales:
(a) (5, 0, 0) es una solucion.
(b) (5, 0, 0) y (0, 1, 1) son soluciones.
(c) (5, 0, 0) y (5 2t, 0, t), para todo t R, son soluciones .
) es una solucion.
(d) (a, 0, 2a+5
2
(e) (1, 2, 2) y (1, 3, 5) son soluciones.
(f) (1, 1, 0) y (1, 1, 2) son soluciones.
2.2. SISTEMAS LINEALES M N


Castaneda
/ Barrios

80

3. En cada caso determine el conjunto solucion del sistema dado. Si el


sistema es consistente, escriba el conjunto solucion, S, en la forma
S = up + SH ,
siendo SH el espacio solucion del sistema homogeneo asociado. Halle, en
cualquier caso, un conjunto de generadores para el espacio solucion del
sistema homogeneo. Si no se indica lo contrario, suponga que el n
umero
de variables es el de las que aparecen explcitas en el sistema y que el
campo es el campo real.

(a)

2x + 3y = 5
3x 4y = 1

(b) El sistema anterior en R3 .

2x + 3y = 5
(c) 3x 4y = 1

5x y = 4

2x + 3y = 5
(d) 3x 4y = 1

5x y = 0

2x + y = 5

3x 4y = 2
(e)
7x 2y = 12

10x 6y = 14

3x + y + 2z = 7

5x 4y 4z = 1
(f)
x + 2y 5z = 18

11x 2y 8z = 15

2x + y + 3z = 7

x 4y + 4z = 10
(g)
x + 2y 5z = 18

5x 2y + 10z = 2

x1 + x2 3x3 2x4 =

3x1 + 2x2 6x3 6x4 =


(h)
3x1 + x2 3x3 6x4 =

5x1 + x2 3x3 10x4 =

2
1
4
10

CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

(i)

(j)

(k)

(l)

(m)

(n)

(o)

(p)

81

6x1 + 3x2 9x3 12x4 = 5

3x1 + x2 3x3 6x4 = 4


5x1 + x2 3x3 10x4 = 10

x1 x2 + 3x3 2x4
= 3

x1 + x2 x3 + 4x4
= 5

3x1 + 4x2 10x3 + x4 + 2x5 =

3x1 + 4x2 12x3 + 4x5


=
2x1 + 3x2 8x3 + x4 + 2x5 =

5x1 + 7x2 19x3 + 2x4 + 5x5 =

3x1 + 4x2 10x3 + x4 + 2x5 =

3x1 + 4x2 12x3 + 4x5


=
2x
+
3x

8x
+
x
+
2x
=

1
2
3
4
5

5x1 + 7x2 19x3 + 2x4 + 5x5 =

0x1 + 4x2 10x3 + x4 + 2x5 =

4x2 12x3 + 4x5


=
3x2 8x3 + x4 + 2x5
=

7x2 19x3 + 2x4 + 5x5


=

x1 + 4x2 + x3 = 3
2x1 + 4x2 + x3 = 4 en Z35 .

3x1 + 2x2 + 4x3 = 2

x1 + 4x2 + x3 = 3
2x1 + 4x2 + x3 = 4 en Z37 .

3x1 + 2x2 + 4x3 = 2

3x1 + 3x2 + 2x3 = 2

2x1 + 4x2 + x3 = 4
en Z35 .
3x
+
2x
+
4x
=
2

1
2
3

x1 + 4x2 + 3x3 = 4

3x1 + 3x2 + 2x3 = 2

2x1 + 4x2 + x3 = 4
en Z35 .
3x
+
2x
+
4x
=
0

1
2
3

x1 + 4x2 + 3x3 = 4

11
19
10
25
11
19
10
25

en R6 .

11
19
10
25

4. En cada caso muestre un sistema cuyo conjunto solucion sea el conjunto


S dado y que cumpla las condiciones especificadas.
(a) S = {(1, 2, 3)}, un sistema cuadrado sobre el campo real.
(b) Como el anterior, pero que la matriz del sistema no tenga componentes
nulas.
2.2. SISTEMAS LINEALES M N


Castaneda
/ Barrios

82

(c) Como el anterior, pero un sistema 4 3.


(d) Como el anterior, pero sobre el campo complejo y que la matriz
ampliada no tenga componentes reales.
(e) S = {(2+t, 1, 0, s+3, t, s)|t, s R}, un sistema 46 sobre el campo
real.
(f) El conjunto solucion como el anterior, pero el sistema lineal cuadrado.
(g) S = , sistema 2 3 sobre el campo real y con matriz ampliada sin
componentes nulas.
5. Una industria fabrica tres artculos distintos a costos unitarios de produccion de $15.000, $18.000 y $22.000, respectivamente, y costos fijos diarios
de $2.000.000. Por requerimientos tecnicos, el n
umero de artculos diarios
producidos no debe ser superior a 1000. Si la ganancia unitaria es de 5, 6
y 8%, respectivamente, sobre el costo unitario, cuantos artculos de cada
clase se deben producir diariamente para obtener una ganancia del 5% de
los costos totales de produccion trabajando al maximo de produccion?
Se puede producir solo una clase de artculos? Cual es el n
umero
mnimo de artculos de cada clase que se deben producir?
6. Sean v = (1, 3), w = (3, 5), u = (1, 11) R2 .
(a) Demuestre que v es combinacion lineal de w y u.
(b) Demuestre que hv, w, ui = R2 .
(c) Demuestre que dos cualesquiera de los vectores generan a R2 .
(d) Demuestre que el vector nulo 0R2 = (0, 0) se puede obtener de
infinitas formas como una combinacion lineal de los tres vectores
dados, pero de manera u
nica como una combinacion de solo dos de
ellos.
7. Demuestre que dos vectores no nulos generan a R2 si, y solo si no son
m
ultiplos escalares el uno del otro.
8. Si 6= S Rn , el complemento ortogonal de S es el conjunto
(subespacio)
S = {w Rn |(v S)(wv)}.
Determine, en cada caso, el complemento ortogonal del conjunto S dado.
(a) S = {(1, 3)}.
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

83

(b) S = {(1, 3), (2, 4)}.


(c) S = {(1, 3), (2, 4), (5, 1)}.
(d) S = {(1, 3, 2)}.
(e) S = {(1, 3, 2), (3, 1, 5)}.
(f) S = {0Rn }.
(g) S = Rn .
9. Demuestre que si v = (v1 , v2 , v3 ), w = (w1 , w2 , w3 ) R3 son vectores
no paralelos, entonces el complemento ortogonal de S = {v, w} es el
subespacio de R3 generado por el vector
v w = (v2 w3 v3 w2 , v3 w1 v1 w3 , v1 w2 v2 w1 )

(2.19)

El vector v w es denominado el producto cruz de v por w y puede


definirse tambien para vectores cualesquiera v y w.
10. Con relacion al ejercicio anterior:
(a) Describa algebraicamente el subespacio de todos los vectores ortogonales
a (1, 2, 5) y (3, 4, 6).
(b) Demuestre que si v y w son paralelos, entonces v w = 0R3 y que
{v, w} = {v} = {w} .
(c) Demuestre que el producto cruz no es una operacion ni conmutativa
ni asociativa, pero que es distributiva con relacion a la adicion de
vectores.

2.3

Dependencia e independencia lineal, bases,


dimensi
on.

Si S es un subconjunto de un espacio vectorial, un problema central es si existen


combinaciones lineales nulas no triviales de elementos de S. Denominamos una
combinacion lineal nula de vectores a una combinacion lineal de tales vectores
que es igual al vector cero del espacio vectorial. La combinacion lineal nula
trivial es aquella en la que todos los escalares de la combinacion son iguales
al cero del campo. Si existen combinaciones lineales nulas no triviales de
elementos de S, decimos que S es un conjunto linealmente dependiente; en

2.3. DEPENDENCIA E INDEPENDENCIA LINEAL, BASES, DIMENSION.


Castaneda
/ Barrios

84

caso contrario, decimos que el conjunto S es linealmente independiente (o


que los elementos de S, si no es vaco, son vectores linealmente independientes).
Formalizamos esta definicion a continuacion.
Definici
on 2.3.1. Sean V un espacio vectorial sobre el campo K, y S V .
S es linealmente dependiente (abreviado l.d) si, y solo si existe un n
umero
finito de vectores distintos v1 , v2 , . . . , vm S y escalares 1 , 2 , . . . , m , no
todos nulos, tales que
m
X

k vk = 1 v1 + 2 v2 + + m vm = 0V

(2.20)

k=1

El conjunto S es linealmente independiente (abreviado l.i ) si, y solo si no


es linealmente dependiente.
La ecuacion 2.20 es una ecuacion en los escalares k , para k = 1, 2, . . . , m.
Si S es no vaco, entonces para cualquier subconjunto finito de m vectores
distintos (con m menor o igual al cardinal de S), la ecuacion tiene siempre una
solucion, la denominada solucion trivial, k = 0K para todo k {1, 2, . . . , m}.
Por lo tanto, un conjunto no vaco S sera linealmente independiente si para
todo subconjunto finito de m vectores, vk S, con k Jm , la u
nica solucion
de la ecuacion 2.20 es la trivial. Por supuesto, el conjunto vaco es linealmente
independiente (por que?). De igual manera, un conjunto unitario {v} V
sera linealmente independiente si, y solo si v 6= 0V .
La denominacion de linealmente dependientes es sugerida por el siguiente
teorema que muestra que si un conjunto, con mas de un elemento, es linealmente
dependiente, entonces al menos un vector del conjunto se puede escribir como
una combinacion lineal de elementos del conjunto, distintos a dicho vector.
Teorema 2.3.1. Sea V un espacio vectorial sobre el campo K. Si S es un
subconjunto de V con n elementos, n 2, o si S es infinito, entonces S es l.d
si, y solo si existe un vector v S tal que v es combinacion lineal de elementos
de S {v}.
Demostracion. Si S es l.d, entonces existen vectores distintos v1 , v2 , . . . , vm
S, con 1 m, tales que
m
X
k vk = 0V ,
k=1

para escalares k , no todos nulos. Ahora, si m = 1 se tiene 1 v1 = 0V con


1 6= 0K , de donde se sigue que v1 = 0V y como S o es infinito o tiene un
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

85

n
umero de elementos n > 1, existe al menos un vector v S, v 6= v1 y
v1 = 0K v. Si m > 1, entonces alg
un escalar, digamos i es no nulo y podemos
escribir
m
X
k
vk ;
vi =
i
k=1,k6=i
es decir vi es combinacion lineal de elementos del conjunto
{vk |k {1, 2, . . . , m}, k 6= i} S {vi }.
En forma recproca, si existen vectores distintos v, v1 , . . . , vm S tales que
v=

m
X

k vk ,

k=1

para escalares k , entonces tenemos


m
X

k vk + (1K )v = 0V ,

k=1

con lo que se tiene una combinacion lineal nula no trivial de elementos de S y,


por lo tanto, S es linealmente dependiente.
Del teorema anterior es inmediato que dados dos vectores distintos v1 , v2
en V , entonces son linealmente dependendientes si, y solo si uno de ellos
es m
ultiplo escalar del otro. Consecuencias mas o menos inmediatas de la
definicion de dependencia se presentan en el teorema siguiente. La demostracion
es sencilla y se propone como ejercicio.
Teorema 2.3.2. Sea V un espacio vectorial sobre un campo K. Supongamos
que M, N V . Entonces:
1. Si 0V M , entonces M es l.d.
2. Si M N , entonces:
(a) Si M es l.d, entonces N es l.d.
(b) Si N es l.i, entonces M es l.i.

2.3. DEPENDENCIA E INDEPENDENCIA LINEAL, BASES, DIMENSION.


Castaneda
/ Barrios

86

Si S = {v1 , v2 , . . . , vm } es un conjunto finito con m elementos, m 1, el


problema de determinar la dependencia o independencia lineal de S se reduce
al de determinar si la ecuacion (en los escalares 1 , 2 , . . . , m )
1 v1 + 2 v2 + + m vm = 0V

(2.21)

tiene o no soluciones no triviales. En efecto, si (2.21) tiene soluciones no


triviales entonces, por definicion, S es linealmente dependiente. Recprocamente, si S es l.d, entonces existen vectores distintos w1 , . . . , wj S y escalares
1 , . . . , j , no todos nulos, tales que
1 w1 + + j wj = 0V ,
pero esto implica que {w1 , . . . , wj } S es l.d y, por el teorema anterior,
tambien lo sera S.
En el caso particular en que V = Kn , la ecuacion (2.21) es el sistema
homogeneo n m sobre K:

1


T 2
v1T v2T . . . vm
(2.22)
.. = 0Kn
.
m
con incognita vectorial = (1 , 2 , . . . , m ) Km . De ese modo, el conjunto
finito de m vectores v1 , v2 , . . . , vm sera linealmente dependiente si, y solo si el
sistema lineal (2.22) tiene soluciones no triviales. Si K es infinito, entonces los
vectores son l.d si, y solo si (2.22) tiene infinitas soluciones.
Ejemplo 2.3.1. Considere en R3 , los vectores v1 = (1, 1, 3), v2 = (1, 0, 2) y
v3 = (1, 2, 8). La ecuacion 2.20 es entonces:
1 v1 + 2 v2 + 3 v3 = (0, 0, 0)
que corresponde al sistema homogeneo

= 0
1 2 + 3
1 + 02 + 23 = 0

31 + 22 + 83 = 0
Es decir, en la forma dada por 2.22:


1 1 1
1
0
1
0 2 2 = 0
3
2 8
3
0
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

87

Notese que las columnas de la matriz del sistema son las transpuestas de los
vectores considerados. Resolviendo el sistema tenemos:


1 1 1 0 1F1 + F2 1 1 1 0
1 1 1 0
5F2 + F3
1
0
0 2 0

1 1 0
0
1 1 0

3
2 8 0 3F1 + F3 0
5 5 0
0
0 0 0
Es claro que este sistema tiene infinitas soluciones, pues 3 es una variable
libre y puede, por tanto, tomar cualquier valor real. As, los vectores dados
son linealmente dependientes. Notese que v3 = 2v1 + v2 lo que, de haberse
notado inicialmente, hubiese permitido afirmar de inmediato que los vectores
son l.d pues uno de ellos es combinacion lineal de los otros dos. De hecho,
cualquiera de ellos es combinacion lineal de los otros dos.
Si consideramos, ahora, los conjuntos formados por dos cualesquiera de los
tres vectores dados, entonces se tiene que cada uno de los tres conjuntos es
linealmente independiente, pues ninguno de los tres vectores es m
ultiplo escalar
de alguno de los otros dos. Por ejemplo, si consideramos v1 y v2 , y si existiera
un escalar tal que v1 = v2 se tendra el sistema inconsistente
= 1
= 0
2
,
=
3
de modo que v1 no es m
ultiplo de v2 . Tampoco lo puede ser v2 de v1 pues si
as fuera, por ser vectores no nulos, entonces v1 sera tambien m
ultiplo de v2 .
Este ejemplo muestra que el que un conjunto de mas de dos vectores sea l.d
no implica que al menos uno de los vectores es m
ultiplo de otro. Por supuesto,
el recproco es verdadero: si un vector es m
ultiplo de otro, cualquier conjunto
de vectores que los contenga, por el teorema 2.3.2, es l.d.
Ejemplo 2.3.2. Si en Z45 consideramos los vectores
v1 = (1, 1, 0, 1), v2 = (3, 1, 1, 4), v3 = (1, 0, 0, 1), v4 = (0, 3, 1, 1),
tenemos:
1. Considerando v1 , v2 , v3 , el sistema 2.22 corresponde al de matriz ampliada

1 3 1 0
1 1 0 0


0 1 0 0

1 4 1 0

2.3. DEPENDENCIA E INDEPENDENCIA LINEAL, BASES, DIMENSION.


Castaneda
/ Barrios

88

Resolviendolo tenemos

1 3 1 0 2F3 + F2
1
4F1 + F2

0 3 4 0 0

0 1 0 0 4F3 + F4 0

4F1 + F4
0 1 0 0 F3 F2 0

3
1
0
0

1 0
1
4F3

0 0
0

0
4 0
0 0
0

3
1
0
0


1 0
0 0

1 0
0 0

De modo que el sistema tiene u


nica solucion, la trivial 1 = 2 = 3 = 0.
Por lo tanto v1 , v2 , v3 son l.i.
2. Ahora, para v1 , v2 , v4 se tiene:

1 3 0 0
1
1 1 3 0 4F1 + F2 0

0 1 1 0 0

4F1 + F4
1 4 1 0
0

3
3
1
1

0 0 2F3 + F2
1

3 0 0
1 0 4F3 + F4 0
1 0 F3 F2 0

3
1
0
0


0 0
1 0

0 0
0 0

El sistema tiene entonces soluciones no triviales (aunque finitas) dadas


por:
2 = 4t
1 = 22
= 3t
3 = t Z5 {0}
Tomando, por ejemplo, t = 1 se tiene que
3(1, 1, 0, 1) + 4(3, 1, 1, 4) + 1(0, 3, 1, 1) = (0, 0, 0, 0).
Ejemplo 2.3.3. Consideremos ahora el espacio R23 , de matrices 2 3 sobre
el campo real. Sean






1 2 1
1
0 4
3 2 1
M1 =
, M2 =
, M3 =
.
0 1 3
0 1 2
1 5
0
Entonces M1 , M2 , M3 son l.d si, y solo si la ecuacion


0 0 0
1 M1 + 2 M2 + 3 M3 =
0 0 0
tiene soluciones no triviales. La ecuacion anterior tambien corresponde a un
sistema homogeneo 6 3; en este caso la matriz ampliada es:
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

89


1 1
3 0
2
0
2 0

1
0
4
1


0
0
1 0

1 1
5 0
3
2
0 0

Notese que el sistema homogeneo es el mismo que resultara al plantear la


cuestion acerca de la dependencia o independencia de los vectores en R6
v1 = (1, 2, 1, 0, 1, 3), v2 = (1, 0, 4, 0, 1, 2), v3 = (3, 2, 1, 1, 5, 0).
Como se vera, en espacios vectoriales finitamente generados, la ecuacion 2.20
puede siempre plantearse en terminos de la solucion de un sistema homogeneo
en Km , para alg
un m N. En este ejemplo, en particular, el espacio de
matrices R23 se identifica con el espacio R6 . Se deja como ejercicio determinar
si el conjunto de las tres matrices dadas ( y de los respectivos vectores v1 , v2 , v3 )
es l.d o l.i
Ejemplo 2.3.4. En P2 (R) sean
p1 (x) = 1 + x x2 , p2 (x) = 3 + x2 , p3 (x) = 1 2x
La ecuacion 2.20 es ahora
1 (1 + x x2 ) + 2 (3 + x2 ) + 3 (1 2x) = 0 + 0x + 0x2
(1 + 32 + 3 ) + (1 23 )x + (1 + 2 )x2 = 0 + 0x + 0x2
Igualando coeficientes de los polinomios en los dos miembros de la ecuacion
obtenemos nuevamente un sistema homogeneo en R3

1 + 32 + 3 = 0
1 23
= 0

1 + 2
= 0
Resolvemos el sistema


1 3
1 0
1
3
1 0 1F1 + F2
1
3
1 0
31 F2
0 1
1
0 3 3 0

1 0
0 2 0


0 0 3 0
1 1
0 0 1F1 + F3
0
4
1 0 4F2 + F3
De la u
ltima ecuacion se obtiene 3 = 0 y, reemplazando en las otras ecuaciones,
obtenemos 2 = 1 = 0; de modo que la u
nica solucion es la trivial. As, los
polinomios dados son linealmente independientes.

2.3. DEPENDENCIA E INDEPENDENCIA LINEAL, BASES, DIMENSION.


Castaneda
/ Barrios

90

Como se dijo antes un conjunto S es un conjunto de generadores de un


espacio vectorial V si, y solo si
hSi = V,
es decir, si S 6= , entonces todo elemento de V es una combinacion lineal de
elementos de S. Un conjunto de generadores linealmente independientes de un
espacio vectorial es denominado una base para V .
El que un conjunto B 6= de vectores de V sea una base implica que todo
vector de V puede obtenerse, en forma u
nica, como combinacion lineal de los
elementos de B. Ese es el tema del siguiente teorema.
Teorema 2.3.3. Si B 6= es una base de V , entonces todo elemento no nulo
de V se obtiene, en forma u
nica, como combinacion lineal de elementos de B.
Demostracion. Sea B una base del espacio vectorial V . Si v V , v 6= 0V ,
entonces (por ser B un conjunto de generadores) se tiene que existen un
subconjunto finito {v1 , v2 , . . . , vn }, de B, con vi 6= vj si i 6= j, y escalares
no nulos i , tales que
n
X
v=
i v i .
i=1

Supongamos que se tiene tambien que


v=

m
X

j wj ,

j=1

para escalares no nulos j y vectores wj B, distintos todos. Se tiene entonces:


n
X
i=1

i vi +

m
X

(j )wj = 0K .

j=1

Ahora, si
{vi |i = 1, . . . , n} {wj |j = 1, . . . , m} =
se tendra que {vi |i = 1, 2, . . . , n} {wj |j = 1, 2, . . . , m} es un conjunto l.i,
de donde i = j = 0 para todo i, j, lo que contradice nuestro supuesto de
no nulidad de los escalares. As entonces, algunos wj estan en el conjunto
{vi |i = 1, 2, . . . , n}. Supongamos ahora que los primeros k (reordenando si
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

91

es necesario) vectores wj coinciden con los primeros k elementos del conjunto


indicado Entonces, se tiene
k
m
n
X
X
X
(i i )vi +
(i )wi +
i vi = 0V .
i=1

i=k+1

i=k+1

Si las dos u
ltimas sumas contienen al menos un termino, entonces se tendra
que i = j = 0IK para j = k + 1, . . . , m, i = k + 1, . . . , n, contradiciendo
nuevamente nuestra hipotesis de no nulidad de los escalares. Se sigue entonces
que k = m = n y, por la independencia lineal de los vi , se obtiene i = i para
todo i = 1, . . . , n.
Para espacios finitamente generados, puede probarse que dos bases cualesquiera son finitas y con el mismo n
umero de elementos. Antes, tenemos los
siguientes resultados.
Teorema 2.3.4. Sean V un espacio vectorial sobre K y S un conjunto de
generadores, no vaco, de V . Si existe un vector v 6= 0V , entonces existe un
vector w S tal que (S {w}) {v} genera a V .
Demostracion. Supongamos que se dan las hipotesis del teorema. Si existe
v 6= 0V en V , entonces S no consta solamente del vector cero (por que?) y,
por lo tanto, existen vectores distintos w1 , w2 , . . . , wm S, m 1, tales que
v=

m
X

k wk ,

k=1

para escalares 1 , . . . , m . Puesto que v no es el vector nulo, alg


un escalar,
digamos i , es distinto de cero y entonces se puede escribir


m
X
1
k
wi = v +
wk .
i
i
k=1,k6=i
Sea w = wi . Ahora, si u es un vector cualquiera en V , entonces u es combinacion
lineal de elementos de S, digamos
u=

t
X

k uk + w

k=1

2.3. DEPENDENCIA E INDEPENDENCIA LINEAL, BASES, DIMENSION.


Castaneda
/ Barrios

92

para escalares 1 , . . . , t , y vectores uk 6= w, uk S. Se tiene entonces:


 


t
m
X
X

k
u=
k uk +
v+
wk .

i
i
k=1
k=1,k6=i
lo que muestra que u es combinacion lineal de elementos de (S {w}) {v}.
Es decir, este u
ltimo conjunto genera a V .
Hablando informalmente, el teorema anterior establece que podemos reemplazar un vector del conjunto de generadores S por el vector no nulo v y el
conjunto resultante sigue siendo un conjunto generador del espacio vectorial.
Por supuesto, el vector a remplazar depende del vector v; es decir, no puede ser
elegido arbitrariamente. Este resultado, como lo muestra el teorema siguiente,
puede extenderse para cualquier conjunto finito y no vaco linealmente independiente.
Teorema 2.3.5. Sea V un espacio vectorial sobre K. Supongamos que S es un
conjunto de generadores de V y que existen un n
umero natural n y un conjunto
M = {v1 , v2 , . . . , vn } l.i en V . Entonces existen vectores w1 , . . . , wn S tales
que
(S {wi |i {1, 2, . . . , n}}) M
es un conjunto de generadores de V .
Demostracion. Procedamos por induccion sobre n 1.
1. Si n = 1, el resultado es consecuencia del teorema anterior.
2. Supongamos el teorema valido para un n
umero natural n.
Si M = {v1 , v2 , . . . , vn , vn+1 } es l.i en V , entonces {v1 , v2 , . . . , vn } es
un conjunto l.i con n elementos y, por hipotesis de induccion, existen
w1 , . . . , wn S tales que
(S {wi |i {1, 2, . . . , n}}) (M {vn+1 })
genera a V . Por lo tanto, en particular, vn+1 es combinacion lineal de
elementos de ese conjunto de generadores, digamos
vn+1 =

n
X
k=1

k vk +

s
X

k u k ,

k=1

con uk S M , para todo k {1, 2, . . . , s}.


Si todos los escalares k fuesen nulos se tendra que el conjunto M es l.d,
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

93

por ser vn+1 combinacion lineal de elementos de M {vn+1 }. Se tiene


as que alg
un vector ui se puede escribir como combinacion lineal de los
restantes vectores en la combinacion considerada. Procediendo como en
la demostracion del teorema anterior, si hacemos
wn+1 = ui ,
tenemos entonces que wn+1 puede ser reemplazado por vn+1 y, entonces,
V es generado por
(S {wi |i {1, 2, . . . , n, n + 1}}) M

Como se anticipo, una base de un espacio vectorial es un conjunto de


generadores linealmente independientes. En particular, el subespacio nulo
{0V }, de un espacio vectorial tiene como base al vaco. Toda base de dicho
espacio es necesariamente el conjunto vaco, pues el u
nico conjunto de generadores no vaco es justamente {0V }, pero tal conjunto es l.d. De hecho, para
espacios vectoriales con base finita puede probarse que dos bases distintas
tienen el mismo n
umero de elementos. Esto es consecuencia del siguiente
teorema.
Teorema 2.3.6. Sea V un espacio vectorial sobre el campo K. Supongamos
que el conjunto finito M = {v1 , v2 , . . . , vn }, n 1, es un conjunto linealmente
independiente en V y sea S = hM i, de modo que M es una base para S. Si T
es un subconjunto de S linealmente independiente, entonces T es finito y tiene
a lo mas n elementos.
Demostracion. Supongamos que T es infinito o que es finito con mas de n
elementos. Entonces existen w1 , w2 , . . . , wn , wn+1 T tales que
N = {w1 , w2 , . . . , wn }
es l.i y, por el teorema anterior, S = hN i. Como wn+1 S, entonces wn+1 es
combinacion lineal de w1 , . . . , wn y por tanto el conjunto
{w1 , w2 , . . . , wn , wn+1 } T
es l.d. Se sigue que T es l.d, lo que contradice la suposicion sobre T . Se tiene
entonces que T es finito y su cardinalidad es menor o igual a n.

2.3. DEPENDENCIA E INDEPENDENCIA LINEAL, BASES, DIMENSION.


Castaneda
/ Barrios

94

Una consecuencia inmediata, como se haba anunciado es:


Corolario 2.3.7. Sea V un espacio vectorial sobre K. Supongamos que existe
una base finita B. Entonces, toda base,B 0 , de V es finita y se tiene que B y
B 0 tienen la misma cardinalidad (n
umero de elementos).
Demostracion. Si B = no hay nada que demostrar. Si B no es vaca y n
es el n
umero de elementos de B, entonces para cualquier otra base B 0 , por
el teorema anterior, se tiene (por ser B 0 un conjunto l.i) que B 0 es finita y
que su cardinalidad es m n. Ahora, como B 0 es tambien un conjunto de
generadores de B, por el teorema anterior se tiene tambien que n m. Es
decir m = n.
Puede probarse que todo espacio vectorial tiene una base. Lo haremos para
el caso de espacios finitamente generados. Consideramos entonces este caso.
Teorema 2.3.8. Sea V un espacio vectorial sobre el campo K. Si V es
finitamente generado entonces V tiene al menos una base.
Demostracion. Si V = {0V } entonces el conjunto generador puede ser o el
mismo V y la base es . Supongamos entonces que V es generado por un
conjunto no vaco M 6= {0V } de cardinalidad |M | = n 1. Demostraremos
que M contiene una base. Usaremos induccion sobre n 1.
1. Si n = 1, entonces M = {v} para alg
un vector v 6= 0V , entonces M es l.i
y es, por tanto, una base para V .
2. Supongamos que el teorema es valido para todo conjunto de generadores
con n elementos, n 1. Supongamos que |M | = n + 1. Sean
M = {v1 , . . . , vn+1 }, S = hM {vn+1 }i.
Entonces S tiene una base BS = {u1 , u2 , . . . , um } (M {vn+1 }). Si
vn+1 S, entonces BS es ya una base de V (por que?) y esta contenida
en M . Si vn+1
/ S, entonces hagamos
B = BS {vn+1 }.
Claramente V = hBi. Ahora consideremos la ecuacion, en los escalares
i , , i {1, 2, . . . , m},
m
X

i ui + vn+1 = 0V .

i=1

CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

95

Tenemos que si 6= 0K , entonces se tendra que vn+1 S, lo que


contradice nuestra suposicion. Por lo tanto = 0K y se tiene entonces
que
m
X
i ui = 0V .
i=1

Puesto que BS es una base, se sigue entonces que para todo i = 1, 2, . . . , m


necesariamente i = 0K . As, B es l.i y es por tanto una base para V ,
contenida en M .

El siguiente corolario garantiza que todo conjunto de generadores (finito o


infinito) de un espacio vectorial finitamente generado contiene una base. Este
resultado es valido tambien en espacios vectoriales cualesquiera.2
Corolario 2.3.9. Sea V un espacio finitamente generado, entonces todo conjunto M , de generadores de V , contiene una base.
Demostracion. Por la demostracion del teorema anterior, el resultado es valido
si el conjunto de generadores es finito. Supongamos entonces que M es un
conjunto infinito de generadores de V . Puesto que V es finitamente generado,
el teorema anterior garantiza la existencia de una base, digamos
B = {u1 , . . . , um }.
Para cada i {1, 2, . . . , m} existen un n
umero natural ni , escalares ij , y
vectores vij M , con j {1, 2, . . . , ni } tales que
ui =

ni
X

ij vij .

j=1

Para un i fijo sea Vi = {vij |j {1, 2, . . . , ni }}. Si consideramos el conjunto


N=

m
[

Vi M,

i=1

entonces N genera a V y es un conjunto finito con cardinalidad n

m
P

ni .

i=1

Por el teorema anterior se concluye que N , y por tanto M , contiene una base
para V .
2

En los apendices se presenta una demostracion

2.3. DEPENDENCIA E INDEPENDENCIA LINEAL, BASES, DIMENSION.


Castaneda
/ Barrios

96

Ejemplo 2.3.5. Como ilustracion, consideremos el espacio R3 . Un conjunto


de generadores es, por ejemplo,
{(1, 1, 0), (1, 1, 1), (0, 1, 3), (1, 1, 1)}.
En efecto, para todo vector v = (a, b, c) R3 , la ecuacion
1 (1, 1, 0) + 2 (1, 1, 1) + 3 (0, 1, 3) + 4 (1, 1, 1) = (a, b, c)
tiene soluciones. Es decir, todo vector de R3 puede escribirse como una
combinacion lineal de los cuatro vectores dados. En efecto, la ecuacion anterior
corresponde al sistema con matriz ampliada

1 1 0 1 a
1
1 1 1 b
0
1 3 1 c
Realizando las operaciones elementales, en su orden,
1F2 + F1 , F 2 F1 , F2 F3 , 1F2 + F1 , 2F3 + F1 , 3F3 + F2
obtenemos la forma escalonada

1 0
0 1
0 0

reducida (verifquelo)

0
4 2a + 3b c
0 5 3a 3b + c
1
2
a+b

Es decir, existen infinitas soluciones dadas por:


4
3
2
1

=
=
=
=

t
a + b 2t
3a 3b + c + 5t
2a + 3b c 4t

siendo t un real arbitrario. El conjunto de vectores dados genera entonces


a R3 , pero no es una base ya que para cuando (a, b, c) = (0, 0, 0) el sistema
considerado antes tiene infinitas soluciones (cuales?). Es decir, el conjunto es
linealmente dependiente. Sin embargo, tal conjunto de generadores contiene
varias bases del espacio vectorial. Por ejemplo, si tomamos t = 0 (equivalente
a excluir el u
ltimo vector del conjunto dado), entonces obtenemos que todo
vector (a, b, c) puede escribirse (de manera u
nica) como
(a, b, c) = (2a + 3b c)(1, 1, 0) + (3a 3b + c)(1, 1, 1) + (a + b)(0, 1, 3),
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

97

de modo que los tres primeros vectores generan a R3 . Que la combinacion lineal
es u
nica es consecuencia de que la matriz ampliada del sistema resultante al no
considerar el u
ltimo vector, es la misma del sistema inicialmente considerado,
eliminando la cuarta columna, y que las operaciones elementales a realizar en el
nuevo sistema son las mismas de antes y no alteran la columna de los terminos
independientes. As, el nuevo sistema tiene solucion u
nica y, en particular, para
(a, b, c) = (0, 0, 0) la u
nica solucion es la trivial. Es decir, los tres primeros
vectores son l.i y, por lo tanto, forman una base para R3 .
Si tomamos (a, b, c) = (1, 1, 1), el u
ltimo vector, entonces dicho vector se
escribe como
(1, 1, 1) = (2 + 3 1)(1, 1, 0) + (3 3 + 1)(1, 1, 1) + (1 + 1)(0, 1, 3)
= 4(1, 1, 0) + (5)(1, 1, 1) + 2(0, 1, 3)
Puesto que los escalares en la combinacion lineal anterior son todos diferentes
de cero, cualquiera de los tres vectores de la base hallada
B1 = {(1, 1, 0), (1, 1, 1), (0, 1, 3)}
puede ser reemplazado por (1, 1, 1) y el conjunto resultante sigue generando
al espacio. Puesto que todo conjunto de generadores contiene una base, este
u
ltimo conjunto contendra una; pero como dos bases distintas tienen el mismo
n
umero de elementos, se concluye que tal conjunto es tambien una base. As,
tenemos entonces tres bases mas
B2 = {(1, 1, 1), (1, 1, 1), (0, 1, 3)}
B3 = {(1, 1, 1), (1, 1, 0), (0, 1, 3)}
B4 = {(1, 1, 1), (1, 1, 0), (1, 1, 1)}
Es decir, al menos en este caso, tres cualesquiera de los cuatro vectores dados
forman una base. Sin embargo, esto no es siempre as. Si, por ejemplo,
considera el conjunto {(1, 1, 1), (1, 1, 1), (0, 1, 3), (1, 2, 4)}, entonces el subconjunto de tres elementos
{(1, 1, 1), (0, 1, 3), (1, 2, 4)}
no es una base pues es linealmente dependiente, ya que
(1, 2, 4) = (1, 1, 1) + (0, 1, 3).

2.3. DEPENDENCIA E INDEPENDENCIA LINEAL, BASES, DIMENSION.


Castaneda
/ Barrios

98

Si V es finitamente generado, hemos demostrado que dos bases cualesquiera


de V tienen la misma cardinalidad. Definimos tal cardinalidad, o n
umero de
elementos, com
un a todas las bases, como la dimensi
on del espacio vectorial.
Si V no es finitamente generado decimos que tiene dimension infinita.
Definici
on 2.3.2. Sea V un espacio vectorial sobre el campo K.
1. Si V es finitamente generado y B es una base de V , definimos la dimensi
on de V sobre K como
dimK (V ) = |B|

(2.23)

2. Si V no es finitamente generado, decimos que V tiene dimension infinita


sobre el campo y escribiremos
dimK (V ) = .
Es usual escribir dimK (V ) < , para indicar que V es finitamente generado.
Teorema 2.3.10. Si K es un campo y m, n N, entonces:
dimK (Kn ) = n
dimK Pn (K) = n + 1
dimK (Kmn ) = mn
= dimK (Kmn )

(2.24)
(2.25)
(2.26)
(2.27)

Demostracion. Para demostrar el teorema verifique que cada uno de los conjuntos dados a continuacion, es una base del espacio vectorial indicado.
1. Para Kn , el conjunto
B1 = {ei |1 {1, 2, . . . , n}},

donde

ei = (0K , 0K , . . . , 0K , 1K , 0K , . . . , 0K ),

i
2. Para Pn (K),
B2 = {1K } {xk |k Jn } = {1K , x, x2 , . . . , xn }.
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

99

3. Para Kmn , el conjunto de matrices m n sobre K :


B3 = {Akl |k Jm , l Jn },
donde

Akl (i, j) =

1K ,
0K ,

si i = k, j = l ;
en otro caso.

Las bases mostradas anteriormente son las bases usuales o base est
andares
de los espacios vectoriales considerados. Por ejemplo, para el espacio de
matrices R23 la base estandar es
{A11 , A12 , A1,3 , A2,1 , A2,2 , A2,3 },
donde


A11
A21



1 0 0
0 1
=
, A12 =
0 0 0
0 0



0 0 0
0 0
=
, A22 =
1 0 0
0 1



0
0 0
, A13 =
0
0 0


0
0 0
, A23 =
0
0 0


1
,
0

0
1

Cada matriz 2 3, A = (aij )23 , sobre el campo real, se escribe de manera


u
nica como
A = a11 A11 + a12 A12 + a13 A13 + a21 A21 + a22 A22 + a23 A23 .
De igual manera, todo polinomio en P2 (Z5 ) se escribe en terminos de la base
estandar
{1, x, x2 }
As, para p(x) = a0 + a1 x + a2 x2 , trivialmente se tiene
p(x) = a0 (1) + a1 (x) + a2 (x2 ).
El siguiente teorema establece que conocida la dimension de un espacio vectorial,
todo conjunto de vectores l.i con un n
umero de elementos igual a su dimension
es una base del espacio vectorial. Igual pasa con todo conjunto de generadores
con la cardinalidad igual a la dimension.

2.3. DEPENDENCIA E INDEPENDENCIA LINEAL, BASES, DIMENSION.


Castaneda
/ Barrios

100

Teorema 2.3.11. Sea V un espacio vectorial sobre K, con dimK (V ) = n < ,


entonces todo conjunto de n vectores l.i es una base para V . Tambien todo
conjunto de n generadores de V es una base para V .
Demostracion. Es una consecuencia del teorema 2.3.5 y del corolario 2.3.9.
De igual manera se tiene que la dimension de un subespacio de un espacio
de dimension finita debe ser finita y menor o igual a la dimension del espacio.
Teorema 2.3.12. Si V es un espacio vectorial de dimension finita sobre K y
S  V , entonces S tiene dimension finita y dimK (S) dimK (V ). Mas a
un,
dimK (S) = dimK (V ) si, y solo si S = V .
Demostracion. Si S = {0V } no hay nada que demostrar. Supongamos entonces
que S 6= {0V }. Todo conjunto de vectores l.i en S es tambien l.i en V . La
familia
L(S) = {U S|U es l.i }
es no vaca, pues L(S), y para todo U L(S) se cumple que
|U | n = dimK (V ).
Por lo tanto el conjunto A = {k N0 |U L(S) : |U | = k} es no vaco y
acotado superiormente, de modo que tiene un maximo m = M ax(A). Entonces,
existe un conjunto B 0 L(S) tal que |B 0 | = m n. Afirmamos que tal
conjunto
B 0 = {u1 , u2 , . . . , um }
es una base para S. En efecto, si v S entonces v B 0 o v
/ B 0 . Si v B 0 ,
0
0
0
entonces v hB i. Si v
/ B , entonces {v} B es un conjunto con m + 1
elementos y es, por la maximalidad de m, un conjunto l.d, por lo que existen
escalares 1 , . . . , m+1 no todos nulos tales que
m
X

k uk + m+1 v = 0V

k=1

Ahora si m+1 = 0K , se tendra que


1 = 2 = = m = 0K
y todos los escalares seran nulos. As que m+1 6= 0K y, en consecuencia,
v hB 0 i, con lo que B 0 es una base de S. As, S es finitamente generado y su
dimension, m, es menor o igual a n, la dimension de V .
Ahora, si m = n, entonces B 0 es una base para V y S = hB 0 i = V . Si V = S
trivialmente tienen la misma dimension.
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

101

Otra importante consecuencia del teorema 2.3.5 es entonces:


Corolario 2.3.13. Sea V un espacio vectorial de dimension finita sobre K,
entonces todo conjunto linealmente independiente, M , de V esta contenido en
una base de V . Por lo tanto, si S  V y B 0 es una base para S, entonces
existe una base B para V tal que B 0 B.
Demostracion. Si V es el espacio nulo, o si M = , no hay nada que demostrar.
Consideremos entonces que V no es el espacio nulo y que
M = {v1 , . . . , vm }
es l.i y que B es una base de V , con |B| = n. Entonces m n. Si m = n no
hay nada que probar. Si m < n, entonces por el teorema 2.3.5 existen vectores
distintos u1 , u2 , . . . , um B tales que B 0 = (B {u1 , . . . , um }) M genera a
V . Pero este conjunto tiene n elementos y debe contener una base de V . Tal
base tiene que ser necesariamente el mismo B 0 , pues si fuese un subconjunto
propio tendra cardinalidad menor que n, la dimension de V . As, M B 0 .
Si S  V y B 0 es base de S, entonces B 0 es un conjunto l.i. Por tanto debe
estar contenida en alguna base, B, de V .
Hablando informalmente, por el teorema anterior tenemos que todo conjunto
linealmente independiente, en un espacio de dimension finita, puede prolongarse o extenderse a una base de V . Es decir, podemos construir una base
de un espacio vectorial partiendo de un conjunto l.i cualquiera. En particular,
podemos extender una base de un subespacio cualquiera hasta una base del
espacio completo. Igualmente, ya se demostro que todo conjunto de generadores
contiene una base; esto significa que partiendo de un conjunto de generadores
del espacio podemos construir una base del mismo, extrayendo vectores del
conjunto de generadores hasta obtener una base. Surge la cuestion, en los dos
procesos de construccion de una base descritos, acerca de que tanto puede
prolongarse o extenderse, en el primer caso, un conjunto l.i o restringirse o
recortarse un conjunto de generadores, en el segundo caso, para obtener una
base. Como veremos enseguida, toda base es al mismo tiempo, un conjunto
l.i maximal y un conjunto minimal de generadores. Esto, en terminos
coloquiales, significa que una base no puede extenderse mas sin que pierda
la condicion de independencia o restringirse sin perder la capacidad de generar
el espacio.
Definici
on 2.3.3. Sea V un espacio vectorial sobre el campo K. Sea M V .

2.3. DEPENDENCIA E INDEPENDENCIA LINEAL, BASES, DIMENSION.


Castaneda
/ Barrios

102

1. M es un conjunto maximal linealmente independiente en V si, y


solo si es linealmente independiente y para todo conjunto N V , si
N M y N 6= M , entonces N es linealmente dependiente.
2. M es un conjunto o sistema minimal de generadores de V si, y
solo si M genera a V y ning
un subconjunto propio de M genera a V :
Teorema 2.3.14. Sea V espacio vectorial sobre IK. B V . Entonces son
equivalentes:
1. Bes un conjunto maximal linealmente independiente de V .
2. B es un conjunto minimal de generadores.
3. B es una base para V .
Demostracion. Si B = el resultado es trivial y se deja como ejercicio.
Consideraremos solo el caso B 6=
1. Sea B un conjunto maximal l.i de V . Entonces si v B, se tiene v hBi.
Si v V B entonces B es un subconjunto propio de B {v} y este
u
ltimo (por la maximalidad de B) es l.d. Entonces, existen vectores
v1 , v2 , . . . , vn B y escalares 1 , . . . , n , , no todos cero, tales que
v +

n
X

i vi = 0.

i=1

Si = 0 se seguira, de la independencia lineal de los vi B, que i = 0


para cada i. As, entonces se tiene 6= 0 y v es combinacion lineal de
los vi . Se tiene entonces que hBi = V .
Si B 0 es un subconjunto propio de B y B 0 genera a V , entonces existe
v B, v
/ B 0 que es combinacion lineal de elementos v1 , v2 , . . . , vm
B 0 . Se sigue que el conjunto {v, v1 , . . . , vm } es un subconjunto l.d de
B y este u
ltimo, por tanto, es tambien l.d (absurdo). Por lo tanto
ning
un subconjunto propio de B puede generar al espacio vectorial, lo
que demuestra que B es un conjunto minimal de generadores.
2. Si B es un sistema minimal de generadores y B fuese l.d, existiran
vectores distintos v, v1 , . . . , vn B y escalares 1 , . . . , n tales que
v=

n
X

i vi .

i=1

CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

103

Entonces, para cualquier w V = hBi se tendra que

w=

m
X

j wj + m+1 v,

j=1

para escalares j y vectores wj B, con wj 6= v. Entonces

w=

m
X
j=1

j w j +

n
X

i m+1 vi

i=1

y w hB {v}i. As B {v} sera un conjunto de generadores de V


contenido propiamente en B, lo que contradice la minimalidad de B. En
consecuencia B es l.i y es, por tanto, una base para V .

3. Supongamos ahora que B es una base de V . Entonces para todo superconjunto propio B 0 de B, existe v B 0 B tal que v es combinacion lineal
de elementos de B. Por lo tanto el conjunto B {v} es un subconjunto
l.d de B 0 , con lo cual B 0 es l.d. Se tiene as que B es un conjunto l.i
maximal.

Ejemplo 2.3.6. Considere, por ejemplo, el espacio vectorial finito

V = ZZ22 = {(0, 0), (0, 1), (1, 0), (1, 1)}

2.3. DEPENDENCIA E INDEPENDENCIA LINEAL, BASES, DIMENSION.


Castaneda
/ Barrios

104

sobre ZZ2 . Los 16 subconjuntos de V son:

M1
M2
M3
M4
M5
M6
M7
M8
M9
M10
M11
M12
M13
M14
ZZ22

=
=
=
=
=
=
=
=
=
=
=
=
=
=

{(0, 0)}
{(0, 1)}
{(1, 0)}
{(1, 1)}
{(0, 1), (1, 0)}
{(0, 1), (1, 1)}
{(1, 0), (1, 1)}
{((0, 0), (0, 1)}
{(0, 0), (1, 0)}
{(0, 0), (1, 1)}
{(0, 0), (0, 1), (1, 0)}
{(0, 0), (0, 1), (1, 1)}
{(0, 0), (1, 0), (1, 1)}
{(0, 1), (1, 0), (1, 1)}

En 2V , familia de los subconjuntos de V , se tiene (verifquelo) :


LI(V ) = {, M2 , M3 , M4 , M5 , M6 , M7 } ( conjuntos l.i. )
G(V ) = {M5 , M6 , M7 , M11 , M12 , M13 , M14 , ZZ22 } ( conjuntos generadores.)
LI(V ) G(V ) = {M5 , M6 , M7 } (Bases)
LD(V ) = {M1 , M8 , M9 , . . . , M14 , ZZ22 } (conjuntos l.d)

El orden parcial, dado por la inclusion de conjuntos en 2V se muestra en el


siguiente diagrama, donde se indican ademas las zonas de generadores y
conjuntos l.i.
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

105

'

ZZ22

generadores

Y
H
H
k
6
Q
]
JQ
HH
J Q
H
J QQ HH
J
Q H

M11 M12 M13


M
: : 14
:


1

*

*










 




6
6
6

7


 





 




 
M8 M9 M10

 
1

* K

AKA
K
  
A
A
A A

 A
 

A
A
zona l.d


 

A
A
A
M1
 

A
A
A



I
@
A
A
A


@
A
A 
A
A


@
A
A
@ A
zona l.i
A M5A M6 M7
@ A
*

*

A
A



 A6
A6
@A


&
%
@A A A
@
M2@ M3 M4
*
Y
H
H@
6
H

En el diagrama, cada flecha indica que el conjunto de donde parte la misma esta
contenido en aquel hacia donde apunta. Dado que la inclusion es una relacion
transitiva, se tiene que, por ejemplo, el conjunto M2 , que esta contenido en M5 ,
esta tambien contenido o incluido en M11 , ya que este es un superconjunto de
M5 . Notese que hay siete conjuntos l.i (en la familia LI(V )), pero que solo tres
de ellos son maximales: M5 , M6 y M7 . Por su parte, la familia de generadores
de V = Z22 esta integrada por ocho conjuntos, pero solo tres son minimales,
justamente los mismos maximales l.i. As, la interseccion de las dos familias,
generadores y conjuntos linealmente independientes, es la familia de las bases
del espacio vectorial. Por supuesto, la dimension es 2, el n
umero de elementos
de cada base del espacio.

Ejercicios 2.3.1.
1. En cada caso indique si, en el espacio indicado, el subconjunto dado es
l.i o l.d.
(a) En R2 :
i. {(1, 2), (3, 6)}.
ii. {(1, 2), (3, 5).

2.3. DEPENDENCIA E INDEPENDENCIA LINEAL, BASES, DIMENSION.


Castaneda
/ Barrios

106

iii. {(1, 1), (0, 3), (5, 6)}.


(b) En R3 :
i. {(1, 1, 2), (1, 1, 3), (0, 4, 7)}.
ii. {(1, 1, 2), (1, 1, 3), (1, 3, 2).
iii. {(1, 0, 4), (0, 1, 0), (1, 3, 1), (1, 5, 6)}.
(c) En Z35 :
i. {(1, 1, 2), (4, 4, 1)}.
ii. {(1, 1, 2), (4, 4, 0)}.
iii. {(1, 1, 2), (4, 4, 0), (2, 3, 1)}.
(d) En P3 (R):
i. {1, 1 + x, x3 }.
ii. {1, x, x2 + x, x3 + 1}.
iii. {2 x, 3 + x2 , 7 2x + x2 }.
(e) En R22 :

1
i.
0

1
ii.
0

 
 

2
1 1
0 1
,
,
.
3
0
2
2 5
 
 
 

2
1 1
0 1
3 3
,
,
,
.
3
0
2
2 5
0 8

(f) En RR :
i. {f, g}. Con f (x) = 1, f2 (x) = 1 + x2 , para todo x R.
ii. {f, g, h}. Con f (x) = 1, g(x) = Sen2 (x), h(x) = Cos2 (x), para
todo x R.
2. Con relacion al ejercicio anterior, indique si el subconjunto dado genera
o no al espacio correspondiente y, en caso de hacerlo, si es o no una base
de dicho espacio.
3. En cada caso determine una base (contenida en el conjunto de generadores
indicado) del subespacio dado. Halle la dimension del mismo.
(a) h(1, 2, 3), (0, 1, 2), (2, 5, 8)i  R3 .
(b) h1, 1 + x, 3 + 2x, x3 i  P3 (R).

 
 
 

1 2 3
2 4 0
2 4 6
3 6 3
(c)
,
,
,
 R23 .
0 1 2
0 0 1
0 2 4
0 1 3
(d) {(t + r, 2t + s + 3r, 3t + 2s)|t, s, r Z5 }  Z35 .
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

107

4. Muestre, en cada caso que el conjunto dado es linealmente independiente.


Extienda dicho conjunto a una base del espacio correspondiente.
(a) {(1, 3)} en R2 .
(b) {(1, 1, 3), (2, 1, 4)} en R3 .
(c) {1 + x, 2} en P2 (R).
5. En cada caso determine la dimension del espacio solucion del sistema
homogeneo dado. Si no se indica lo contrario, suponga que el n
umero
de variables es el de las que aparecen explcitas en el sistema y que el
campo es el campo real.

2x + 3y = 0
(a)
3x 4y = 0
(b) El sistema anterior en R3 .

2x + 3y = 0
(c) 3x 4y = 0

5x y = 0

2x + 3y = 0
(d) 3x 4y = 0

5x y = 0

2x + y = 0

3x 4y = 0
(e)
7x 2y = 0

10x 6y = 0

3x + y + 2z = 0

5x 4y 4z = 0
(f)
x + 2y 5z = 0

11x 2y 8z = 0

x1 + x2 3x3 2x4 =

3x1 + 2x2 6x3 6x4 =


(g)
3x1 + x2 3x3 6x4 =

5x1 + x2 3x3 10x4 =

6x1 + 3x2 9x3 12x4 =

3x1 + x2 3x3 6x4 =


5x1 + x2 3x3 10x4 =
(h)

x1 x2 + 3x3 2x4
=

x1 + x2 x3 + 4x4
=

0
0
0
0
0
0
0
0
0

2.3. DEPENDENCIA E INDEPENDENCIA LINEAL, BASES, DIMENSION.


Castaneda
/ Barrios

108

(i)

(j)

(k)

(l)

(m)

(n)

3x1 + 4x2 10x3 + x4 + 2x5 =

3x1 + 4x2 12x3 + 4x5


=
2x
+
3x

8x
+
x
+
2x
=

1
2
3
4
5

5x1 + 7x2 19x3 + 2x4 + 5x5 =

3x1 + 4x2 10x3 + x4 + 2x5 =

3x1 + 4x2 12x3 + 4x5


=
2x1 + 3x2 8x3 + x4 + 2x5 =

5x1 + 7x2 19x3 + 2x4 + 5x5 =

0x1 + 4x2 10x3 + x4 + 2x5 =

4x2 12x3 + 4x5


=
3x

8x
+
x
+
2x
=

2
3
4
5

7x2 19x3 + 2x4 + 5x5


=

x1 + 4x2 + x3 = 0
2x1 + 4x2 + x3 = 0 en Z35 .

3x1 + 2x2 + 4x3 = 0

x1 + 4x2 + x3 = 0
2x1 + 4x2 + x3 = 0 en Z37 .

3x1 + 2x2 + 4x3 = 0

3x1 + 3x2 + 2x3 = 0

2x1 + 4x2 + x3 = 0
en Z35 .
3x
+
2x
+
4x
=
0

1
2
3

x1 + 4x2 + 3x3 = 0

0
0
0
0
0
0
0
0

en R6 .

0
0
0
0

6. Describa algebraicamente todos los subespacios de:


(a) R1 , R2 y R3 .
(b) P2 (K) y P3 (K), siendo K un campo cualquiera.
(c) R22 .
7. Sean K un campo y F un subconjunto no vaco de K tal que (F, +)
es un subgrupo de (K, +) y (F {0K }, ) es un subgrupo del grupo
multiplicativo K = K {0K }. Demuestre que (F, +, ) es un campo
(subcampo de K) y que K es un espacio vectorial sobre F, con la
adicion de K y la multiplicacion de elementos de K por escalares en
el subcampo F. Demuestre tambien que si K es finito, entonces es
finitamente generado sobre F
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

109

8. Considere el campo complejo C = (R, +, ) como fue definido en el


ejemplo 1.4.3, pagina 22, del captulo 1. Puesto que R es un subcampo de
K, podemos considerar a C como un espacio vectorial sobre R. Muestre
que dimR C = 2 aunque dimC (C) = 1.
9. Sea K un campo finito y suponga que F, L son subcampos de K con
L F K.
Demuestre que
dimL (K) = dimL (F) dimF (K).
10. Si K es un campo finito, entonces existe un n
umero primo p tal que
K Zp . Es decir, Zp es, para alg
un primo p, un subcampo3 de K.
Demuestre que la cardinalidad de K es una potencia de p:
|K| = p ,
para alg
un N.
11. Sea U un subespacio del espacio vectorial V . Para v V , definamos
v + U = {v + u|u U }
Demuestre:
(a) Para todo v1 , v2 V : v1 + U = v2 + U si, y solo si v1 v2 U .
(b) Si V /U = {v + U |v V }, entonces las formulas
(v1 + U ) + (v2 + U ) = (v1 + v2 ) + U
(v + U ) = (v) + U
definen operaciones binarias (adicion y multiplicacion por escalares)
bajo las cuales V /U es un espacio vectorial sobre K.
(c) Si {vi +U |i I} es una familia de vectores linealmente independientes
en V /U , entonces {vi |i I} es un conjunto linealmente independiente
en V .
3

Zp es denominado el campo primo de K y es el menor subcampo de K.

2.3. DEPENDENCIA E INDEPENDENCIA LINEAL, BASES, DIMENSION.


Castaneda
/ Barrios

110

(d) Si V es de dimension finita y B1 es una base para U que se extiende


a una base B de V , entonces
B = {v + U |v B B1 }
es una base para V /U . Por lo tanto
dimK (V ) = dimK (U ) + dimK (V /U ).
12. El espacio vectorial V /U del ejercicio anterior es denominado el espacio
cociente de V sobre U . Cada elemento v + U V /U es una clase
lateral de U en V .
(a) Describa, para un espacio vectorial V , los espacios cocientes V /V y
V /{0V }.
(b) Describa todos los espacios cociente de Rn , para n = 1, 2, 3.
13. Sea V un espacio vectorial sobre el campo K. Si U y W son subespacios
de V , demuestre:
(a) U + W = {u + w|u U, w W } es un subespacio de V .
(b) Si dimK (V ) < , entonces
dimK (U + W ) = dimK (U ) + dimK (W ) dimK (U W ).
14. Sea V un espacio vectorial sobre K. Si U es un subespacio de V , un
complementario de U en V es un subespacio W tal que U + W = V
y U W = {0V }. Demuestre que si V es finitamente generado y B1 es
una base de U , que se extiende a una base B de V , entonces hB B1 i
es un complementario de U . Puede extenderse este resultado a espacios
vectoriales cualesquiera?.
15. Con relacion al ejercicio anterior, halle un subespacio complementario
del subespacio dado:
(a) {(t, 2t)|t R} en R2 .
(b) {(t + 2s, t, s)|t R} en R3 .
(c) {(t, 2t, t, 4t)|t R} en R4 .
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

2.4

111

Matrices Elementales. Rango y nulidad de


una matriz.

Las operaciones elementales en las filas de una matriz son el resultado de la


accion multiplicativa, a mano izquierda, de matrices cuadradas denominadas
matrices elementales. Una matriz elemental es una matriz cuadrada, digamos
n n, sobre un campo K, la cual se obtiene de la matriz identidad por medio
de una u
nica operacion elemental de renglon. Es decir, una matriz elemental
n n, sobre el campo considerado, es una matriz n n definida por una de
las siguientes formas:

,
si i = j = k;
Ek() (i, j) =
(2.28)
ij , en otro caso.

1K , si (i = k j = l) (i = l j = k) ;
0K , si (i = k j 6= l) (i = l j 6= k);
Ek,l (i, j) =
(2.29)

ij , en cualquier otro caso.



,
si i = l j = k ;
Ek(),l (i, j) =
(2.30)
ij , en cualquier otro caso.
En todos los casos k, l Jn y es un escalar, no nulo en 2.28 y cualquiera
en 2.30. Notese que la matriz elemental en 2.28 se obtiene de In mediante la
operacion elemental Fk . Las otras dos se obtienen mediante las operaciones
Fk Fl y FK + Fl , respectivamente. Por ejemplo, en R33 tenemos:

3 0 0
E1(3) = 0 1 0
0 0 1

1 0 0
E2,3 = 0 0 1
0 1 0

1
0 0
1 0
E2(2),3 = 0
0 2 1
La matriz en 2.29, intercambio de filas, puede obtenerse (ejercicio) de la matriz
identidad utilizando las otras dos operaciones elementales de renglon, por
lo que, en sentido estricto, no es una matriz elemental; sin embargo, por
comodidad, la incluiremos en el conjunto de las mismas. De igual manera,
podra restringirse la forma 2.30 a = 1, de modo que cualquier operacion
2.4. MATRICES ELEMENTALES. RANGO Y NULIDAD DE UNA MATRIZ.


Castaneda
/ Barrios

112

elemental se podra realizar en base a solo dos elementales. Como se anuncio, el


efecto de multiplicar una matriz por una matriz elemental, suponiendo definido
el producto, es el de producir una operacion elemental en las filas (o columnas)
de la matriz por la cual se multiplica. En efecto, notese que las filas de las
matrices elementales satisfacen (ei es el iesimo vector de la base estandar de
Kn ) :
(Ek() )k
(Ek() )i
(Ek,l )k
(Ek,l )l
(Ek,l )i
(Ek(),l )l
(Ek(),l )i

=
=
=
=
=
=
=

(In )k = ek
ei , si i 6= k
el
ek
ei , si i 6= k, i 6= l
ek + el
ei si i 6= l

As, dada una matriz A de tama


no m n, si Ek() es una matriz elemental
m m, entonces la fila k de Ek() A es:
(Ek() )k A = ek (A(1) , . . . , A(n) ) = Ak ,
es decir, es la kesima fila de A multiplicada por . Para i 6= k, la fila i del
producto considerado es
(Ek() )i A = ei A = Ai .
Es decir, coincide con la fila iesima de A. De ese modo se tiene que Ek() A
es la matriz que se obtiene de A multiplicando la kesima fila por . Para los
demas casos se deja como ejercicio verificar que sucede algo similar. Por otra
parte, si E es una matriz elemental n n, el efecto de multiplicar A por E es
tambien el de producir una operacion elemental, ahora en las columnas de A.
Tenemos entonces:
Teorema 2.4.1. Sea A una matriz m n sobre el campo K. Supongamos que
E y D son matrices elementales m m y n n, respectivamente. Entonces.
1. EA es la matriz que se obtiene de A haciendo la misma operacion elemental por medio de la cual se obtiene E de Im .
2. Si D es de uno de los tipos 2.28 o 2.29, entonces AD es la matriz obtenida
de A haciendo la misma operacion elemental que produce D, pero en las
columnas de A.
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

113

3. Si D se obtiene de In mediante la operacion Fk + Fl , entonces AD es la


matriz obtenida de A mediante la operacion Cl + Ck , donde Ci denota
la columna iesima de A.
Demostracion. Ejercicio.
Dado que dos sistemas lineales tales que uno se obtenga del otro por medio
de operaciones elementales en los renglones son equivalentes, es justificable
definir matrices equivalentes por renglones, como lo hacemos a continuacion.
Definici
on 2.4.1. Sean A, B Kmn , entonces A es equivalente por renglones a B si, y solo si existen matrices elementales E1 , . . . Ep Kmm tales que
B = E1 E2 . . . Ep A.
Es decir, B se obtiene de A mediante operaciones elementales en las filas.
Notaremos A B para indicar que A es equivalente por renglones a B.
Es claro que la equivalencia por renglones es, justamente, una relacion de
equivalencia. Esto significa que para toda terna de matrices A, B, C Kmn ,
se cumplen:
1. Reflexividad: A A.
2. Simetra: Si A B, entonces B A.
3. Transitividad: Si A B y B C, entonces A C.
La reflexividad y la simetra son inmediatas. Para la simetra, demuestrese
primero que:
Teorema 2.4.2. Toda matriz elemental es invertible y su inversa es una matriz
elemental. En efecto:
(Ek( )1 = Ek(1 )
(Ek,l )1 = Ek,l
(Ek(),l )1 = Ek(),l

(2.31)
(2.32)
(2.33)

Consideremos ahora el problema, ya planteado en el captulo uno, de la


existencia de inversa para una matriz cuadrada A Knn . Si A es invertible,
entonces claramente todo sistema lineal AX T = b, para b Kn1 , tiene
solucion u
nica dada por
X T = A1 b.
2.4. MATRICES ELEMENTALES. RANGO Y NULIDAD DE UNA MATRIZ.


Castaneda
/ Barrios

114

Recprocamente, si todo sistema AX T = b tiene solucion u


nica, entonces la
ecuacion matricial
AX = In ,
correspondiente a los n sistemas lineales
AX (1) = eT1
AX (2) = eT2
..
..
.
.
(n)
AX
= eTn ,
tiene solucion u
nica, pues cada sistema la tiene. As, existe una u
nica matriz
B Knn tal que AB = In . Decimos que B es una inversa a derecha de
A. Ahora, cada matriz ampliada (A|b), para todo b Kn1 es equivalente por
renglones a
(In |A1 b),
pero esto implica que A es equivalente por renglones a In , por lo que existen
matrices elementales E1 , . . . , Ep tales que
In = E1 . . . Ep A
Si hacemos C = E1 . . . Ep , entonces CA = In y C es una inversa a izquierda
de A. Pero entonces
C = CIn = C(AB) = (CA)B = In B = B.
Se sigue as que B = C = A1 . Hemos demostrado as que si cada sistema
AX T = b tiene solucion u
nica, entonces A es invertible y, de paso, que si A
tiene una inversa a derecha y una inversa a izquierda, entonces son iguales y
A es, por tanto, invertible.
Teorema 2.4.3. Sea A Knn . Son equivalentes:
1. A es no singular.
2. Todo sistema lineal AX T = b, b Kn1 tiene u
nica solucion.
3. El sistema homogeneo AX T = 0Kn1 tiene como u
nica solucion la trivial.
4. A es equivalente por renglones a In (La forma escalonada reducida de A
es In ).
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

115

5. A es producto de matrices elementales.


6. Existe una matriz B tal que AB = In o BA = In .
7. Las filas de A forman una base de Kn . Las columnas de A forman una
base de Kn1 (por tanto, las transpuestas forman una base de Kn ). Por
lo tanto:
hA(1) A(2) , . . . , A(n) i = Kn1
hA1 A2 , . . . , An i = Kn
dimK (hA(1) A(2) , . . . , A(n) i) = dimK (hA1 A2 , . . . , An i)
= n.

(2.34)
(2.35)
(2.36)
(2.37)

Demostracion. La equivalencia de 1 y 2 ya fue demostrada en la discusion


previa. 2, 3 son equivalentes, por la relacion entre el conjunto solucion de un
sistema lineal y el de su sistema homogeneo asociado. Igualmente 2 y 3 son
equivalentes a 4, por la unicidad de las soluciones, y esta u
ltima lo es a 5, por
la definicion de equivalencia por renglones y la simetra de la misma.
Es tambien claro que cualquiera de las proposiciones 1 a 5 implica a 6.
Supongamos que se cumple 6.
Si AB = In , entonces si U es solucion del sistema homogeno BX T = 0Kn1
se tiene que
A(BU T ) = (AB)U T = In U T = U T = A0Kn1 = 0Kn1 .
Por lo tanto, el sistema tiene como u
nica solucion la trivial y B es, por la
equivalencia de 1 y 2, no singular. Se sigue que B tiene una inversa que lo
es tambien a derecha, y como A es inversa a izquierda se tiene que A es la
inversa de B y B la de A. De manera similar, aplicando el mismo argumento
si BA = In , a B, se obtiene que A es no singular.
Supongamos que A es no singular, de modo que todo sistema lineal AX T = b,
con b Kn1 tiene solucion u
nica. El sistema anterior puede escribirse como
n
X

xi A(i) = b

i=1

2.4. MATRICES ELEMENTALES. RANGO Y NULIDAD DE UNA MATRIZ.


Castaneda
/ Barrios

116

As, para cualquier b Kn1 , existen escalares u


nicos 1 , . . . , n tales que
b=

n
X

i A(i)

i=1

lo que demuestra que las columnas de A generan a Kn1 y por ser n vectores
forman entonces una base para dicho espacio. Ahora, si A es no singular, lo
es tambien AT y, aplicando lo que se acaba de demostrar, se sigue que las
columnas de AT forman una base de Kn1 . As, para todo b Kn se tiene que
existen escalares u
nicos 1 , . . . , n tales que
n
X

i AT

(i)

= bT

i=1

de donde se sigue, aplicando transpuesta en ambos miembros, que


n
X

i Ai = b.

i=1

Tenemos entonces que las filas de A forman una base de Kn .


Recprocamente, si las columnas de A forman una base para Kn1 , entonces
para todo vector b en dicho espacio existen escalares u
nicos 1 , . . . , n tales
que
n
X
i A(i) = b,
i=1

pero esto implica que el sistema


AxT = b
tiene solucion u
nica, luego A es invertible. Un razonamiento similar, se sigue
para las filas usando la matriz transpuesta.
La dimension del subespacio, de Km1 , generado por las columnas de una
matriz A Kmn es denominado el rango de la matriz. Lo notaremos r(A).
Por su parte, la dimension del espacio solucion del sistema homogeneo
AX T = 0Kn1 ,
se denomina la nulidad, notada n(A), de la matriz. Notaremos por N (A)
(n
ucleo de A) a dicho espacio solucion del sistema homogeneo. Notese que
N (A)  Kn . Tenemos entonces:
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

117

Definici
on 2.4.2. Sea A Kmn , entonces:

r(A) = dimK hA(1) , A(2) , . . . , A(n) i


n(A) = dimK X Kn |AX T = 0Kn1
= dimK (N (A))

(2.38)
(2.39)

El teorema anterior establece entonces que la matriz A Knn es no


singular si, y solo si, r(A) = n. De igual manera se tiene que todo sistema
lineal n n, con A como matriz del sistema, tiene solucion u
nica si, y solo si
r(A) = n.
Notemos tambien que el subespacio generado por las columnas de A, matriz
m n, es el conjunto de todos los productos de A, fija, por los vectores
(transpuestos) de Kn . En efecto:
S = {AX T |X Kn } =

( n
X

)
xi A(i) |xi K

= hA(1) , . . . , A(n) i  Km1 .

i=1

Si consideramos el n
ucleo de A, N (A), por ser un subespacio de Kn , tiene
dimension menor o igual a n. Sea k tal dimension y supongamos que
B1 = {v1 , v2 , . . . , vk }
es una base de N (A). Si k = n, entonces N (A) = Kn y para todo v Kn , se
tiene que
S = {Av T |v Kn } = {0Km1 }
por lo que dimK (S) = 0 = n dimK (N (A)). Si k < n, entonces B1 esta
contenida en una base
B = {v1 , . . . , vk , vk+1 , . . . , vn },
de Kn . Sea B2 = BB1 = {vk+1 , . . . , vn }. Mostremos que B3 = {AviT |vi B2 }
es una base de S. Supongamos entonces w S, de modo que existe v Kn
con w = Av T . Como B es base de Kn , existen escalares u
nicos i tales que
v=

n
X

i v i ,

i=1

2.4. MATRICES ELEMENTALES. RANGO Y NULIDAD DE UNA MATRIZ.


Castaneda
/ Barrios

118

por lo que
n
X

Av T = A

i=1
n
X

= A

!T
i vi
!
i viT

i=1

=
=

n
X

i (AviT )

i=1
n
X

i (AviT )

i=k+1

lo cual muestra que B3 genera a S. Ahora, si existe una combinacion lineal


!T
n
n
X
X
i (AviT ) = A
i vi
= 0Km1
i=k+1

entonces

n
P

i=k+1

i vi N (A) y se tiene que

i=k+1
n
X

i vi =

k
X

i vi ,

i=1

i=k+1

pero entonces
k
X

i vi +

i=1

n
X

(i )vi = 0Kn

i=k+1

y por la independencia lineal de B se sigue que i = 0Kn , para todo i. Se tiene


entonces que B3 es l.i y es, por tanto, una base para S. Tenemos entonces
dimK (S) = n k = n dimK (N (A).
Hemos demostrado entonces:
Teorema 2.4.4. Si A es una matriz m n sobre el campo K entonces:
n(A) + r(A) = n

(2.40)

Como hemos definido ya, el rango de una matriz A Kmn es la dimension


del subespacio de Km1 generado por las columnas de A. Por su parte, las filas
de A generan un subespacio de K1n = Kn . Como mostraremos enseguida tal
subespacio tiene la misma dimension r(A). Antes tenemos algunos resultados
que nos ayudaran en dicha tarea.
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

119

De la definicion de producto escalar4 , se tiene que si v Kn es un vector tal


que para todo vector x Kn se cumple que
v x = x v = 0K ,
entonces necesariamente v = 0Kn . En efecto, basta con tomar x = ei para
tener entonces que vi = 0K , de donde v = 0Kn .
Ahora bien, si S 6= es un subconjunto de Kn consideremos el conjunto
S 0 = {x Kn |y S : x y = 0K }
al cual denominaremos el (subespacio) anulador de S. Es facil verificar que:
Teorema 2.4.5. Para todo campo K y todo n N, si =
6 S Kn entonces:
1. S 0  Kn .
2. Si S  Kn entonces
dimK (S) + dimK (S 0 ) = n

(2.41)

Demostracion.
1. Claramente 0Kn S 0 y para v, w S 0 , K se tiene
que si y S, entonces
(v + w) y = (v y) + (w y) = 0K .
As S 0  Kn .
2. Supongamos S  Kn . Si S = {0Kn } o si S = Kn el resultado pedido es
trivial. Supongamos entonces que S es un subespacio propio no trivial
de Kn , de modo que existe una base
B1 = {v1 , . . . , vk },
de S con k < n. Podemos extender dicha base hasta una base
B = {v1 , . . . , vk , vk+1 , . . . , vn },
de Kn . De esa forma la matriz
V = v1T v2T . . .
4


vnT ,

No necesariamente estamos hablando de un producto interior.


2.4. MATRICES ELEMENTALES. RANGO Y NULIDAD DE UNA MATRIZ.


Castaneda
/ Barrios

120

cuyas columnas son los vectores (transpuestos) de la base B, es invertible.


Definamos, para j {k + 1, . . . , n}
uj = Vj1 ,

(2.42)

es decir uj es la fila j esima de la matriz inversa de V . Es claro que


dimK huj |j {k + 1, . . . , n}i = n k.
k
P

Ahora, si x S, entonces xT =

i viT =

k
P

i V (i) , para escalares i ,

i=1

i=1

i = 1, . . . , k. Tenemos entonces
k
X

uj xT = Vj1

!
i V (i)

i=1
k
X

!
i Vj1 V (i)

i=1

= 0K
de donde uj S 0 , para todo j k + 1. Por otra parte , dado que V 1
es tambien una matriz n n, no singular, entonces sus filas forman una
base de Kn . As, si x S o Kn , entonces existen escalares i tales que
x=

n
X

i Vi1

i=1

y, ademas, para j = 1, 2, . . . , k se tiene que


0K = xV (j)
!
n
X
=
i Vi1 V j
=

i=1
n
X

i Vi1 V j

i=1

= j
De modo que x =

n
P

i Vi1 huj |j {k + 1, . . . , n}i. Es decir

i=k+1

S 0 = huj |j {k + 1, . . . , n}i.

CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

121

Si 6= S Kn1 , entonces el conjunto S t = {v T |v S} es claramente un


subconjunto de K1n = Kn y si S es un subespacio, entonces S t tambien lo
es y tiene la misma dimension. Podemos entonces extender la definicion de
anulador definiendo
S 0 = {v Kn1 |v T (S t )0 }.
Trivialmente, los resultados del teorema anterior son tambien validos para este
caso. En particular, si A Kmn , el subespacio, de Km1 , generado por las
columnas de A induce un subespacio
R(A) = {(AxT )T |x Kn }
de Km , el cual tendra entonces dimension r(A), el rango de la matriz. Denominaremos a tal subespacio el subespacio im
agen de A. Si consideramos, la
matriz transpuesta AT , entonces el n
ucleo de AT es un subespacio de Km y
afirmamos que es igual al anulador del espacio imagen de A, R(A).
En efecto, si y N (AT ) entonces se tiene que AT y T = 0Kn1 , por lo que para
todo x Kn se tiene que
=
=
=
=

x(AT y T ) =
(xAT )y T =
(AxT )T y T =
y(AxT ) =
y R(A)0

0K
0K
0K
0K

Ahora, si y (R(A))0 , entonces para todo x Kn se tiene:


=
=
=
=

y(AxT ) =
(yA)xT =
x(AT y T ) =
At y T =
y N (AT )

0K
0K
0K
0Kn1

Tenemos as que
(R(A))0 = N (AT )
Se tiene entonces que para una matriz A K
T

mn

(2.43)
:

m = n(A ) + r(A )
= r(A) + dimK (R(A)0 )
= r(A) + n(AT ),
de donde se sigue que:
2.4. MATRICES ELEMENTALES. RANGO Y NULIDAD DE UNA MATRIZ.


Castaneda
/ Barrios

122

Teorema 2.4.6. Si A Kmn , entonces


r(AT ) = r(A)

(2.44)

As:
El subespacio, de Km1 , generado por las columnas de A tiene la
misma dimensi
on del subespacio, de Kn , generado por las filas de A.
Tenemos tambien los siguientes resultados sobre sistemas lineales.
Teorema 2.4.7. Sean A una matriz m n sobre el campo K y b Km1 .
Consideremos el sistema lineal AX T = b. Entonces:
1. El sistema es consistente si, y solo si r(A) = r(A|b).
2. Si el sistema tiene solucion u
nica, entonces m n. Es decir, el n
umero
de ecuaciones es al menos igual al n
umero de incognitas.
3. Si m < n, el sistema es inconsistente o tiene mas de una solucion. En
particular, el sistema homogeneo asociado tendra soluciones no triviales
si m < n.
4. Si r(A) = n, el sistema tiene a lo mas una solucion.
5. Si m = n, entonces el sistema tiene solucion u
nica si, y solo si A es no
singular.
Demostracion.
por lo que

1. Si el sistema es consistente, entonces b hA(1) , . . . , A(n) i,


hA(1) , . . . , A(n) i = hA(1) , . . . , A(n) , bi,

por lo que r(A) = r(A|b). Recprocamente, si r(A) = r(A|b), entonces


como S = hA(1) , . . . , A(n) i hA(1) , . . . , A(n),b i = T , entonces S = T y
b S, luego existen escalares 1 , . . . , n tales que
b=

n
X

i A(i) ,

i=1

por lo que = (1 , . . . , n ) es una solucion del sistema.


CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

123

2. Si el sistema tiene solucion u


nica, digamos U Kn , entonces es equivalente
T
al sistema cuadrado In X = U T . La forma escalonada reducida de la
matriz ampliada del sistema contiene al menos a la submatriz
(In |U T ).
Se sigue entonces que m n y que tal forma escalonada reducida es

1K 0K 0K . . . 0K u1

0K 1K 0K . . . 0K u2


0K 0K 1K . . . 0K u3
.
..
..
.. ..
.

.
.
. .
.


0K 0K 0K . . . 1K un


0K 0K 0K . . . 0K 0K
.
..
..
.. ..
..
.
.
. .
0 0 0 ... 0 0
K

con m n renglones nulos.


3. Se sigue del anterior.
4. Si r(A) = dimK (S) = n, entonces las columnas de A forman una base del
subespacio, S, generado por ellas. Como S Km1 , el sistema tendra
solucion si b S y en tal caso existe una u
nica combinacion lineal
n
X

i A(i) = b,

i=1

es decir, tal solucion sera u


nica. Si b
/ S, el sistema es inconsistente.
Se tiene entonces que a lo mas hay una solucion del sistema.
5. Ya demostrado.

C
alculo de inversas
El teorema 2.4.3, pagina 114, establecio condiciones suficientes y necesarias
para la no singularidad de una matriz. Sin embargo, no hemos desarrollado una
tecnica de calculo de inversas. Si A Knn , se ha demostrado que la existencia
2.4. MATRICES ELEMENTALES. RANGO Y NULIDAD DE UNA MATRIZ.


Castaneda
/ Barrios

124

de una inversa unilateral es suficiente para garantizar la no singularidad de la


matriz. Ahora, una inversa a derecha es una solucion de la ecuacion matricial
AX = In
Tal ecuacion, como ya se dijo, corresponde a n sistemas lineales
AX (i) = eTi , i {1, 2, . . . , n}
los cuales pueden resolverse simultaneamente. Si la inversa existe, todos lo
sistemas tienen solucion u
nica y cada solucion nos dara una columna de la
inversa buscada. Mas generalmente, dadas A Kmn y B Kmp , para
naturales m, n, p. Consideremos entonces la ecuacion
AX = B,
donde la incognita es la matrix n p,

x11 x12 . . . x1p


x21 x22 . . . x2p

(1)
X = ..
X (2) . . .
..
.. = X
.
.
.
xn1 xn2 . . . xnp

(2.45)


X (p) .

La ecuacion 2.45 corresponde entonces a un sistema lineal de mp ecuaciones en


np variables escalares xij , con i Jn , j Jp . Sin embargo, 2.45 se puede hacer
corresponder a los p sistemas lineales independientes, cada uno en n variables:
AX (1) = B (1)
AX (2) = B (2)
..
..
.
.
(p)
AX
= B (p)
Es decir, tenemos p sistemas lineales de la forma
AX (j) = B (j) ,
para j = 1, 2, . . . , p. En cada sistema, para j fijo, las incognitas escalares son
las n componentes de la jesima columna de X, esto es

x1j
x2j

X (j) = .. .
.
xnj
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

125

Para cada uno de esos sistemas la matriz del sistema es la matriz A y la matriz
ampliada es

A | B (j) .
Si se aplican tecnicas de eliminacion gaussiana a cada uno de los p sistemas,
las operaciones o transformaciones elementales necesarias, en cada caso, son
las mismas. Podemos entonces resolver simultaneamente tales sistemas. As
2.45 tendra soluciones si, y solo si las tienen los p sistemas lineales descritos.
Ejemplo 2.4.1. Consideremos, por ejemplo, las matrices

1
2 3
1 2
3
5
4 , B = 2 3 1 .
A= 2
2 3
5
4 7
5
La ecuacion AX = I3 corresponde a los tres sistemas con matrices ampliadas

1
2 3 1
2
5
4 0 , en x11 , x21 , x31
2 3
5 0

1
2 3 0
2
5
4 1 , en x12 , x22 , x32 .
2 3
5 0

1
2 3 0
2
5
4 0 , en x13 , x23 , x33
2 3
5 1
Los cuales resolvemos simultaneamente:

1
2 3 1|0|0
2F1 + F2

2

5
4 0|1|0

2 3
5 0|0|1
2F1 + F3
2F2 + F1

1F2 + F3
1
F3
11

10F3 + F2

23F3 + F1

1
0
0

1
0
0

1
0
0

1
0
0

2 3 1 | 0 | 0
1 10 2 | 1 | 0
1 1 2 | 0 | 1

0 23 5 |2 | 0
1 10 2 | 1 | 0
0 11 4 |1 | 1

0 23 5 |2| 0
1 10 2 | 1 | 0
4
1
1
| 11
| 11
0 1 11
37

1
23
0 0 11 | 11
| 11
1

1 0 18
| 11
| 10
11
11
4
1
1

0 1 11 | 11 | 11

2.4. MATRICES ELEMENTALES. RANGO Y NULIDAD DE UNA MATRIZ.


Castaneda
/ Barrios

126

Obtenemos as que A es invertible y su inversa es

37 1
11 11 23
11

37 1 23

1
18
1
10
18 1
10
A1 =
=
11
11 11
11

4 1 1
4
1
1
11 11 11
Es B no singular?
Ejemplo 2.4.2. Considere, por ejemplo, las matrices sobre el campo real




1 2 3
1 3
A=
,B =
.
2 3 4
0 5
y la ecuacion matricial AX = B siendo,

x11

X = x21
x31

en este caso,

x12
x22 .
x32

La ecuacion considerada corresponde a dos sistemas con matrices ampliadas




1 2 3 1
, en x11 , x21 , x31
2 3 4 0


1 2 3 3
, en x12 , x22 , x32 .
2 3 4 5
Pueden resolverse, por separado, los dos sistemas. Pero, como ya se dijo en
general, podemos aprovechar que la matriz de los sistemas es la misma matriz
A, para resolverlos simultaneamente:






 2F2 + F1 

1 2 3 1|3 2F1 + F2 1
2
3 1 | 3
1 0 1 3|1

2 3 4 0|5

0 1 2 2|1
0 1
2 2 |1
1F2

Obtenemos as, la forma escalonada reducida para ambos sistemas. La u


ltima
columna de la matriz de los dos sistemas corresponde a variables libres: x31 ,
en el primero, y x32 en el segundo. Haciendo x31 = t, x32 = s, obtenemos que

3 + t 1 + s
X = 2 2t 1 2s .
t
s
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

127

Tambien podemos considerar ecuaciones de la forma XA = B, con A


Kmn y B Kpn , de modo que la incognita matricial sera X Kpm . Pero
tal ecuacion se puede tambien escribir como
AT X T = B T
que es de la forma ya considerada.

Ejercicios 2.4.1.
1. En cada caso, para la matriz A dada encuentre su forma escalonada
reducida y escriba la misma como un producto de matrices elementales
por la matriz A.


1 2
(a) A =
en R22 .
3 4


1 2
(b) A =
en R22 .
2 4


1 2 3
(c) A =
en R23 .
0 2 4


1
2i i
(d) A =
en C23 .
2 + i 4 3i


1 2 3
(e) A =
en Z23
5 .
1 2 3
2. En cada determine si las matrices A y B dadas son equivalentes por
renglones. En caso afirmativo, exprese una de ellas como producto de
matrices elementales por la otra.

1 2 3
1 0 3
(a) A = 0 1 3 , B = 2 1 3 .
0 2 6
4 0 12

1 2 3
3 1 6
(b) A = 0 1 3 , B = 2 1 3 .
0 2 6
4 0 12

1 2 3
1 0 3
(c) A = 0 1 3 , B = 2 1 3 .
0 2 6
4 0 12
2.4. MATRICES ELEMENTALES. RANGO Y NULIDAD DE UNA MATRIZ.


Castaneda
/ Barrios

128

1 2 3
2 7 16
(d) A = 0 1 3 , B = 1 1 5 .
0 4 6
2 1 14
3. En cada caso indique si el conjunto de n vectores dados es una base de
Rn , para el valor de n correspondiente:
(a) {(1, 5), (3, 2)}.
(b) {(1, 2), (2, 4)}.
(c) {(1, 1, 0), (0, 1, 2), (0, 0, 3)}.
(d) {(1, 1, 1, 3), (1, 1, 1, 0), (0, 0, 1, 1), (2, 0, 2, 3)}.
4. En cada caso

1
(a) A =
1

(b) A = 0
0

1
0
(c) A =
1
0

(d) A = 0
0

determine, si existe, la inversa de la matriz dada:



2
, en R22 .
3

2 3
1 3, en R33 .
2 6

1 3 1
1 2 3
, en R44 .
1 4 5
1 1 1

2 3
1 3 , en Z33
5 .
2 1

5. Para las matrices invertibles del ejemplo anterior expreselas como productos
de matrices elementales.


a11 a22
6. Considere la matriz A =
sobre el campo K. Sea
a21 a22


a11 a12


det(A) = a11 a22 a12 a21 =
a21 a22
(a) Demuestre que A es invertible si, y solo si, det(A) 6= 0K y que en
tal caso


1
a22 a12
1
.
A =
det(A) a21 a11
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

129

(b) Deduzca que el sistema lineal


   
x
b
A
= 1
y
b2
tiene solucion u
nica si, y solo si det(A) 6= 0K y que en tal caso
(Regla de Cramer) la solucion viene dada por:


b1 a12


b2 a22
(2.46)
x =
det(A)


a11 b1


a21 b2
(2.47)
y =
det(A)

1 2 3
2 4
7. Sean A = 0 1 3 , B = 5 2. Resuelva las ecuaciones:
0 2 6
1 3
(a) AX = B.
(b) BX = A.
(c) XA = B T
8. Sean A Kmn y B Kmm , C Knn matrices no singulares sobre K.
Demuestre:
(a) Para todo b Km1 , los sistemas AX T = b y (BA)X T = Bb son
equivalentes.
(b) n(A) = n(BA) y r(A) = r(BA) = r(AC).
(c) Si D Kmn es equivalente por filas a la matriz A, entonces r(D) =
r(A).
(d) Si R es una matriz escalonada reducida equivalente por renglones
a la matriz A, entonces las filas no nulas de R forman una base del
subespacio generado por las filas de A.
9. En cada caso determine el rango y la nulidad de la matriz A dada.
Halle tambien una base para N (A) y para el subespacio generado por
las columnas de A.
2.4. MATRICES ELEMENTALES. RANGO Y NULIDAD DE UNA MATRIZ.


Castaneda
/ Barrios

130

(a)

(b)

(c)

(d)

2.5

A= 0
0

A= 0
2

A= 0
0

1
A=
1

1 1
1 3 R33 .
2 5

2 1
1 3 R33 .
5 5

i 2i
1 i C33 .
i i

1 1
Z23
5 .
1 3

Bases ortonormales y proyecciones ortogonales

Consideraremos en esta seccion, en particular, al espacio V = Rn , con el


producto escalar definido por 1.58, pagina 42. En los ejercicios del captulo
1, ver 21, pagina 52, se introdujo una generalizacion del producto escalar a
espacios vectoriales reales o complejos, a la que se denomino un producto
interior. Los resultados a incluir en esta seccion para el caso particular del
producto escalar en Rn son tambien validos en espacios con producto interior.
Se deja al lector el establecer dichos resultados en el caso mas general.
De igual manera, se establecio en las secciones de ejercicios previos que para
un subconjunto no vaco, M del espacio Rn , el conjunto de todos los vectores
ortogonales a todos los elementos de M , notado M , es un subespacio de Rn .
Tal subespacio se denominara el complemento ortogonal de M .
Un subconjunto no vaco S del espacio V es un conjunto ortogonal si, y
solo si para todo par de vectores v, w S, con v 6= w se tiene que vw.
El conjunto es ortonormal si es ortogonal y cada vector en el conjunto es
unitario; es decir, para todo v S se cumple que v v = 1.
Si M es un conjunto ortogonal tal que 0V no esta en M , entonces M es
necesariamente un conjunto linealmente independiente. En efecto, supongamos
que existen v1 , . . . , vm vectores distintos en M y que existen escalares 1 , . . . , m
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

131

tales que
m
X

i vi = 0V

i=1

Entonces para cada j = 1, . . . , m se tiene:


m

P
i vi vj = 0
i=1
m
P

i (vi vj ) = 0

i=1

=
=
=

j (vj vj ) = 0
j kvj k2 = 0
j = 0

Por supuesto, para el caso considerado, todo conjunto ortogonal con vectores
no nulos es necesariamente finito y puede normalizarse para construir una
base ortonormal del subespacio generado por dicho conjunto. Demostremos
que todo conjunto linealmente independiente puede utilizarse para obtener
una base ortogonal y, por lo dicho antes, obtener una base ortonormal del
subespacio generado por tal conjunto. El procedimiento a establecer es conocido como el proceso de ortogonalizaci
on de Gram-Schmidt.
Teorema 2.5.1. Sean v1 , . . . , vm vectores l.i en Rn . Entonces existe una base
ortogonal B = {w1 , w2 , . . . , wm } para el subespacio hv1 , v2 , . . . , vm i.
Demostracion. Definimos w1 = v1 .
Supongamos definidos vectores w1 , w2 , . . . , wk , con 1 k < m, tales que para
i 6= j se tiene wi wj = 0. Definamos entonces
wk+1 = vk+1


k 
X
vk+1 wj
j=1

wj wj

wj

(2.48)

Se tiene entonces para i < k + 1


wk+1 wi = vk+1 wi vk+1 wi
= 0
claramente los subespacios generados por los vi y los wi son iguales.
En particular, el teorema anterior implica que todo subespacio no nulo de
Rn tiene una base ortonormal ( de vectores ortogonales y unitarios).
2.5. BASES ORTONORMALES Y PROYECCIONES ORTOGONALES


Castaneda
/ Barrios

132

Teorema 2.5.2. Sea S un subespacio no nulo de Rn , de dimension m. Entonces


existe una base ortonormal de V . Si B = {v1 , . . . , vm } es tal base, entonces
para todo v V se tiene:

m
X
v =
(v vi )vi

(2.49)

i=1

v
u n
uX
|v vi |2
kvk = t

(2.50)

i=1

Demostracion. Sea B0 = {u1 , u2 , . . . , um } una base de S, entonces por el


teorema anterior se tiene que existe una base ortogonal {w1 , w2 , . . . , wm } de
S. Definiendo, para cada i {1, 2, . . . , m}:

vi =

1
wi ,
kwi k

se tiene entonces que


B = {v1 , v2 , . . . , vm }

es una base ortonormal


de S.
m
P
Ahora, sea v =
i vi S, entonces para cada j = 1, 2, . . . , m se tiene que
i=1

v vj =
=

m
X

!
i vi

vj

i=1
m
X

i (vi vj )

i=1

= j
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

133

De igual manera

vv
v
!
u m
u X
= t
(v vi )vi

kvk =

i=1

m
X

!
(v vj )vj

j=1

v
u m
uX
(v vi )vi
= t
i=1

m
X

!!
(v vj )vj

j=1

v
!
u m
m
uX X
(v vi )(v vj )(vi vj )
= t
i=1

j=1

v
u m
uX
= t (v vi )(v vi )
i=1

v
u m
uX
= t (v vi )2
i=1

Ejemplo 2.5.1. Considere, por ejemplo, los siguientes subespacios.


1. S = h(1, 2)i  nR2 , entonces
o {(1, 2)} es trivialmente una base ortogonal
(por que?) y 15 (1, 2) es una base ortonormal para S.
2. B0 = {(1, 1), (1, 3)} es una base para R2 . Tomando w1 = (1, 1) y
w2 = (1, 3)

4
(1, 3) (1, 1)
(1, 1) = (1, 3) (1, 1) = (1, 1).
(1, 1) (1, 1)
2

Obtenemos la base ortogonal {(1, 1), (1, 1)}. Por lo tanto obtenemos la
base ortonormal


1
1
B = (1, 1), (1, 1) .
2
2
3. R3 tiene como una base a B0 = {(1, 0, 0), (1, 2, 0), (1, 1, 2)} ya que la
matriz que tiene como columnas a los vectores transpuestos de los vectores
dados es no singular (por que?). Utilizando el proceso de Gram-Schmidt,
sean
v1 = (1, 0, 0), v2 = (1, 2, 0), v3 = (1, 1, 2).
2.5. BASES ORTONORMALES Y PROYECCIONES ORTOGONALES


Castaneda
/ Barrios

134

Tenemos entonces
w1 = v1
= (1, 0, 0)
(1, 2, 0) (1, 0, 0)
w2 = v2
(1, 0, 0)
(1, 0, 0) (1, 0, 0)
= (1, 2, 0) (1, 0, 0)
= (0, 2, 0)
(1, 1, 2) (1, 0, 0)
(1, 1, 2) (0, 2, 0)
w3 = v3
(1, 0, 0)
(0, 2, 0)
(1, 0, 0) (1, 0, 0)
(0, 2, 0) (0, 2, 0)
2
= (1, 1, 2) (1, 0, 0) (0, 2, 0)
4
= (0, 0, 2)
Obtenemos as la base ortogonal {(1, 0, 0), (0, 2, 0), (0, 0, 2)}. La base
ortonormal correspondiente es la base canonica
B = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}.
4. Para la base {(1, 1, 1), (2, 3, 1), (1, 1, 0)} obtenemos la base ortonormal
(verifquelo):
1
1
1
B = {v1 = (1, 1, 1), v2 = (0, 1, 1), v3 = (2, 1, 1)}
3
2
6

Para v = ( 3, 6, 6), si
v = 1 v1 + 2 v2 + 3 v3
los escalares i son
1 =
=
2 =
=
3 =
=

v v1
1
v v2

2 3
v v3

CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

135

Si W es un subespacio de Rn , entonces existe una base ortogonal


{w1 , w2 , . . . , wk }
de W . Dado un v Rn , el vector
k
X
v wj
P royW (v) =
wj W
wj wj
j=1

(2.51)

es denominado proyecci
on ortogonal de v sobre W . Como en la demostracion
del proceso de ortogonalizacion de Gram-Schmidt, se sigue que
v P royW v W .
As, dado un subespacio W  Rn , todo vector v Rn se puede escribir como
una suma de dos vectores u, w tales que w = proyW v W y u = v w W .
Esta escritura es u
nica, como mostraremos enseguida.
Supongamos que existe un vector w W W , entonces w w = 0, de donde
se sigue que w = 0Rn y por lo tanto
W W = {0Rn }.
Por lo tanto, si existen vectores w1 , w2 W, u1 , u2 W tales que
u1 + w1 = u2 + w2 ,
se tendran:
u1 u2 W W
w1 w2 W W
de donde u1 = u2 , w1 = w2 . Decimos que Rn es la suma directa de W y su
complemento ortogonal W y escribiremos
Rn = W W .
Mas en general, si V es un espacio vectorial sobre el campo K, y si U, W son
subespacios de V , el conjunto
U + W = {u + w|u U, w W }
2.5. BASES ORTONORMALES Y PROYECCIONES ORTOGONALES

(2.52)


Castaneda
/ Barrios

136

es un subespacio de V . En efecto, claramente 0V = 0V + 0V U + W , por lo


que U + W 6= . Ahora, si v1 , v2 U + W y es un escalar, entonces existen
vectores ui , u2 U, w1 , w2 W tales que
v1 = u1 + w1 , v2 = u2 + w2 ,
por lo que
v1 + v2 = (u1 + w1 ) + (u2 + w2 )
= (u1 + u2 ) + (w1 + w2 ) U + W,
ya que u1 + u2 U, w1 + w2 W . Si U W = {0V }, escribiremos U + W =
U W , y decimos que U + W es la suma directa de U con W . Como en el
caso de W y W , cada elemento de U W se obtiene de manera u
nica como
una suma de un elemento de U con uno de W .

Ejercicios 2.5.1.
1. En cada caso encuentre una base ortonormal para el subespacio, S, de
Rn dado.
(a) S = {(t, 2t, 3t)|t R}.
(b) S = {(t + s, 2t s, 3t)|t, s R}.
(c) S = {(2t, s 2t, 3t + s, s)|t R}.
2. Determine, en cada caso, P royW v, para el vector v y el subespacio W ,
dados.
(a) v = (1, 2), W = h(3, 5)i.
(b) v = (1, 1, 3), W = {t(1, 2, 3) + s(1, 0, 1)|t, s R}.
(c) v = (0, 1, 5, 1), W = {(t, t + s, t, s)|t, s R}.
3. En cada caso, dado el subespacio U , escriba R3 como suma directa de U
y W , para alg
un subespacio W . Indique si tal subespacio es u
nico.
(a) U = {(0, 0, 0)}.
(b) U = {(t, 2t, 3t)|t R}.
(c) U = {(t + s, 2s t, t s)|t, s R}.
CAPITULO 2. SISTEMAS LINEALES


al Algebra
Introduccion
lineal

137

4. Considere, en el espacio vectorial Knn , los subconjuntos


S
S0
T
T0

=
=
=
=

{A|At = A)}, de matrices simetricas.


{A|AT = A}, de matrices antisimetricas.
{A|A(i, j) = 0 si i > j}, de matrices triangulares superiores.
{A|A(i, j) = 0, si i < j}, de matrices triangulares inferiores.

(a) Demuestre que S, S 0 , T y T 0 son subespacios de Knn .


(b) Halle las dimensiones de los subespacios considerados.
(c) Muestre que si 1K + 1K 6= 0K , entonces
Knn = S S 0 .
(d) Muestre que Knn = T + T 0 , pero que tal suma no es directa.

2.5. BASES ORTONORMALES Y PROYECCIONES ORTOGONALES


Castaneda
/ Barrios

138

CAPITULO 2. SISTEMAS LINEALES

Captulo

.....3

Vectores en R2 y R3.
3.1

Introducci
on

En los captulos anteriores se introdujo la estructura de espacio vectorial sobre


un campo, de la cual Rn es un caso particular. Para este caso, se introdujo
tambien el producto escalar, definicion 1.58, pagina 42, con las propiedades
dadas por el teorema 1.5.3, que fueron despues generalizadas a lo que se
denomino un producto interior(ver ejercicio 21, pagina 52). El producto
escalar permitio definir una norma para un vector en el espacio considerado,
as como una direccion, en terminos de vectores unitarios. De igual manera
se hablo de ortogonalidad (perpendicularidad) y paralelismo, para vectores
no nulos. Tales conceptos, como lo reconocera el lector, tienen un origen
geometrico. En este captulo, hacemos una interpretacion geometrica de los
mismos para los casos n = 2, 3, particularmente. De igual modo relacionaremos
el concepto de vector, que se ha definido como un elemento de un espacio
vectorial, con la nocion de vector propia de la Fsica elemental, como una
cantidad que requiere para estar determinada de una magnitud (la norma
definida antes) y una direccion (vector unitario, en nuestra teora de espacios
vectoriales).
Estableceremos entonces un modelo vectorial para la Geometra euclidiana
en el plano y en el espacio. Esto no es mas que introducir elementos algebraicos
para el tratamiento de problemas geometricos, tema de la disciplina conocida
como Geometra Analtica. En principio, convenimos en que los espacios
geometricos euclidianos-recta, plano, espacio tridimensional- seran notados
139


Castaneda
/ Barrios

140

E1 , E2 y E3 , respectivamente. Cada elemento del espacio euclidiano ndimensional, En , es denominado un punto del mismo. Nuestro interes inicial esta en
describir cada punto de dicho espacio mediante un elemento del correspondiente
espacio Rn ; es decir un vector o una nada de n
umeros reales, de modo que
se establezca una correspondencia biunvoca (funcion biyectiva) entre En y
Rn . Tal correspondencia se lograra mediante la introduccion de un sistema
de coordenadas, como se explica seguidamente. Cada punto del espacio
euclidiano quedara determinado por una nada, cuyas componentes seran
denominadas las coordenadas del punto en el sistema coordenado escogido.
Desde un punto de vista geometrico, se trata de asignar a cada punto de En
una nada de n
umeros reales, tal que cada componente de dicha nada es una
distancia dirigida del punto considerado a lo que denominaremos un conjunto
u objeto referencial. Se tomaran n de tales objetos referenciales, denotados
O1 , . . . , On En . Cada objeto referencial divide al espacio euclidiano en
dos partes disyuntas, a cada una de las cuales se les asignara, en principio
arbitrariamente, una direccion distintiva (positiva o negativa). La coordenada
de un punto cualquiera P En , con relacion a Oi , i {1, . . . , n}, sera entonces
la distancia (un n
umero real no negativo), di , de P a Oi , precedida de + o
, dependiendo de sobre cual de las dos partes determinadas por Oi en En se
encuentra P . Si P esta en Oi , entonces di = 0. Precisamos lo anterior en los
casos particulares n = 1, 2, 3.
1. En la recta euclidiana, E1 :

Figura 3.1: Sistema coordenado en E1

El conjunto referencial es un conjunto unitario {O}, siendo O, un punto


arbitrario de la recta, al cual denominaremos el origen del sistema
coordenado. Tal punto divide a la recta en dos semirectas (ver figura
3.1) y a cada una de ellas asignamos una u
nica direccion: positiva o
negativa. La coordenada, x, de un punto P E1 , es la distancia dirigida
de P a O. As, tal coordenada sera positiva si P 6= O y se encuentra
CAPITULO 3. VECTORES EN R2 Y R3 .


al Algebra
Introduccion
lineal

141

sobre la semirecta a la cual se asigno tal direccion; sera negativa si P 6= O


esta sobre la otra semirecta; y sera cero si P = O.
2. En el plano euclidiano, E2 : Los objetos referenciales son dos rectas
no paralelas. Cada una de esas rectas divide al plano en dos semiplanos
(excluimos a la recta de dichos semiplanos, de forma que los conjuntos
resultantes sean disyuntos) a cada uno de los cuales asignamos una
direccion (positiva o negativa). La distancia de un punto del plano a
una recta referencial se medira paralelamente a la otra recta referencial
(ver figura 3.2)1 . Nuevamente, la coordenada del punto con relacion a la
recta referencial sera una distancia dirigida (con signo), siendo 0 si el
punto se encuentra sobre la recta de referencia. Cada recta de referencia
es denominada un eje coordenado o de coordenadas. El punto com
un
entre los ejes es el origen del sistema.

Figura 3.2: Sistema coordenado en E2

3. En el espacio euclidiano tridimensional, E3 : Los objetos de referencia


son tres planos (coordenados), distintos, cuya interseccion es un u
nico
punto (origen del sistema). La recta interseccion de dos planos coordenados es denominada un eje coordenado. Cada plano coordenado divide a
E3 , en dos partes disyuntas (no incluido el plano) y, como en los casos
anteriores, a cada una de tales partes se le asigna una direccion (ver
figura 3.3). Dado que cada plano esta determinado por dos de los ejes
1

Tambien podra tomarse la distancia mas corta, la perpendicular.

3.1. INTRODUCCION


Castaneda
/ Barrios

142

Figura 3.3: Plano coordenado en E3

coordenados, la distancia de un punto del espacio tridimensional a dicho


plano coordenado se medira paralelamente al otro eje coordenado. (vease
figura 3.4).

Figura 3.4: Coordenada con respecto a un plano coordenado en E3

Escogido un sistema de coordenadas, cada punto del espacio euclidiano En


estara determinado por una nada u
nica, la cual tendra como componentes
las coordenadas del punto con relacion a cada objeto referencial, ordenadas
seg
un alg
un criterio fijado previamente. Si los objetos referenciales, para
los casos n = 2, 3, son perpendiculares dos a dos, el sistema se denomina
rectangular. Los n objetos referenciales dividen al espacio euclidiano en 2n
partes o regiones (no incluimos los objetos referenciales en dichas regiones)
disyuntas. En el caso n = 2, hay cuatro regiones, cada una de las cuales es
CAPITULO 3. VECTORES EN R2 Y R3 .


al Algebra
Introduccion
lineal

143

denominada un cuadrante. Para E3 , por su parte se tienen ocho regiones,


a las que denominaremos octantes. Describimos a continuacion los sistemas
rectangulares que utilizaremos en el caso bi y tridimensional.
En el sistema rectangular bidimensional, los ejes coordenados seran notados
usualmente con las letras X e Y . Las direcciones determinadas por un eje
coordenado en el plano se pueden asociar con las semirectas (semiejes) en que
el origen del sistema divide al otro eje. As,por ejemplo, el semieje del eje X
contenido en la region a la que con relacion al eje Y le fue asignada la direccion
positiva, sera denominado el semieje positivo de las x. Un punto P E2 ,
correspondera al par ordenado (x, y), donde las componentes, en su orden, son
las coordenadas de P con relacion a los ejes Y y X, respectivamente. En el
primer cuadrante estaran los puntos con coordenadas positivas y los demas se
enumeran a partir de este en sentido antihorario (ver figura 3.5.)

Figura 3.5: Sistema rectangular bidimensional.

En el sistema rectangular tridimensional, denotaremos los tres ejes coordenados por X, Y y Z. Cada plano coordenado esta determinado por dos de tales
ejes, por lo que lo denotaremos con las letras correspondientes a tales ejes:
plano XY , plano Y Z y plano XZ. Las coordenadas de un punto P E3 se
escribiran ordenadamente para formar la terna ordenada (x, y, z), donde:
x : Coordenada con relacion al plano YZ
y : Coordenada con relacion al plano XZ
z : Coordenada con relacion al plano XY

3.1. INTRODUCCION


Castaneda
/ Barrios

144

Cada plano coordenado define, como hemos visto, dos direcciones en el espacio.
El plano Y Z, por ejemplo, define lo que podramos denominar las direcciones
adelante-atras (de dicho plano). As, para referirnos a un punto cuya coordenada, x, con relacion a tal plano es positiva, diremos que esta situado x
unidades por delante del plano Y Z. Si la coordenada es negativa diremos que
el punto esta detras del plano de referencia. Si x = 0, entonces el punto esta
justo sobre el plano. De manera similar, los planos XZ y XY los utilizamos
para definir las direcciones derecha-izquierda y arriba-abajo (con relacion
a tales planos), respectivamente. Utilizaremos un sistema de mano derecha
2
.

Figura 3.6: Octantes.

Los octantes en que los planos coordenados dividen el espacio tridimensional


E3 , se enumeraran de forma tal que en los cuatro primeros la primera coordenada, x, es positiva; siendo el primero aquel en el que las tres coordenadas son
positivas y los tres restantes se enumeran en sentido antihorario. En otras
palabras, siguiendo la convencion de direcciones indicada antes, los puntos
de los primeros cuatro octantes estan todos por delante del plano Y Z. En
2
En un tal sistema, si se colocan los dedos de la mano derecha de forma tal que el dice
apunta en la direcci
on positiva de las x y el dedo medio en la direccion positiva de las y,
entonces el pulgar apunta en la direccion positiva de las Z

CAPITULO 3. VECTORES EN R2 Y R3 .


al Algebra
Introduccion
lineal

145

el octante quinto, las dos u


ltimas coordenadas son positivas y los restantes
octantes se enumeran a partir de dicho quinto octante siguiendo el sentido
antihorario (ver figura 3.6).
De ese modo, la introduccion de un sistema de coordenadas en el espacio
geometrico eucldeo En , n = 1, 2, 3, permite identificar cada punto P con una
n ada de n
umeros reales, esto es un elemento de Rn . Esta es una primera
interpretacion geometrica del espacio vectorial Rn : cada vector se identifica
con un punto del espacio eucldeo. Escribiremos P (x1 , . . . , xn ) para referirnos
al punto del espacio En correspondiente a la nada (x1 , . . . , xn ), formada por
las coordenadas de P con relacion a los objetos referenciales. Notese que
esto permite transportar la estructura de espacio vectorial al espacio En , de
modo que -a traves de coordenadas- podemos sumar y multiplicar por escalares
puntos del espacio euclidiano. Otra interpretacion, mas intimamente ligada al
concepto fsico o geometrico de vector, se dara en la proxima seccion, en la que
una nada de reales se utiliza para representar desplazamientos en el espacio
euclidiano.
Ejemplo 3.1.1. Un punto del octante III. Consideremos, por ejemplo,
el punto P (3, 2, 5) E3 . De acuerdo a nuestra convencion, P esta situado 3
unidades hacia adelante (del plano Y Z), 2 a la izquierda (del plano XZ) y 5
hacia arriba (del plano XY ), como lo muestra la figura 3.7.

Figura 3.7: Un punto del octante III.

3.1. INTRODUCCION


Castaneda
/ Barrios

146

La correspondencia biunvoca entre En y Rn , permite entonces describir


algebraicamente subconjuntos de En y, recprocamente, describir geometricamente (mediante una grafica) subconjuntos de Rn . Mostremos algunos
ejemplos. En todos los casos suponemos que ya se ha introducido un sistema
rectangular de coordenadas en el espacio eucldeo correspondiente. Suponemos
tambien alguna familiaridad con el caso n = 2 (Geometra analtica en el
plano).
Ejemplo 3.1.2.
1. El subconjunto de R2
S = {(x, y)|x = 3}
corresponde en el plano eucldeo al conjunto de puntos situados a 3
unidades a la derecha del eje Y 3 . Esta es una recta paralela al eje Y
como se muestra en la figura 3.8.

Figura 3.8: Una recta en el plano.

2. La ecuacion de una recta en el plano es una ecuacion lineal


ax + by = c,
con a y b reales que no son simultaneamente cero. En el ejemplo anterior,
la recta esta descrita por la ecuacion x = 3 o x + 0y = 3. Si se considera
la ecuacion x = 3 en el espacio tridimensional E3 , su grafica no sera una
3
Convencionalmente, el eje Y define las direcciones derecha-izquierda (con relacion al
eje) y el eje X las direcciones arriba-abajo (del eje X).

CAPITULO 3. VECTORES EN R2 Y R3 .


al Algebra
Introduccion
lineal

147

recta sino el conjunto de puntos en un plano situado a 3 unidades por


delante del plano Y Z.

Figura 3.9: Plano de ecuacion x = 3.

3. Si consideramos la ecuacion y = x2 , su grafica como ecuacion en dos


variables (en R2 ), es una parabola con vertice en el origen y cuyo eje de
simetra es el eje Y (figura 3.10). En E3 , o sea vista como ecuacion en
tres variables (en R3 )
y = x2 + 0z,
la grafica es un cilindro parabolico recto (figura 3.11).

Figura 3.10: y = x2 en E2 .

3.1. INTRODUCCION


Castaneda
/ Barrios

148

Figura 3.11: Cilindro parabolico recto de ecuacion y = x2 .

Ejercicios 3.1.1.
1. En cada caso describa geometricamente, es decir como subconjunto de
En (haga una grafica) el subconjunto S Rn dado. Suponga que se
ha establecido un sistema rectangular de coordenadas sobre el espacio
eucldeo correspondiente.
(a) S = {(x, y)|x = 0} R2 .
(b) S = {(x, y)|x > 1} R2 .
(c) S = {(x, y)|x > 1, 3 < y y} R2 .
(d) S = {(x, y)||x| > 1} R2 .
(e) S = {(x, y)||x + y| = 1} R2 .
(f) S = {(x, y)|x + y 1} R2 .
(g) S = {(x, y)|2 x + y < 3} R2 .
(h) S = {(x, y)|x + y 2 2x + 3y 5} R2 .
(i) S = {(x, y, z)|x = 0} R3 .
(j) S = {(x, y, 0)|x + y = 0} R3 .
(k) S = {(x, 0, z)|x = z} R3 .
(l) S = {(x, y, z)|z = y 2 } R3 .
(m) S = {(x, y, z)|x = 0, y 2 + z 2 = 1} R3 .
CAPITULO 3. VECTORES EN R2 Y R3 .


al Algebra
Introduccion
lineal

149

(n) S = {(x, y, z)|k(x, y, z)k 1} R3 .


(o) S = {(x, y, z)|1 k(x, y, z)k 4} R3 .
2. En cada caso describa algebraicamente, como subconjunto de R2 , al
conjunto S E2 . Para ello introduzca un sistema de coordenadas
adecuado o conveniente.
(a) Una circunferencia de radio cinco.
(b) Un crculo de radio cinco.
(c) Una semicircunferencia de radio cinco.
(d) Un segmento de recta de cinco unidades de longitud.
(e) Los lados de un triangulo rectangulo con catetos de longitudes 6 y
8 unidades.
(f) Los puntos de la region triangular acotada por los lados del triangulo
del ejercicio anterior.
3. Suponga que en el plano se ha escogido un sistema rectangular de coordenadas. Dada una base {v1 , v2 } de R2 , considere el sistema de coordenadas
cuyos ejes son las rectas paralelas a los vectores de la base. Para los
puntos P (1, 2), Q(3, 5), R(4, 0), S(1, 4), donde las coordenadas se dan
en el sistema rectangular inicial, encuentre las coordenadas con relacion
al nuevo sistema si v1 y v2 se dan como se indican.
(a) v1 = (1, 2), v2 = (5, 1).
(b) v1 = (3, 5), v2 = (0, 4).
(c) v1 = (4, 0), v2 = (3, 4).

3.2

Segmentos dirigidos en En.

En la seccion anterior, cada nada en Rn , para n = 1, 2, 3, se identifico


con un punto del espacio euclidiano En . En esta seccion interpretaremos
geometricamente una nada como un desplazamiento en el espacio eucldeo
correspondiente. Como tal, la norma de un vector se interpretara como la
magnitud del desplazamiento y el vector unitario direccional se asociara con
angulos directores o con la direccion del desplazamiento. En primer lugar
representamos, aunque no de manera u
nica, a un vector en Rn como un
3.2. SEGMENTOS DIRIGIDOS EN EN .


Castaneda
/ Barrios

150

segmento dirigido en el espacio euclidiano En . Suponemos que ya se ha introducido un sistema coordenado en el espacio euclidiano correspondiente e identificaremos, abusando de la escritura, un punto del espacio euclidiano con la
nada, un elemento del espacio vectorial Rn , cuyas componentes son sus
coordenadas con relacion al sistema coordenado introducido.
Definici
on 3.2.1. Sean P, Q En , entonces el par ordenado (P, Q) se denomina
un segmento dirigido en En .

Figura 3.12: Angulos


directores.

Intuitivamente hablando, el segmento (P, Q) es el segmento con puntos


extremos en P y Q, recorrido de P (punto inicial) a Q (punto final). El
caracter de ordenado implica que (P, Q) 6= (Q, P ) si P 6= Q. Si P = Q
el segmento dirigido (P, Q) = (P, P ) es denominado segmento dirigido
nulo. Un segmento dirigido (P, Q) puede entonces ser interpretado como un
desplazamiento en el espacio euclidiano En , siendo P el origen o punto inicial
de tal desplazamiento y Q el destino o punto final del mismo. Como es usual
en Fsica, todo segmento dirigido tendra una magnitud, definida como la
distancia entre los puntos inicial y final. Para un segmento dirigido no nulo,
podemos tambien definir una direccion en terminos de angulos, con vertice en
el punto inicial del segmento dirigido, formados con las direcciones positivas de
los ejes de coordenadas. Tales angulos seran denominados
angulos directores
CAPITULO 3. VECTORES EN R2 Y R3 .


al Algebra
Introduccion
lineal

151

del segmento dirigido. Nos limitaremos al caso n = 3, dejando al lector los


detalles en los casos bidimensional y unidimensional.
La figura 3.12 muestra los angulos directores para el segmento dirigido
no nulo (P, Q). Las semirectas, con origen en el punto P , denotadas por
x0 , y 0 y z 0 son paralelas a los semiejes coordenados positivos y los angulos
, , , formados por el segmento dirigido con tales semirectas, son los angulos
directores del segmento. En cada caso, el angulo es el menor angulo no
negativo formado entre el segmento dirigido y el semieje coordenado positivo
correspondiente. Geometricamente, es claro que tales angulos determinan la
direcci
on del desplazamiento desde P hasta Q. Es tambien evidente que cada
angulo director esta en el intervalo [0, ].

Figura 3.13: Angulos


directores.

En la practica, solo se necesitan dos de tales angulos para definir la direccion.


Otra forma de definir la direccion de un desplazamiento es por medio de los
angulos y , como se muestra en la figura 3.13. Para definir tales angulos,
consideramos inicialmente un plano paralelo al plano XY y que contiene al
punto P (sea X 0 Y 0 tal plano). Si Q0 es el pie de la perpendicular trazada
desde P hasta dicho plano, entonces es el angulo formado por el segmento
(P, Q0 ) con el semieje X 0 . Por su parte es el angulo formado por (P, Q0 ) con
3.2. SEGMENTOS DIRIGIDOS EN EN .


Castaneda
/ Barrios

152

el segmento (P, Q).4 Aqu, [0, 2], [ 2 , 2 ].


Dos segmentos dirigidos se denominaran equivalentes si, y solo si son
ambos nulos o, en caso de no serlo, tienen la misma magnitud y direccion.
El siguiente teorema caracteriza algebraicamente segmentos equivalentes. La
demostracion se sigue, en lo fundamental, de los teoremas de congruencia de
triangulos y del teorema de pitagoras que proporciona una formula para la
distancia entre puntos del espacio euclidiano E3 . La formula para la distancia
entre puntos P (x1 , y1 , z1 ) y Q(x2 , y2 , z2 ) es:
p
d(P, Q) = (x2 x1 )2 + (y2 y1 )2 + (z2 z1 )2 = kQ P k
(3.1)
la cual nos da as la magnitud del segmento dirigido (P, Q). Los detalles de la
demostracion de la formula anterior y del teorema siguiente se dejan al lector.
Escribiremos (P, Q) (R, S) para indicar que el segmento (P, Q)y el segmento
(R, S) son equivalentes.
Teorema 3.2.1. Sean P, Q, R, S En , entonces (P, Q) (R, S) si, y solo si
QP =SR

(3.2)

As, para segmentos dirigidos no nulos equivalentes existen dos invariantes


geometricos: La magnitud y la direccion, dada esta u
ltima por los angulos
directores. Desde el punto de vista algebraico, el teorema anterior muestra que
un invariante algebraico en la familia de segmentos dirigidos equivalentes a un
segmento dirigido dado es la diferencia entre las coordenadas del punto final
y el punto inicial. As, toda la familia de tales segmentos queda descrita por
una n ada o vector de Rn . As, todo vector v Rn se interpreta como
un desplazamiento en En el cual puede ser representado por un segmento
dirigido (P, Q) tal que Q P = v. Cada uno de tales segmentos dirigidos
es un representante de v. Si P es el origen del sistema de coordenadas,
entonces el segmento dirigido (P, Q) es denominado el representante regular
o can
onico del vector v. La familia de todos los segmentos dirigidos equivalentes a un segmento dirigido dado (P, Q) es denominada la clase de equivalen
cia del segmento (P, Q) y sera notada P Q, identificaremos tal clase con la
nada Q P , por lo que usualmente escribiremos

P Q = Q P.
4

Si Q0 = P , tomamos = 0 y =

o= .
2
2

CAPITULO 3. VECTORES EN R2 Y R3 .


al Algebra
Introduccion
lineal

153

As tenemos entonces que para puntos P, Q, R, S En :



P Q = RS Q P = S R.
Ejemplo 3.2.1. Consideremos, por ejemplo, el vector v = (1, 3). Tal vector
puede ser representado por un segmento dirigido (P, Q) tal que
Q P = (1, 3)
As, por ejemplo, si P (3, 4) , entonces
Q = (1, 3) + P = (1, 3) + (3, 4) = (2, 1).

Figura 3.14: Representantes de v = (1, 3).

De esa manera, el vector v puede representarse mediante el segmento


dirigido con punto inicial P (3, 4) y punto final Q(2, 1). Estamos as
en presencia de un desplazamiento en el plano, partiendo del punto P y
terminando en Q. Si se cambia, ya sea el punto inicial o el punto final
del desplazamiento obtenemos otra representacion del mismo vector con un
segmento dirigido equivalente a (P, Q). As, por ejemplo, el representante
(R, S) con punto final S(4, 0) tiene como punto inicial al punto R, donde
S R = (1, 3) = R = S (1, 3) = (3, 3).
3.2. SEGMENTOS DIRIGIDOS EN EN .


Castaneda
/ Barrios

154

El representante canonico de v = (1, 3) es el segmento (O, C), donde O(0, 0)


es el origen del sistema de coordenadas y como
Q P = (1, 3) = T O = T,
se tiene que T (1, 3). La figura 3.14 muestra varios representantes del vector v,
incluyendo el representante canonico (O, C).
Las relaciones entre la norma y el vector unitario direccional de un vector
no nulo v Rn con la magnitud y direccion de cualquiera de sus representantes
se obtienen facilmente tomando el representante canonico. Como ilustracion
vease la figura 3.15, en la cual se muestra el representante canonico de un
vector v = (x, y, z) con componentes no nulas. El lector puede verificar que
las ecuaciones dadas en el teorema siguiente son validas en general, a
un en los
casos en que una o dos de las componentes sean nulas.

Figura 3.15: Angulos


directores en E3 .
Teorema 3.2.2. Sea v = (x, y, z) R3 , , v 6= (0, 0, 0). Si , , son los
angulos directores del representante canonico de v (y de cualquier representante)
CAPITULO 3. VECTORES EN R2 Y R3 .


al Algebra
Introduccion
lineal

155

y OP = d(O, P ) es la magnitud de cualquiera de sus representantes, entonces:


OP = kvk
p
=
x2 + y 2 + z 2
x = kvkcos()
y = kvkcos()
z = kvkcos()
1 = cos2 () + cos2 () + cos2 ()

(3.3)
(3.4)
(3.5)
(3.6)
(3.7)

De las ecuaciones anteriores se obtiene entonces que


v = kvk(cos(), cos(), cos())
y que el vector
(cos(), cos(), cos())
es, como se esperaba, un vector unitario. Se tiene as que
1
v = ((cos(), cos(), cos()) = Uv .
kvk
lo que coincide con el vector unitario direccional de v definido en el captulo
uno. Esto justifica la definicion de tal vector como la direccion del vector v.

Figura 3.16: Angulos


directores en E2 .

3.2. SEGMENTOS DIRIGIDOS EN EN .


Castaneda
/ Barrios

156

Para el caso n = 2, con las correspondientes adaptaciones, el teorema


anterior sigue siendo valido (ver figura 3.16). En tal caso, v = (x, y) 6= (0, 0)
y tenemos dos angulos directores y . Se cumple que
cos() = Sen().

(3.8)

por lo que podemos escribir


OP = kvk
p
x2 + y 2
=
x = kvkcos()
y = kvkcos()
= kvksen()
1 = cos2 () + cos2 ()
= cos2 () + sen2 ()

(3.9)
(3.10)
(3.11)
(3.12)

El vector unitario direccional de v es ahora


Uv =

1
v = (cos(), cos()) = (cos(), sen()).
kvk

Es valido tambien, para x 6= 0, que


tan() =

y
x

(3.13)

Si x = 0, se tiene
=
=

0,

si y > 0;
si y < 0.

Es importante notar que debido a la forma como se definieron los angulos


directores, un angulo director es un angulo en el intervalo [0, ]. As, por
ejemplo, para el vector v = (1, 1), los angulos directores de cualquier
representante son = = 3
, como se muestra en la figura 3.17. Notese
4
que cos() = 12 y cos() = 12 = sen().
CAPITULO 3. VECTORES EN R2 Y R3 .


al Algebra
Introduccion
lineal

157

Figura 3.17: Angulos


directores de v = (1, 1).

En terminos algebraicos, la direccion de un vector no nulo, como se definio


en el primer captulo, esta dada por el vector unitario direccional. Podemos
as definir entonces la direccion de un segmento dirigido no nulo, (P, Q) como

la direccion del vector v = P Q = Q P Rn ; esto es, como el vector unitario


Uv . De igual manera, en el primer captulo se introdujo, desde un punto de
vista algebraico, el concepto de paralelismo de vectores. As, para vectores no
nulos v, w Rn , v y w son paralelos si, y solo si Uw = Uv . Escribiremos v k w,
para indicar que v es paralelo a w. En ese sentido, dos segmentos dirigidos no

nulos (P Q) y (R, S) se denominaran paralelos si y solo si P Q y RS lo son.
Tenemos entonces el siguiente teorema, cuya interpretacion geometrica es muy
clara.
Teorema 3.2.3. Sean v, w Rn {0Rn }. Entonces son equivalentes:
1. v k w.
2. Existe un escalar 6= 0K tal que w = v.
3. El angulo entre v y w es 0 o .
3.2. SEGMENTOS DIRIGIDOS EN EN .


Castaneda
/ Barrios

158

Demostracion.
1. Supongamos v k w. Se tiene que
w = kwkUw
= kwkUv
kwk
(kvkUv )
=
kvk


kwk
=

v
kvk
2. Si w = v, con no nulo, y es el angulo entre v y w, entonces:

cos() =
=
=
=
=
Es decir


=

vw
kvkkwk
v (v)
kvkkvk
 


vv
||
kvkkvk

||

1,
si > 0;
1, si < 0.
0,
,

si > 0;
si < 0.

3. Para vectores no nulos v, w se tiene que


vw
.
Uv Uw =
kvkkwk
Por lo que si el angulo entre los vectores v y w es 0 o , entonces |v w| =
kvkkwk, de donde se sigue que Uv Uv = 1.
Ahora, si Uv Uw = 1, entonces
kUv Uw k2 = (Uv Uw ) (Uv Uw )
= 1 2(Uv Uw ) + 1
= 0,
CAPITULO 3. VECTORES EN R2 Y R3 .


al Algebra
Introduccion
lineal

159

de donde Uv = Uw . Si Uv Uv = 1, se tiene de manera similar que


kUv + Uw k2 = 0 y, por lo tanto Uv = Uw . Se obtiene as que v k w.

Aunque el teorema anterior vale en Rn , para todo natural n, nuestro interes


se centra en los casos n = 2 y n = 3, para los cuales tenemos una clara
interpretacion geometrica. As, por ejemplo, el multiplicar un vector no nulo, v,
por un escalar, , diferente de cero y de 1 produce en cualquier representante
(como segmento dirigido en el plano o en el espacio) de v una bf contraccion
(acortamiento) o dilataci
on (alargamiento). El factor de contraccion o alargamiento es
kvk
.
|| =
kvk
Es decir, la magnitud de v sera mayor que la de v si || > 1 y sera menor
cuando || < 1. Por su parte la direccion de v es la misma de v si > 0; sera
la opuesta si < 0. De la definicion de los angulos directores de un vector
no nulo v se sigue tambien (ejercicio) que el angulo director con relacion al eje
Oi , i = 1, . . . , n es el angulo formado entre el vector v y el vector unitario ei .
As, por ejemplo, en el caso n = 3, el primer angulo director, , es el angulo
formado entre v y el vector e1 = (1, 0, 0).
El conjunto {e1 , . . . , en }, como ya se afirmo en el primer captulo forman una
base ortonormal para Rn . En particular, escribiremos ~i = (1, 0), ~j = (0, 1),
para los elementos de la base (ortonormal) estandar de R2 ; de modo que para
todo vector v = (x, y) se tiene
v = (x, y) = x~i + y~j.
De igual manera, para n = 3, escribiremos ~i = (1, 0, 0), ~j = (0, 1, 0), ~k =
(0, 0, 1), de forma que toda terna (x, y, z) R3 se escribe como
(x, y, z) = x~i + y~j + z~k.

Adici
on y multiplicaci
on por escalares con segmentos dirigidos
Dado que cada vector en Rn , n = 2, 3, se ha interpretado como un desplazamiento en el espacio geometrico En y que un desplazamiento puede ser representado por un elemento de una familia de segmentos dirigidos equivalentes,
3.2. SEGMENTOS DIRIGIDOS EN EN .


Castaneda
/ Barrios

160

se tiene que segmentos dirigidos equivalentes pueden entonces sumarse o


multiplicarse por escalares, operaciones que son transportadas, o inducidas, desde Rn . Especficamente, si (P, Q) y (P, S) son segmentos dirigidos
anclados, o con punto inicial, en P , entonces (P, Q) y (P, S) son representantes de los vectores Q P = v y S P = w en Rn . La suma v + w es entonces
un vector con una representacion (P, T ) en En , para alg
un punto T tal que
T P = v + w. Si consideramos los segmentos dirigidos (Q, T ) y (P, S),
tenemos entonces que
T Q =
=
=
=
=

T P +P Q
T P (Q P )
v+wv
w
S P,

de donde se sigue que (Q, T ) (P, S). De modo similar se obtiene que (P, Q)
(S, T ). Cual es el significado geometrico de este resultado?

Figura 3.18: Regla del paralelogramo de vectores.

La figura 3.18 muestra que si P, Q, S son puntos no colineales, entonces los


puntos P, Q, S y T son vertices de un paralelogramo, cuya diagonal, tomada
CAPITULO 3. VECTORES EN R2 Y R3 .


al Algebra
Introduccion
lineal

161

en la direccion de P a T , es justamente un segmento dirigido representante


del vector v + w. Es decir, la conocida regla del paralelogramo para la
suma de vectores en Fsica, es valida en nuestro modelo matematico. De igual
forma, la figura muestra que la resultante de la suma de (P, Q) y (P, S) es el
segmento dirigido (P, T ) que se obtiene anclando el vector w en Q (obteniendo
as un representante (Q, T )) y tomando el segmento de P al punto T . Esta es
usualmente conocida como la regla del tri
angulo para la suma de vectores.
El lector puede verificar que tales reglas geometricas son validas en cualquier
caso.

Figura 3.19: Vectores paralelos.

Podemos ahora interpretar el angulo entre dos vectores no nulos, v y w, en


R o en R3 , como el menor angulo formado entre representantes de v y w,
anclados en un mismo punto del plano o del espacio, seg
un el caso. Si v y w
son paralelos, entonces claramente tal angulo es 0 o , como ya se demostro
en general para todo n y como se puede verificar en los casos particulares del
plano y del espacio euclidianos. En estos casos, si consideramos representantes
2

3.2. SEGMENTOS DIRIGIDOS EN EN .


Castaneda
/ Barrios

162

de v y w anclados en un punto cualquiera P , los puntos finales, Q y S de las


representaciones de v y w seran colineales con P (ver figura 3.19).
Si v y w no son paralelos, entonces si es el angulo entre ellos se verifica
por el teorema del coseno (ver figura 3.20):
kv wk2
(v w) (v w)
2
kvk 2v w + kwk2
vw

=
=
=
=

kvk2 + kwk2 2kvkkwkcos()


kvk2 + kwk2 2kvkkwkcos()
kvk2 + kwk2 2kvkkwkcos()
kvkkwkcos()

Figura 3.20: Angulo


entre vectores no paralelos.

El u
ltimo resultado, demostrado en base a la interpretacion del angulo entre
v y w, coincide con lo que se definio en el captulo 1.

Ejercicios 3.2.1.
1. En cada caso determine los angulos directores del vector v dado.
(a) v = (2, 2).

(b) v = 1, 3 .
(c) v = (1, 0, 1).
(d) v = (0, 1, 1).
CAPITULO 3. VECTORES EN R2 Y R3 .


al Algebra
Introduccion
lineal

163

(e) v = 3~i + 2~j 5~k.


2. Considere los puntos P (1, 2, 3), Q(1, 1, 5), R(2, 3, 8).

(a) Dibuje los representantes regulares de P Q, P R y QR.
(b) Para los vectores del ejercicio anterior determine sus angulos directores.
(c) Si v = (1, 4, 3), halle el punto final de una representacion de v
anclada en P (en Q, en R).
(d) Muestre que los puntos P , Q, y R son los vertices de un triangulo
y determine sus angulos interiores, su permetro y su area.
(e) Determine un punto S tal que los puntos dados y S sean vertices
de un paralelogramo.
(f) Construya (halle las coordenadas de los vertices) un triangulo rectangulo
isosceles tal que P y Q sean dos de sus vertices y P Q sea un cateto.
(g) Construya un rectangulo tal que P R sea uno de sus lados y que el
otro lado tenga longitud 5 unidades.
3. Demuestre que las diagonales de un cuadrado son perpendiculares.
4. Sea v un vector de norma 4 y cuya direccion esta definida por los angulos
(ver pagina 151) = 4 , = 6 . Dibuje una representacion de dicho
vector.
5. Sea v = (x, y, z) 6= (0, 0, 0). Exprese las componentes de v en terminos
de su norma y del par de angulos directores y

3.3

Aplicaciones geom
etricas

Los siguientes ejemplos muestran algunas aplicaciones de los resultados previos


a la Geometra.

3.3.1

Colinealidad y ecuaciones vectoriales de rectas.

Como es conocido seguramente, un conjunto de puntos en el plano o en el


espacio, se dice que es un conjunto de puntos colineales si existe una recta
que contiene al conjunto. Por supuesto, dos puntos distintos son colineales
pues existe una u
nica recta que los contiene. Consideremos el caso de tres
puntos distintos, P, Q, R en el espacio euclidiano En , n = 2, 3. Si se toman los

3.3. APLICACIONES GEOMETRICAS


Castaneda
/ Barrios

164

segmentos dirigidos (P, Q) y (P, R)5 entonces P, Q y R seran colineales si, y



solo si P Q y P R son paralelos; es decir :

P, Q y R son colineales , existe 6= 0, tal que P Q = P R.


La figura 3.21 ilustra lo dicho. Si P, Q y R estan sobre una misma recta,

entonces el angulo entre los vectores P Q y P R va a ser o cero, cuando Q
y R estan sobre la misma semirecta-de las dos determinadas por P -, o si
los puntos considerados estan en semirectas distintas. Esto significa que los

vectores P Q y P R son paralelos y, por lo tanto, m
ultiplos escalares no nulos
el uno del otro. Por otra parte, el punto T no esta sobre la misma recta, por

lo que el angulo entre los vectores P Q y P T es un angulo distinto de 0 o .

Figura 3.21: Colinealidad.

Toda recta, en el plano o en el espacio geometricos, esta determinada de


manera u
nica por dos puntos distintos, digamos P y Q. Para cualquier otro
punto R de la recta determinada por tales puntos debe satisfacerse, por lo
dicho antes que debe existir un escalar t R, tal que

P R = tP Q.
Se tiene entonces que

R = P + tP Q.

(3.14)

5
O cualquier par de segmentos con punto inicial en uno de los puntos y puntos finales en
los otros dos.

CAPITULO 3. VECTORES EN R2 Y R3 .


al Algebra
Introduccion
lineal

165

As, dados los puntos P , Q, distintos, entonces todo punto R de la recta


determinada por tales puntos dados debe satisfacer la ecuacion 3.14. Tal
ecuacion es una ecuaci
on vectorial para la recta que pasa por los puntos
P y Q. Los puntos dados, P y Q, tambien satisfacen dicha ecuacion (para

t = 0 y t = 1, respectivamente). El vector P Q es denominado un vector


paralelo a la recta.

Figura 3.22: Ecuacion vectorial de una recta.

Especficamente, un vector no nulo v se dice paralelo a una recta si, y solo


si, todo representante de v anclado en un punto de la recta tiene su punto final
sobre dicha recta. En particular, obtenemos un vector paralelo a una recta
tomando dos puntos distintos de la misma y considerando el vector del cual
el segmento dirigido de uno al otro punto es un representante. Por supuesto,
todo m
ultiplo no nulo de un vector paralelo a una recta es tambien paralelo
a la recta. De igual manera, todo vector paralelo a una recta es paralelo a
cualquier otro vector que sea paralelo a la misma. Es decir, el conjunto de los
vectores paralelos a una recta dada es el conjunto de los vectores no nulos del
subespacio generado por un vector, cualquiera, paralelo a la recta.
El razonamiento anterior muestra que una recta queda, desde el punto de
vista vectorial, determinada completamente por un punto y un vector paralelo
a ella. As, si L es una recta que pasa por el punto P y tiene como un vector
paralelo al vector no nulo v, entonces la recta es el conjunto de puntos R en el

3.3. APLICACIONES GEOMETRICAS


Castaneda
/ Barrios

166

espacio euclidiano que satisfacen la ecuacion (ver figura 3.22)


R = P + tv, t R.

(3.15)

En el caso particular de E2 , el plano euclidiano, el vector v en 3.15 reemplaza


a la pendiente de la recta. De hecho, la informacion dada por la pendiente
puede darse, utilizando un vector no nulo de R2 , tal que, si la recta no es
paralela al eje X, el cociente entre la segunda componente y la primera es
justamente la pendiente. Si la recta es paralela al eje indicado, entonces todo
vector (0, 1), con 6= 0 sera paralelo a la misma. En efecto, para puntos
P (x1 , y1 ) y Q(x2 , y2 ) sobre una recta L, en el plano, no paralela al eje X, la
pendiente viene dada por
y
y2 y1
=
.
x2 x1
x
Esto expresa el hecho que la recta esta formada, intuitivamente hablando, por
todos los puntos obtenidos partiendo de P y moviendose de forma que por
cada x unidades en el sentido del eje X (hacia la derecha o hacia la izquierda
seg
un el signo de x) debera moverse y unidades hacia arriba o hacia abajo.
Esto equivale a decir que hay que moverse siguiendo la direccion del vector

v = (x, y) = P Q o siguiendo la direccion opuesta del mismo. Por supuesto


cualquier vector v, con 6= 0 nos sirve para el mismo fin.
m=

Si consideramos, por ejemplo, la recta de ecuacion 2x + 3y = 6 en el plano.


2
. Un vector paralelo a la recta es,
Entonces tal recta tiene pendiente m =
3
por lo tanto, v = (3, 2) o cualquier m
ultiplo no nulo del mismo. Un punto
de la recta es (haciendo y = 0) P (3, 0), por lo que una ecuacion vectorial para
la recta considerada es:
(x, y) = (3, 0) + t(3, 2) = (3 + 3t, 2t).
Podemos extender lo anterior para definir rectas en el espacio Rn . As, si v
es un vector no nulo en R y P es un elemento cualquiera del mismo espacio,
entoces la recta que pasa por P y es paralela a v es el conjunto de puntos
X Rn definido por
{X Rn |X = P + tv, t R}

(3.16)

Si X = (x1 , x2 , . . . , xn ), v = (v1 , v2 , . . . , vn ) y P (p1 , p2 , . . . , pn ), de 3.16 obtenemos:


(x1 , x2 , . . . , xn ) = = (p1 , p2 , . . . , pn ) + t(v1 , v2 , . . . , vn )
= (p1 + tv1 , p2 + tv2 , . . . , pn + tvn ).
CAPITULO 3. VECTORES EN R2 Y R3 .


al Algebra
Introduccion
lineal

167

de donde se obtienen las n ecuaciones,


cas de la recta:

x1 =

x2 =
..

x =
n

denominadas ecuaciones param


etrip1 + tv1
p2 + tv2
..
.

(3.17)

pn + tvn

Dadas dos rectas, L1 y L2 , con vectores paralelos v1 y v2 , respectivamente, L1


es paralela a L2 si, y solo si v1 k v2 . Tal condicion esta bien definida pues
es facil ver que todo m
ultiplo no nulo de v1 (o v2 ) es paralelo a v2 ( a v1 ).
Podemos de igual manera definir perpendicularidad :
L1 L2 v1 v2 .
Notese que la definicion de rectas paralelas incluye la posibilidad de que L1 k
L1 . Igualmente, en el espacio tridimensional, podemos tener rectas perpendiculares
que no se intersecten.
Ejemplo 3.3.1. Consideremos, por ejemplo, las rectas con ecuaciones vectoriales:
L1 : (x, y, z) =
=
L2 : (x, y, z) =
=

(2 + 3t, 1 + 5t, 3 + t)
(2, 1, 3) + t(3, 5, 1), t R
(5 + 6s, 1 + 10s, 4 + 2s)
(5, 1, 4) + s(6, 10, 2), s R

De donde se obtiene que L1 contiene al punto P (2, 1, 3) y es paralela al


vector v = (3, 5, 1). Por su parte L2 contiene a Q(5, 1, 4) y es paralela a
w = (6, 10, 2) = 2v. Puesto que v k w se sigue que L1 k L2 . Son rectas
distintas?. Si L1 = L2 , entonces el punto Q(5, 1, 4) debera estar tambien en
L1 , pero esto implicara que existe un real t tal que
2 + 3t = 5
1 + 5t = 1
3 + t = 4.
De la primera y de la u
ltima ecuacion se tiene t = 1, pero si reemplazamos
t por 1 en la segunda obtenemos la inconsistencia 4 = 1. As L1 y L2 son
rectas paralelas distintas.

3.3. APLICACIONES GEOMETRICAS


Castaneda
/ Barrios

168

Figura 3.23: Ejemplo 3.3.1.

Si fijamos el punto P L1 toda recta perpendicular a L1 en P debe ser


paralela a un vector u tal que uv. Si u = (u1 , u2 , u3 ), debera entonces
tenerse
u v = 3u1 + 5u2 + u3 = 0.
El conjunto solucion de esta ecuacion es el subespacio
h(1, 0, 3), (0, 1, 5)i.
Por lo que existen infinitas rectas perpendiculares a L1 que contienen a P .
Geometricamente hablando, es claro que el conjunto de todas dichas rectas es
un plano. Los puntos R(x, y, z) de dicho plano (figura 3.23) satisfacen
(x, y, z) = (2, 1, 3) + t(1, 0, 3) + s(0, 1, 5).
La u
ltima ecuacion, como se explicara en la siguiente seccion, es una ecuacion
vectorial para el plano.
CAPITULO 3. VECTORES EN R2 Y R3 .


al Algebra
Introduccion
lineal

169

Ejemplo 3.3.2. Divisi


on de un segmento en partes iguales. Dados
puntos distintos P y Q, en el plano o en el espacio y n N, se desean obtener
las coordenadas de los n1 puntos que dividen al segmento P Q en n segmentos
de igual longitud. Designemos tales puntos por P1 , P2 , . . . Pn1 , entonces para
cada i = 1, 2, . . . n 1 se satisface que:

i
P Pi = P Q.
n
Se tiene entonces que
Pi = P +

i
PQ
n

(3.18)

En particular, el punto medio del segmento P Q tiene coordenadas dadas por


1 P + Q
P1 = P + P Q =
.
2
2

Figura 3.24: Division de un segmento en tres partes iguales.

As, por ejemplo, si P (1, 2), Q(2, 5), entonces si P1 y P2 dividen al segmento

3.3. APLICACIONES GEOMETRICAS


Castaneda
/ Barrios

170

P Q en tres partes iguales (figura 3.24) se tienen


1
P1 = P + P Q
 3 
4 1
=
,
3 3
2
P2 = P + P Q
 3 
5 8
=
,
3 3

3.3.2

Ecuaciones vectoriales de planos.

En la Geometra euclidiana, un plano esta determinado, basicamente, por tres


puntos no colineales. Es decir, dados tres puntos no colineales existe uno y solo
un plano que los contiene. Vectorialmente hablando, tres puntos no colineales
P, Q y R, determinan dos vectores no nulos y no paralelos

v = P Q, w = P R.
El plano esta tambien determinado por las rectas (no paralelas en el sentido
geometrico) que pasan por P y tienen a v y w, respectivamente, como

vectores paralelos. Dado un punto S en dicho plano, entonces el vector P S se


puede escribir como una combinacion lineal de los vectores v y w (vease figura
3.25).

P S = tv + sw, t, s R,
de donde
S = P + tv + sw, t, s R.

(3.19)

La ecuacion 3.19 se denomina la ecuacion vectorial del plano que pasa por P
y tiene como vectores generadores a v y w. La denominacion de generadores
obedece a que v y w generan al subespacio que contiene a todos los vectores

P S para S en el plano. De hecho, el plano no es mas que la traslacion del


subespacio
S = hv, wi = {tv + sw|t, s R},
el cual, geometricamente hablando, es un plano que pasa por el origen y que
es paralelo al plano considerado. De modo que si es el plano que pasa por
P y tiene a v y w como generadores, entonces podemos escribir
= P + S = {P + u|u S}.
CAPITULO 3. VECTORES EN R2 Y R3 .


al Algebra
Introduccion
lineal

171

Figura 3.25: Plano.

Desde el punto de vista algebraico, un par de generadores de un plano es un


conjunto de dos vectores linealmente independientes en R3 . As, dado un tal
par de vectores, si fijamos un punto P entonces la ecuacion 3.19 describe a
todos los puntos del plano determinados por las rectas no paralelas que tienen
a tales vectores como vectores paralelos y que pasan por P . Geometricamente,
dado un plano , un par de generadores del plano podemos definirlo como un
par de vectores no nulos no paralelos, v y w , tales que cada uno de ellos es
paralelo a , significando esto u
ltimo que toda representacion, como segmento
dirigido, anclada en un punto del plano tiene su punto final sobre el plano.
As, tomando dos puntos distintos del plano obtenemos un vector paralelo al
mismo. Por supuesto, dado un par de generadores del plano, entonces todo
vector paralelo al mismo esta en el subespacio generado por tales vectores.
Un plano tambien puede describirse mediante una ecuacion lineal en R3 .
Primero, definimos una normal a un plano como un vector no nulo que es
perpendicular a cada vector paralelo al plano. Si n = (a, b, c) es una normal
al plano y P (x0 , y0 , z0 ) es un punto fijo del plano, entonces para todo punto
S , debe cumplirse que

n P S = 0,
de donde se obtiene que
nS =nP

(3.20)

La ecuacion 3.20 muestra que, fijada una normal n, el producto escalar


entre tal normal y un punto del plano es invariante. Notese que tal ecuacion

3.3. APLICACIONES GEOMETRICAS


Castaneda
/ Barrios

172

es una ecuacion lineal en R3 . En efecto, de la misma ecuacion obtenemos, si


P (x, y, z):
ax + by + cz = ax0 + by0 + cz0
El invariante es entonces la constante real d = ax0 + by0 + cz0 , por lo que el
plano tiene como ecuacion a:
ax + by + cz = d

(3.21)

la ecuacion 3.21 (o 3.20) es usualmente denominada una ecuaci


on cartesiana
para el plano . Es claro que tal ecuacion no es u
nica, pero que dos ecuaciones
cartesianas de un mismo plano son equivalentes, pues el conjunto solucion debe
ser, geometricamente hablando, el conjunto de todos los puntos del plano. De
hecho, si n1 y n2 son vectores normales al plano y v, w son un par de vectores
generadores, entonces n1 y n2 estan en el complemento ortogonal de S = hv, wi.
En el ejercicio 9, pagina 83, del captulo dos, se propuso demostrar que
S = hv wi,
donde, para v = (v1 , v2 , v3 ), w = (w1 , w2 , w3 ):
v w = (v2 w3 v3 w2 , v3 w1 v1 w3 , v1 w2 v2 w1 )

(3.22)

es el producto cruz de v por w. Se tiene entonces que cualquier normal al


plano es un m
ultiplo de v w y que, por tanto, dos normales a un mismo plano
son m
ultiplos escalares la una de la otra. As, dos ecuaciones cartesianas de
un mismo plano deben ser m
ultiplos la una de la otra.
Como en el caso de rectas, podemos definir paralelismo y perpendicularidad
entre planos en terminos de sus vectores normales. Dos planos se denominan
paralelos (respectivamente, perpendiculares) si los son sus vectores normales.
Esta condicion esta bien definida pues dos normales a un mismo plano son
siempre m
ultiplos escalares.
Ejemplo 3.3.3. Consideremos, por ejemplo, los puntos P (1, 1, 3), Q(6, 1, 2)
y R(2, 4, 0). Tenemos entonces que

v = P Q = (5, 2, 1), P R = (3, 3, 3) = 3.(1, 1, 1)

Claramente v y P R no son paralelos por lo que los puntos dados no son


colineales. Existe entonces un plano u
nico que contiene a los puntos dados.
CAPITULO 3. VECTORES EN R2 Y R3 .


al Algebra
Introduccion
lineal

173

Si w = (1, 1, 1), el par {v, w} es un par de generadores del plano y una


normal al plano es cualquier m
ultiplo escalar no nulo de





2 1
5 1 5 2





vw =
1 1 , 1 1 , 1 1
= (3, 6, 3)
= 3(1, 2, 1)
Ecuaciones vectoriales del plano son, por ejemplo:
(x, y, z) = (1, 1, 3) + t(5, 2, 1) + s(1, 1, 1), t, s R.
(x, y, z) = (6, 1, 2) + t(5, 2, 1) + s(1, 1, 1), t, s R.
(x, y, z) = (2, 4, 0) + t(5, 2, 1) + s(1, 1, 1), t, s R.

Tomando n = (1, 2, 1) tenemos que una ecuacion cartesiano para el plano es:
(1, 2, 1) (x, y, z) = (1, 2, 1) (1, 1, 3)
x + 2y + z = 6
Debe notarse que si se toma cualquier otra normal, m
ultiplo escalar de n,
la ecuacion cartesiana resultante es simplemente un m
ultiplo de la ecuacion
anterior.
Las dos u
ltimas subsecciones muestran que en para R2 los u
nicos subespacios
propios no triviales son rectas que pasan por el origen (dimension 1). Para el
caso de R3 , los u
nicos subespacios propios no triviales son de dimension 1 o 2;
en el primer caso, se tienen rectas que pasan por el origen, en el segundo son
planos que contienen al origen.

3.3.3

Proyecciones ortogonales, distancia de un punto


a una recta o a un plano.

En el captulo dos se definio la proyecci


on ortogonal de un vector v Rn
n
sobre un subespacio W  R . Para n = 2, 3, si consideramos un subespacio,
W , de dimension 1, tenemos una recta paralela a un vector no nulo w. Es
decir,
W = hwi = {tw|t R}.

3.3. APLICACIONES GEOMETRICAS


Castaneda
/ Barrios

174

La proyeccion de un vector v sobre W viene dada entonces por


vw
w
(3.23)
P royW (v) =
ww
denominamos a P royW (v), la proyecci
on ortogonal de v sobre w y escribiremos
generalmente P royw (v). Sabemos que v P royw (v) W ; es decir, vw. Si
escribimos v1 = P royw (v) y v2 = v P royw (v), entonces claramente se tienen:
v = v1 + v2
v1 v2
v1 k w
As, tenemos que los vectores v1 y v2 constituyen una descomposicion de v en
vectores perpendiculares tales que uno de ellos es paralelo al vector w. Decimos
que v1 y v2 son un par de componentes rectangulares de v. La figura 3.26
ilustra lo anterior. Notese que la componente v1 , paralela al vector w, tiene su
misma direccion si v w > 0 y direccion opuesta si v w < 0.

Figura 3.26: Componentes rectangulares.


Si W es un subespacio de dimension 2 de R3 tenemos entonces un plano.
Si {w1 , w2 } es una base ortogonal de W (es decir, w1 y w2 son generadores del
plano) entonces para un vector v R3 , la proyeccion ortogonal sobre W esta
dada por:




v w1
v w2
P royW (v) =
w1 +
w2
(3.24)
w1 w1
w2 w2
CAPITULO 3. VECTORES EN R2 Y R3 .


al Algebra
Introduccion
lineal

175

y nuevamente v2 = v P royW (v) es un vector ortogonal a W ; es decir, es


normal al plano (Ver figura 3.27).

Figura 3.27: Componentes rectangulares .

Una aplicacion de las proyecciones ortogonales es la de hallar la distancia


de un punto a una recta o un plano dados. Si L es una recta (en E2 o E3 ) y P es
un punto dado, entonces la distancia (perpendicular) de P a L es claramente

kQP P royv (P Q)k,


siendo Q un punto arbitrario de L y v un vector paralelo a L. De igual manera,
para un plano E3 , la distancia de un punto P a dicho plano es

kQP P royW (P Q)k = kP royn (QP )k,


donde Q es un punto cualquiera del plano, W = hw1 , w2 i, con w1 , w2 generadores
ortogonales del plano, y n una normal cualquiera.

3.3.4

Otras aplicaciones

Dados tres puntos distintos P, Q, R En hemos visto que son colineales si,

y solo si los vectores P Q y P R son paralelos (linealmente dependientes).


Si los puntos no son colineales, entonces los puntos son los vertices de un
triangulo. El area del triangulo determinado por tales puntos puede hallarse
facilmente utilizando las herramientas vectoriales desarrolladas hasta ahora.

3.3. APLICACIONES GEOMETRICAS


Castaneda
/ Barrios

176

De la Geometra elemental sabemos que el area es el semiproducto de la


longitud de un lado (norma de un vector) por la distancia a dicho lado del
vertice opuesto (una altura del triangulo). Tal distancia puede hallarse por los
resultados de la seccion anterior (distancia de un punto a una recta). En forma
alternativa, el area es el semiproducto de dos lados cualesquiera por el seno del
angulo entre dichos lados. Este angulo es el angulo entre dos vectores y puede
hallarse utilizando la formula correspondiente. Como veremos enseguida, el
producto cruz da una alternativa expedita al calculo del area de un triangulo.
En primer lugar tenemos el siguiente importante resultado relativo a la norma
del producto vectorial.
Teorema 3.3.1. Sean v, w R3 , entonces:
1.
kv wk2 = kvk2 kwk2 (v w)2

(3.25)

2. Si v, w son no nulos y es el angulo entre ellos, entonces


kv wk = kvkkwkSen()

(3.26)

Demostracion. 3.25 se demuestra por calculos directos. 3.26 se sigue de la


anterior y de que v w = kvkkwkcos().
Ahora, si los vectores v y w no son paralelos, entonces v w 6= (0, 0, 0).
Si representamos a dichos vectores como segmentos dirigidos anclados en un
mismo punto del espacio, entonces tales segmentos determinan un paralelogramo cuya area es justamente kv wk. Tal area la definimos como el
area
generada por los vectores dados. Si v k w, definimos el area, consistentemente,
como cero. As, el producto cruz nos suministra nuevamente un criterio de
paralelismo (y de colinealidad para tres puntos distintos). As, si P, Q, R son
puntos del espacio6 no colineales, entonces el area del triangulo con vertices

en tales puntos es la mitad del area generada por los vectores P Q y P R. Es
decir:
1
A(4(P QR)) = kP Q P Rk
(3.27)
2
6

Estos resultados se pueden aplicar a puntos del plano, identificando (x, y) con (x, y, 0).
CAPITULO 3. VECTORES EN R2 Y R3 .


al Algebra
Introduccion
lineal

177

Si consideramos ahora tres vectores no nulos u, v, w R3 y suponemos


que u y w no son paralelos, entonces generan un subespacio de dimension
dos (un plano). Si w no esta en tal subespacio, entonces los tres vectores
son linealmente independientes. Si anclamos tales vectores en un punto del
espacio, sus representaciones determinan cuatro puntos no coplanares y, por
tanto un solido (paraleleppedo) con volumen no nulo. El volumen de tal
solido es definido como el volumen generado por dichos vectores. Si los
vectores son linealmente dependientes definimos tal volumen como cero. El
volumen de tal solido es el producto del area generada por los vectores u y v
(o dos cualesquiera de ellos) por la altura, siendo esta u
ltima la distancia de
un punto (el punto final de la representacion de w) a un plano (el generado
por u y v). Tenemos entonces (ver figura 3.28)
V

= ku vkkP royuv wk



(u v) w


(u

v)
= ku vk

ku vk2
= |(u v) w|

Figura 3.28: Volumen generado .

Para vectores u, v, w R3 , se cumple (ejercicio)(u v) w = u (v w)


y tal escalar es denominado el triple producto escalar de u, v y w. Por

3.3. APLICACIONES GEOMETRICAS


Castaneda
/ Barrios

178

lo demostrado anteriormente, tenemos que el volumen generado por los tres


vectores es el valor absoluto del triple producto escalar. Obtenemos as tambien
un criterio para la independencia lineal de tres vectores en R3 y es que una
condicion suficiente y necesaria es que el triple producto escalar no sea cero. De
igual manera, si P, Q, R y S son cuatro puntos distintos del espacio eucldeo
tridimensional entonces los cuatro puntos estan sobre un mismo plano (son
coplanares) si, y solo si

(P Q P R) P S = 0.

Ejercicios 3.3.1.
1. En cada caso indique si los puntos dados son colineales:
(a) P (1, 3), Q(2, 7), R(4, 15).
(b) P (1, 5), Q(2, 6), R(5, 17).
(c) P (1, 2), Q(2, 4), R(3, 6).
(d) P (1, 2), Q(3, 6), R(4, 7).
(e) P (1, 2), Q(3, 5), R(5, 8), S(7, 11).
(f) P (1, 2), Q(3, 5), R(5, 8), S(9, 13).
(g) P (1, 1, 3), Q(1, 2, 5), R(3, 3, 7).
(h) P (1, 1, 3), Q(1, 2, 5), R(15, 9, 19).
(i) P (1, 1, 3), Q(1, 2, 5), R(5, 4, 8).
(j) P (1, 1, 1), Q(2, 1, 0), R(3, 1, 1), S(5, 1, 3).
2. Para los puntos dados en el ejercicio anterior:
(a) Si los puntos son colineales halle la ecuacion de la recta que los
contiene.
(b) Si los puntos P, Q y R no son colineales:
i. Encuentre area, permetro y angulos interiores del triangulo
determinado por dichos puntos.
ii. Halle una ecuacion vectorial y una cartesiana para el plano
u
nico que los contiene.
iii. Determine la distancia de R a la recta que pasa por P y Q.
3. En cada caso determine una ecuacion vectorial de la(s) recta(s) que
satisface(n) las condiciones pedidas:
CAPITULO 3. VECTORES EN R2 Y R3 .


al Algebra
Introduccion
lineal

179

(a) En el plano:
i. Tiene pendiente 3 y pasa por el origen.
ii. Tiene pendiente 3 y es paralela a la recta de ecuacion 2x + 5y =
10.
iii. Tiene pendiente 3 y es perpendicular a la recta de ecuacion
2x + 5y = 10.
iv. Tiene ecuacion cartesiana 5x 4y = 0.
v. Tiene ecuacion cartesiana y = 4.
vi. Tiene ecuacion cartesiana x = b, siendo b una constante real.
vii. Es paralela a la recta de ecuacion (x, y) = (2 + t, 5 3t) y
contiene al punto (2, 7).
viii. Pasa por los puntos P (1, 5) y Q(7, 8).
ix. Intersecta a la recta de ecuacion x + y = 5 en (3, 2) y forma con
ella un angulo de 4 .
x. Intersecta a la recta de ecuacion x + y = 5 en (3, 2) y forma con
ella un angulo de 6 .
(b) En el espacio tridimensional:
i. Pasa por P (1, 2, 3) y Q(0, 4, 5).
ii. Es paralela a la recta de ecuacion (x, y, z) = (2 + t, 3 5t, 4t) y
pasa por P (3, 4, 6).
iii. Es perpendicular a la recta del ejercicio anterior y la intersecta
en (3, 2, 4).
iv. Pasa por P (1, 3, 5) y es perpendicular al plano XY .
v. Pasa por P (1, 3, 5) y es perpendicular al plano XZ.
vi. Pasa por P (1, 3, 5) y es paralela al plano XY .
vii. Pasa por el origen y por la interseccion de las rectas de ecuaciones
(x, y, z) = (2+t, 35t, 98t); (x, y, z) = (6+3s, 17+s, 23+3s).
viii. Esta contenida en los planos de ecuaciones x + y z = 0 y
2x 5y + 4z = 0.
ix. Esta sobre el plano de ecuacion x + 2y z = 6 y contiene al
punto P (1, 3, 1).
x. Esta sobre el plano de ecuacion x + 2y z = 6 e intersecta a
los ejes X e Y .

3.3. APLICACIONES GEOMETRICAS


Castaneda
/ Barrios

180

xi. Esta sobre el plano de ecuacion x + 2y z = 6 e intersecta a


los ejes X y Z.
xii. Esta sobre el plano de ecuacion x + 2y z = 6 e intersecta al
eje X y a la recta de ecuaciones parametricas
x = 2t, y = 3 + t, 5 + 2t.
xiii. Esta sobre el plano de ecuacion x + y z = 5, pasando por
P (4, 1, 0) y es paralela a la recta interseccion del plano indicado
con el plano de ecuacion 2x + y 3z = 0.
xiv. Esta sobre el plano de ecuacion x + y z = 5, pasando por
P (4, 1, 0) y es perpendicular a la recta interseccion del plano
indicado con el plano de ecuacion 2x + y 3z = 0.
xv. Esta sobre el plano de ecuacion x + y z = 5, pasando por
P (4, 1, 0) y con la la recta interseccion del plano indicado con
el plano de ecuacion 2x + y 3z = 0 forma un angulo de 4 .
xvi. Pasa por el origen y esta sobre un plano paralelo al plano de
ecuacion x + 5y 3z = 0.
xvii. Intersecta al plano de ecuacion x + 3y 4z = 6 y pasa por el
origen.
4. Dados los puntos P (2, 3, 5), Q(3, 6, 7).
(a) Encuentre las coordenadas de los puntos que dividen a P Q en cinco
partes iguales.

(b) Determine la ecuacion del plano perpendicular a P Q y que contiene


al punto medio del segmento P Q.
(c) Construya un cuadrado tal que P Q sea una diagonal de dicho
cuadrado.
(d) Halle un punto R tal que R sea el otro vertice de un triangulo
rectangulo isosceles que tiene a P Q como un cateto.
(e) Si R es el punto hallado en el ejercicio anterior, encuentre las
coordenadas de los puntos A, B, C y D, sobre los otros dos lados
del triangulo, necesarios para que dichos lados queden divididos en
tres partes iguales.
5. Considere la recta, L, de ecuacion (x, y, z) = (2 3t, 4 + 5t, 3 + 2t) y
el plano, , de ecuacion 3x + y + 2z = 4.
CAPITULO 3. VECTORES EN R2 Y R3 .


al Algebra
Introduccion
lineal

181

(a) Muestre que P (5, 1, 5) L, pero que Q(4, 14, 2)


/ L.
(b) Esta L contenida en ?
(c) Describa la familia de todos los planos que contienen a L.
(d) Halle al menos cinco ecuaciones vectoriales para el plano (utilice,
en cada caso, puntos y generadores distintos).
(e) Describa la familia de todos las rectas perpendiculares a .
6. En cada caso determine una ecuacion vectorial y una cartesiana para el
plano que satisface las condiciones indicadas.
(a) Contiene a los puntos P (1, 1, 3), Q(1, 1, 5) y R(3, 2, 1).
(b) Contiene a las rectas de ecuaciones (x, y, z) = (2 t, 5 + t, 3 2t) y
(x, y, z) = (4 s, 1 + s, 2s).
(c) Contiene a la recta de ecuacion (x, y, z) = (2 + 5t, 3t, 8 4t) y al
punto P (2, 5, 7).
(d) Contiene a las rectas de ecuaciones (x, yz) = (5 + t, 2 t, 3 + 4t) y
(x, y, z) = (6 + s, 1 3s, 7 8s).
7. Sea el plano de ecuacion vectorial (x, y, z) = (2+ts, 32t+4s, 78s).

/ .
(a) Muestre que el punto P 47 , 5, 1 , pero que Q(7, 7, 6)
(b) Halle una ecuacion cartesiana para dicho plano y encuentre una
ecuacion para el plano paralelo a que contiene al punto R(7, 7, 6).
(c) Muestre que la recta, L, de ecuacion (x, y, z) = (4 t, 1 + 4t, 7
8t) esta sobre el plano y encuentre las ecuaciones (cartesiana y
vectorial) para el plano perpendicular a cuya interseccion con
es L.
8. Sean 1 , 2 dos planos. Demuestre que 1 y 2 son paralelos si, y solo si
para todo par de vectores v1 , v2 R3 se cumple que v1 , v2 son generadores
de 1 si, y solo si son generadores de 2 .
9. Demuestre que dados un punto P (x0 , y0 ) y una recta L de ecuacion ax +
by = c (con a 6= 0 o b 6= 0), entonces la distancia de P a L esta dada por:
d=

|ax0 + by0 c|

a2 + b 2

3.3. APLICACIONES GEOMETRICAS

(3.28)


Castaneda
/ Barrios

182

De manera similar, si P (x0 , y0 , z0 ) es un punto en el espacio tridimensional


y es un plano de ecuacion ax + by + cz = d, entonces la distancia de
P a viene dada por:
d=

|ax0 + by0 + cz0 d|

a2 + b 2 + c 2

CAPITULO 3. VECTORES EN R2 Y R3 .

(3.29)

Bibliografa
[1] Apostol, Tom. Calculus. Volumen 1. 2a. ed. Editorial Reverte.
Barcelona.
[2] Apostol, Tom M. Mathematical Analysis. 2a. ed. Addison Wesley.
[3] Casta
neda, S., Barrios A., y R. Martnez. Notas de Algebra Lineal.
Ediciones Uninorte. Segunda edicion. Barranquilla. 2009.
[4] Descamps, S. Xambo. Algebra Lineal y Geometras Lineales. Eunibar.
Barcelona. Vol
umenes 1 y 2.
[5] Greub, W.H.Linear Algebra. Springer-verlag New York Inc 1967.
[6] Herstein, I.N. Algebra Moderna: Grupos, Anillos, Campos. Biblioteca
de Matematica Superior. Editorial Trillas.
[7] Hoffman, K. y R. Kunze.
Hispanoamericana, S. A. Mexico.

Algebra

Lineal.

Prentice-Hall

[8] Lang, Serge.Algebra Lineal. Fondo Educativo Interamericano. Bogota.


Colombia.
[9] Restrepo, Guillermo.Introduccion al Algebra
universitarios. Universidad del Valle. Cali. Colombia.

Lineal.

Textos

[10] Roman, Steven.Advanced Linear Algebra. Second edition. Springer.


2005.
[11] Thompson, Robert C. y Adil Yaqub. Introduccion al Algebra Lineal. Uteha. Mexico.

183

You might also like