You are on page 1of 76

Matrices

Las Matrices se consideran en este primer Captulo independientemente de lo


que pueden representar. Se dan aqu las primeras definiciones; se aprende a
operar con matrices, tanto reales como complejas y se estudian sus propiedades.
El inters de las matrices est en su uso en numerosas aplicaciones prcticas.
Como entidades consideradas en s mismas, las matrices surgieron
histricamente mucho ms tarde que los determinantes. La resolucin de
sistemas de ecuaciones lineales por determinantes ha cedido a la resolucin
mediante clculo matricial, que conduce a un costo computacional mucho menor.

1.1 Primeras definiciones


1.1

Primeras definiciones
Una matriz es una coleccin de escalares, organizados en filas y
columnas de la forma que se indica
11
21
=[
1

12
22

1
2
]

1.1

La palabra escalar indica un nmero cualquiera del campo numrico en el que


se est trabajando; normalmente es el cuerpo de los nmeros reales o el
cuerpo de los nmeros complejos. El escalar representa un elemento
cualquiera de la matriz , llamado elemento genrico de , donde el par de
subndices (, ) define la posicin del elemento en la matriz, el cual se halla
en la fila y columna .
La matriz se dice que tiene tamao (se lee por ) por tener filas y
columnas, escribiendo en ocasiones ; en el caso particular en que se
cumpla = , la matriz se llama cuadrada y se dice que es de orden . En este
caso, los elementos con subndices repetidos
11 , 22 , ,
1.2
forman la diagonal principal de .
Si se suman los elementos de la diagonal principal de se obtiene la traza de

() = = 11 + 22 + +

1.3

=1

que es un escalar de .
Una matriz formada por una sola columna se llama matriz columna;
anlogamente, una matriz formada por una sola fila se llama matriz fila. La
notacin para las matrices columna suele ser mediante letras latinas minsculas:
, , , mientras que para las matrices fila se usa una notacin en la que aparece
una columna con el supra ndice T a la derecha: , , Esta notacin
particular ayuda a distinguir inmediatamente si se est trabajando con filas o
columnas. Aunque ms adelante se identificar T con el operador trasposicin.
Ejemplo 1.1
La matriz

1.2 Suma matricial


1
2
= []

1.4

es una columna de tamao 1, mientras que la matriz


= [1

1.5

es una fila de tamao 1 , que procede de la columna u por trasposicin (la


nocin de trasposicin se estudiar ms adelante con detalle)
Una matriz que slo contiene un elemento se identifica con el elemento que
contiene. As la matriz
= []
1.6
es una matriz de tamao 1 1 que se identifica con el escalar .
Una matriz con todos sus elementos iguales a cero se llama matriz nula y se
denota por , donde es el tamao de esa matriz
0 0 0
0 0 0
= [
]
1.7

0 0 0
La matriz identidad es una matriz cuadrada de orden con todos sus
elementos cero, excepto los de la diagonal principal que tienen de valor la unidad
1 0 0
0 1 0
= [
]
1.8

0 0 1
Las columnas de se denominan columnas bsicas y toman una notacin
especial:
1
0
0
0
1
0
1 = [ ] , 2 = [ ] , , = [ ]

0
0
1

1.2

1.9

Suma matricial
Sean y dos matrices del mismo tamao . La matriz , de tamao
, es la suma de y , y se escribe = + , si
= + , ,

1.10

1.3 Producto por escalares


esto es, los elementos de la matriz suma son el resultado de sumar los
elementos de y que ocupan los mismos lugares, guardando en esos lugares
los resultados (ver figura 1.1).

+ = [

]
+
[

]
=
[

Figura 1.1

La notacin se lee para todo.


Propiedades:

1.
2.
3.
4.

( + ) + = + ( + )
+ =+
+ =
+ () =

Asociativa
Conmutativa
Matriz nula
Matriz opuesta

La propiedad 1 permite desplazar los parntesis tal como se indica; la propiedad


2 afirma que el resultado de la suma no depende del orden de los sumandos; la
propiedad 3 afirma que la matriz nula es el elemento neutro de la suma;
finalmente, la propiedad 4 define la matriz opuesta de otra matriz.
Se ha supuesto en las expresiones anteriores que las matrices con las que se
opera tienen el mismo tamao.
1.3

Producto por escalares


Sea un escalar y una matriz de tamao . La matriz , de tamao
, es el producto de por , y se escribe = , si
= , ,

1.11

esto es, los elementos del producto obtenido son el resultado de multiplicar
por los elementos de , guardando en los mismos lugares los resultados (ver
figura 1.2).

= [

] = [

Figura 1.2

] =

1.4 Conjugacin matricial


Propiedades:

5.
6.
7.
8.

() = ()
( + ) = +
( + ) = +
1 =

Asociativa
Primera distributiva
Segunda distributiva
Producto por la unidad

Estas propiedades son auto explicativas, teniendo en cuenta que y son


escalares. Ntese que el producto siempre es un escalar por una matriz, y no al
revs, una matriz por un escalar.
1.4

Conjugacin matricial
Conjugar un nmero complejo , de la forma = + , donde y son
nmeros reales e = 1 la unidad imaginaria, significa cambiar de signo a la
parte imaginaria de , manteniendo la parte real de . As pues, el nmero
complejo
=

1.12

es el conjugado del nmero complejo


= +

1.13

Los nmero reales se caracterizan por tener su parte imaginaria igual a cero,
o lo que es lo mismo, coinciden con su conjugado, como es muy fcil probar.
Ntese adems que:
= ( )( + ) = 2 + 2 = ||2

1.14

lo que significa que el producto del conjugado de un nmero complejo por ese
nmero complejo coincide con el cuadrado del valor absoluto del citado
complejo.
Toda matriz formada por nmeros complejos se puede escribir de la forma
= +

1.15

siendo y matrices reales, esto es, formadas por slo nmeros reales. La
matriz recibe el nombre de parte real de y la matriz recibe el nombre de
parte imaginaria de
Ejemplo 1.2

1.5 Trasposicin matricial


[

1 3
2

1
2 + 5
]=[
0
3

2
3 5
]+[
]
3
2 0

Pues bien, conjugar una matriz significa conjugar todos sus elementos. As, si
es una matriz compleja de tamao , la conjugada de , escrita es una
matriz compleja del mismo tamao que tal que
= ,
,

1.16

(Ver figura 1.3).


= [
]
=
[



]=

Figura 1.3

Propiedades:

9.
+ = +
=
10.
11. =

Conjugada de la suma
Conjugada del producto por

12. es real si y slo si =

Conjugada de la conjugada
Matriz real

La propiedad 12 se justifica fcilmente. El directo es inmediato; el recproco, si


= + , con y reales, y se cumple = , entonces de la identidad
= + se concluye identificando las partes imaginarias que = , esto es,
= , por lo que es una matriz real por serlo .
1.5

Trasposicin matricial
Trasponer una matriz significar intercambiar columnas por filas, esto es, las
columnas de la matriz original pasan a ser filas de la matriz traspuesta.
Dada la matriz de tamao , la traspuesta de , que se escribe , es
la matriz de tamao cambiado tal que
= , ,
1.17
(Ver figura 1.4).

= [


] = [


Figura 1.4

] =

1.5 Trasposicin matricial


Ejemplo 1.3
Est claro que la traspuesta de la columna
1
2
= []

1.18

es la fila
= [1

1.19

Propiedades:

13. ( + ) = +
14. () =
15. () =
( )
16. ( ) =

Traspuesta de la suma
Traspuesta del producto por
Traspuesta de la conjugada
Traspuesta de la traspuesta

En general, una matriz cuadrada se llama simtrica si = , esto es, si


= , ,

1.20

De otra parte, una matriz cuadrada se llama antisimtrica si = , esto es,


si
= , ,

1.21

Las matrices simtricas se reconocen porque por encima y por debajo de la


diagonal principal se repiten los mismos valores, simtricamente dispuestos
respecto de la diagonal principal; las matrices antisimtricas se reconocen
porque la diagonal principal est formada por ceros y por encima y por debajo
de la misma se repiten los mismos valores, cambiados de signo, simtricamente
dispuestos respecto de la diagonal principal.
Ejemplo 1.4
La matriz
1 2 3
[2 4 5 ]
3 5 6
es simtrica, mientras que la matriz

1.6 Trasposicin hermtica


0 1 2
[1 0 3]
2 3 0

es antisimtrica

1.6

Trasposicin hermtica
La propiedad 15 del apartado anterior permite definir la traspuesta hermtica de
, que se denota por , mediante
1.22
= () =
( )
Los operadores trasposicin y conjugacin conmutan entre s, y forman un nuevo
operador de trasposicin hermtica H.
En el campo complejo se consideran las matrices hermticas, que cumplen la
condicin = y las matrices antihermticas, que verifican = .
Ejemplos y propiedades de estas matrices sern objeto de ejercicios.

1.7

Producto matricial
Vamos en este apartado a definir el producto matricial entre dos matrices,
cumpliendo una condicin previa de tamaos.
El producto de la matriz de tamao por la matriz de tamao es
la matriz de tamao de modo que

= = 1 1 + 2 2 + + , ,

1.23

=1

esto es, el elemento de la matriz producto se obtiene multiplicando los


elementos de la fila de por los correspondientes elementos de la columna
de y sumando los resultados intermedios (ver figura 1.5).

= 1
[

][

=
]

1.7 Producto matricial

=
[

=
]

Figura 1.5

Ejemplo 1.5

+ + + +
] = [
]
[
]

+ + + +

Se van a presentar en lo que sigue las propiedades del producto matricial:

Propiedades:
17. () = ()
18. ( + ) = +
19. ( + ) = +
20. = =
21. ,
22. () = () = ()
=
23.
24. () =
25. () =

Asociativa
Primera distributiva
Segunda distributiva
Producto por la identidad
No conmutatividad
Producto con escalares
Conjugada del producto
Traspuesta del producto
Traspuesta hermtica del producto

La propiedad 21 nos advierte de que el producto matricial depende en general


del orden de los factores; las propiedades 24 (y 25) afirman que la traspuesta
(traspuesta hermtica) del producto es el producto de traspuestas (traspuestas
hermticas), pero cambiando el orden de escritura.
Puede suceder que el producto de por sea la matriz nula , sin necesidad de
que o sean nulas, como se prueba con el siguiente ejemplo:
Ejemplo 1.6
[

1 1
1 1 0
0 0
] [ 1 1] = [
]
0 1 1
0 0
1 1

Se dice que las matrices y conmutan si = . Para que dos matrices


conmuten es necesario, no suficiente, que sean cuadradas. El conmutador de
y es por definicin la matriz .
Ejemplo 1.7

1.7 Producto matricial


Las matrices
=[

1 2
2 3
] y =[
]
0 1
0 2

conmutan, pues
2 7
= = [
]
0 2
y su conmutador es la matriz nula.

De otra parte, si es de tamao y es de tamao las matrices =


y = sern cuadradas, la primera de orden y la segunda de orden ,
cumplindose lo que afirma la siguiente proposicin:
Proposicin 1.1: Si es de tamao y es de tamao , la traza de la
matriz coincide con la traza de la matriz
Demostracin: Sea = , matriz cuadrada de orden , y = , matriz
cuadrada de orden . Se tiene

() = = ( )
=1

=1 =1

() = = ( )
=1

=1 =1

Ambas expresiones conducen al mismo resultado teniendo en cuenta que los


factores y conducen al mismo resultado y que se pueden
intercambiar los sumatorios en cualquiera de las dos expresiones, luego en las
condiciones del enunciado
() = ()
Ejemplo 1.8
1
Sean las matrices = [
0

1
1 0
] , = [1
1 1
1

1
2]. Se tiene
3

1
2 3
= [
] , = [1
2 5
1

2 1
3 2]
4 3

siendo
() = () = 7

1.8 Potencias de matrices cuadradas


1.8

Potencias de matrices cuadradas


Vamos a definir las potencias naturales de una matriz cuadrada de orden :
Por convenio
0 =

1.24

Se tiene que
1 = 0 = =
2 = 1
3 = 2
y, en general, se demuestra por induccin que
+1 =

1.25

= = +

1.26

Se tiene adems

con y nmeros naturales cualesquiera. Obsrvese que lo correcto es escribir


para el cuadrado de la suma
( + )2 = ( + )( + ) = 2 + + + 2
con y cuadradas del mismo orden, en lugar de
( + )2 = 2 + 2 + 2
a no ser que = , esto es, y conmuten.
Para matrices y que conmutan se tiene la siguiente frmula del binomio de
Newton, en la que es un nmero natural

( + ) = ( )

1.27

( 1)( 2) ( + 1)
!

( )=
=

!
! ( )!

1.28

=0

siendo

1.8 Potencias de matrices cuadradas


el nmero combinatorio p sobre k. La demostracin se puede hacer por
induccin sobre . Se recuerda la notacin ! (factorial) con, en general, !
denotando el producto de los nmeros naturales sucesivos de 1 a .
Ejemplo 1.9
Se pide calcular con
1 1 0
= [0 1 1 ]
0 0 1
y un nmero natural.
Ntese que = + , con la matriz identidad y la matriz
0
= [0
0

1 0
0 1].
0 0

La matriz identidad conmuta con cualquier matriz cuadrada de su mismo


orden, en particular con . Se puede por tanto usar la frmula del binomio de
Newton para calcular = ( + ) . Adems
0 0
2 = [0 0
0 0

1
0 0 0
0] y 3 = [0 0 0]
0
0 0 0

de lo que se deduce, tambin por induccin sobre , que


0 0
= [0 0
0 0

0
0] , 3
0

Se tiene, usando la frmula del binomio de Newton, ya que son nulas las
potencias de mayores que dos,

= ( + ) = ( ) 0 + ( ) 1 1 + ( ) 2 2
0
1
2
esto es
= + +
1 0
[0 1
0 0

0
0
0] + [0
1
0

0
0

( 1) 2
=
2

0
0 0
] + [
0 0
0
0 0

( 1)
2
]=
0
0

1.9 Inversas de una matriz


( 1)
2
]

1
[
0 1
0 0
1.9

Inversas de una matriz


Se va a tratar en este apartado de las inversas por la izquierda y por la derecha
de una matriz de tamao .
Se dice que es una inversa por la izquierda de si
=

1.29

Ntese que el tamao de debe ser .


Ejemplo 1.10
1
La matriz = [
0
1 1
[1 2]
1 1

1
1
] es una inversa por la izquierda de la matriz =
1 1

pues
1
= [
0

1 1
1
1
1
] [1 2] = [
1 1
0
1 1

0
] = 2
1

Anlogamente, se dice que es una inversa por la derecha de si


=

1.30

Ntese, como suceda antes, que el tamao de tambin debe ser .


Ejemplo 1.11
1
La matriz = [1] es una inversa por la derecha de la matriz = [1
1
que

1 1] ya

1
= [1 1 1] [1] = 1 = 1
1
Las inversas por la izquierda o por la derecha no tienen por qu existir; ms an,
caso de existir no tienen por qu ser nicas.
Se tienen las siguientes proposiciones:

1.10 La matriz inversa


Proposicin 1.2: Caso de que existan a la vez ambas clases de inversas y
para la matriz , dichas inversas coinciden
Demostracin:
= = () = () = =
Proposicin 1.3: Caso de que existan ambas clases de inversas para la matriz ,
la citada matriz debe ser cuadrada
Demostracin: Llamando a las matrices y , ya que = , de las
definiciones 1.29 y 1.30 se tiene: = y = , y de la proposicin 1.1 se
deduce inmediatamente que = , ya que
() = ( ) =
() = ( ) =
pero
() = (),
luego =
1.10 La matriz inversa
Dada la matriz , cuadrada de orden , se dice que la matriz , tambin
cuadrada de orden , es la inversa de si es a la vez inversa por la izquierda y
por la derecha de , esto es, si se cumplen las dos identidades siguientes:
= y =

1.31

en cuyo caso la inversa de se escribe 1 , de ah que podamos escribir


1 = y 1 =

1.32

Ejemplo 1.12
1
La matriz = [
0

2
1
] es la inversa de la matriz = [
1
0
= [

2
] pues
1

1 2 1 2
1 0
][
]=[
] = 2
0 1 0
1
0 1

y tambin
= [

1 2 1 2
1 0
][
]=[
] = 2
0 1 0 1
0 1

Proposicin 1.4: La inversa de una matriz cuadrada , cuando existe, es nica

1.10 La matriz inversa


Demostracin: Sea una inversa de . Se cumple = y = . Si fuera
otra inversa de la matriz se debera cumplir = (y tambin = ).
Multiplicando = miembro a miembro por la derecha por se tiene
( ) = , con lo que () = , = , = .
Ms adelante se podr probar que cuando se verifica la identidad = para
una matriz cuadrada tambin debe verificarse la identidad = , y
recprocamente; es decir, siendo y matrices cuadradas del mismo orden, si
= necesariamente debe ser verdad = ; y tambin, si =
necesariamente debe ser verdad = . Por consiguiente, para probar que
es la inversa de la matriz cuadrada basta con probar una sola de las dos
identidades: O bien = o bien = . El ejemplo 1.12 se habra
simplificado probando una sola de las dos identidades obtenidas.
Propiedades:
26. ( + )1 1 + 1 ,
27. ()1 = 1 1 , 0
(1 )
28. ()1 =
29. ( )1 = (1 )
30. ()1 = 1 1
31. (1 )1 =

Inversa de la suma
Inversa del producto por
Inversa de la conjugada
Inversa de la traspuesta
Inversa del producto
Inversa de la inversa

Nota: En las propiedades donde aparece la inversa de una matriz, se supone que
esa matriz tiene inversa.
La propiedad 26 afirma algo, que tambin es verdad para los nmeros reales o
complejos: que la inversa de la suma no es suma de inversas, en general; la
propiedad 30 afirma que la inversa del producto es producto de inversas, pero
cambiando el orden de escritura.
Una matriz cuadrada que tiene inversa se llama regular; si una matriz cuadrada
no tiene inversa, se llama singular.
La propiedad 28 permite concluir que la conjugada de una matriz regular es
regular; anlogamente, la propiedad 29 permite afirmar que la traspuesta de una
matriz regular es regular.
La propiedad 30 garantiza que el producto de matrices regulares es regular, as
como la propiedad 31 garantiza que la inversa de una matriz regular es regular.
Para matrices regulares se define la potencia a un nmero entero negativo de la
forma siguiente

1.11 Matrices particionadas


= (1 )

1.33

con > 0 un nmero natural.


1.11 Matrices particionadas
Se define un bloque o submatriz de una matriz dada , seleccionando filas de
y columnas de , de modo que los elementos comunes a esas filas y
columnas forman el bloque o submatriz definido, de tamao .
Ejemplo 1.13
1 2 3
1
Dada la matriz = [4 5 6] , la matriz = [
7
7 8 9
mediante las filas 1, 3 y las columnas 1, 2 de

2
] es el bloque definido
8

Particionar una matriz significa descomponerla mediante lneas horizontales


y/o verticales en bloques, los cuales constituyen los elementos matriciales de la
matriz particionada.
Ejemplo 1.14
La matriz
1
0
=[
1
1

0
1
1
1

1
1
1
0

1
1
0
1

1
2
]
1
2

1
1
1
0

1
1
0
1

1
2
]
1
2

se puede particionar de la forma indicada


1
0
=[
1
1

0
1
1
1

obtenindose la matriz particionada

= [ 11
21

12
22

13
]
23

con
11 = 22 = [

1 0
] = 2
0 1

12 = 21 = [

1 1
]
1 1

1.11 Matrices particionadas


1
13 = 23 = [ ]
2
Ntese en este ejemplo que la matriz sin particionar es de tamao 4 5 pero
particionada es de tamao por bloques 2 3, pues tiene dos filas de bloques y
tres columnas de bloques. A veces el tamao por bloque se resalta con un
subrayado. En este ejemplo 2 3.
Para operar con matrices particionadas se utilizan las misma reglas que para
operar con matrices sin particionar, pero teniendo en cuenta que los elementos
que se manejan son a su vez matrices.
Veamos algunos ejemplos:
Ejemplos 1.15
+

1) [ ] + [ ] = [
]
+

2) [ ] = [ ]

3) [ ] = [ ]


4) [ ] = [

5) [

] [ ] = +

6) [ ] [

7) [1

8) [1

] = [

] = [1

] [ 2 ] = 1 1 + 2 2 + +

Ejemplo 1.16
Se pide hallar la inversa de una matriz particionada de la forma

=[

1.12 Matrices cuadradas especiales


en funcin del bloque , donde los bloques son todos cuadrados del mismo
orden. es la matriz identidad y la matriz nula.
Si imaginamos que la inversa de (caso de existir) se descompone del mismo
modo que en la forma

1 = [

con , , , y bloques incgnita, se debe cumplir


[


][

]=[

De lo que se deduce fcilmente que


= = , = , =
de ah que

1 = [

1.12 Matrices cuadradas especiales


Vamos a tratar aqu de una serie de matrices cuadradas, todas ellas de orden ,
de especial relevancia en las aplicaciones.
1) Matrices triangulares y diagonales
Se dice que la matriz es triangular inferior si = 0, para <
11
21
=[

0
22

0
0
]

Anlogamente, se dice que la matriz es triangular superior si se cumple =


0, para >
11 12 1
0 22 2
=[
]
0
0
Un caso particular de las matrices triangulares es el de las matrices diagonales
que son de la forma

1.12 Matrices cuadradas especiales


11
0
=[

0
cumpliendo = 0, para

0
22

0
0
].

Ejemplo 1.17
Las matrices
1 0
= [2 3
4 5

0
1 1 2
1 0 0
0] , = [0 3
3 ] , = [0 2 0 ]
6
0 0 4
0 0 3

son, respectivamente, triangular inferior, triangular superior y diagonal.

2) Matrices ortogonales (unitarias)


Una matriz se dice ortogonal (unitaria) si 1 = en el campo real ( 1 =
, en el campo complejo).
Las matrices unitarias en el campo real son ortogonales. La inversin de las
matrices ortogonales (unitarias) es muy sencilla de realizar pues la inversa
coincide con la traspuesta (traspuesta hermtica).

Ejemplo 1.18
La matriz

=[

es ortogonal pues

1 = [

3) Matrices idempotentes

] =

Una matriz se dice idempotente si 2 = .


Ejemplo 1.19
La matriz
=[

1/2 1/2
]
1/2 1/2

es idempotente ya que
1/2 1/2
2 = [
]=
1/2 1/2
4) Matrices nilpotentes

1.12 Matrices cuadradas especiales

Una matriz se dice nilpotente si = , con > 0. El ms pequeo valor de


para el que se cumple la anterior identidad se denomina ndice de nilpotencia
de .
Ejemplo 1.20
La matriz
0 1 0
= [0 0 1]
0 0 0
es nilpotente de ndice de nilpotencia tres, pues
0 0 1
0 0
2 = [0 0 0] , 3 = [0 0
0 0 0
0 0
5) Matrices involutivas

0
0] =
0

Una matriz se dice involutiva si 2 = .

Ejemplo 1.21
La matriz
=

1 1 2 2
[2 1 2]
3
2 2 1

es involutiva al cumplirse
1
2 = [0
0

0 0
1 0]
0 1

6) Matrices de permutacin
Una matriz se dice de permutacin si resulta de la matriz identidad al
intercambiar de orden sus filas (o sus columnas).
Ejemplo 1.22
La matriz
0 1 0 0
1 0 0 0
=[
]
0 0 0 1
0 0 1 0
es de permutacin, pues se obtiene de la identidad
1 0 0 0
0 1 0 0
=[
]
0 0 1 0
0 0 0 1

1.12 Matrices cuadradas especiales


cambiando las filas de numeracin 1, 2, 3, 4 a las de numeracin 2, 1, 4, 3,
respectivamente.
7) Matrices normales
Una matriz se dice normal si cumple la identidad = , en el campo real
( = , en el campo complejo).
Ejemplo 1.23
Las matrices simtricas reales, las antisimtricas reales, las hermticas, las
antihermticas, las ortogonales reales y las unitarias son todas casos particulares
de matrices normales
En los ejercicios aparecern ejemplos concretos de otras matrices cuadradas
especiales.

1.12 Matrices cuadradas especiales

1.12 Matrices cuadradas especiales

Sistemas de Ecuaciones Lineales


2

Los sistemas de ecuaciones lineales son la clave para resolver la mayor parte de
problemas que se plantean en lgebra Lineal. Apenas se encuentra un problema
que no necesite resolver algn sistema lineal. En este Captulo se estudian
fundamentalmente las tcnicas Gaussianas: El mtodo de Gauss y su variante de
Gauss-Jodan. Seguidamente se analiza la relacin que hay entre las soluciones
de un sistema general y las soluciones del sistema homogneo asociado. Se
contina con el estudio de las inversas (por la izquierda y por la derecha) de y
su relacin con las soluciones de la ecuacin matricial = . Se explica el
mtodo para invertir una matriz mediante Gauss-Jordan; se sigue con la
descomposicin de una matriz cuadrada y sus variantes, y se termina el
Captulo con referencias al costo computacional.

2.1 Sistemas de ecuaciones lineales


2.1

Sistemas de ecuaciones lineales


Un sistema de ecuaciones lineales con incgnitas es de la forma
11 1 + 12 2 + + 1 + + 1 = 1
21 1 + 22 2 + + 2 + + 2 = 2

1 1 + 2 2 + + + + =

1 1 + 2 2 + + + + =

2.1

donde la matriz de tamao


11
21

=
1

[1

12
22

1
2



1
2



]

2.2

se llama matriz de coeficientes del sistema; la matriz columna de tamao


1
1
2

[ ]

2.3

recibe el nombre de matriz de trminos independientes; y la matriz columna


de tamao 1
1
2

[ ]

2.4

es la matriz incgnita, formada por las incgnitas 1 , 2 , , del sistema.


Ejemplo 2.1
El sistema de dos ecuaciones lineales con tres incgnitas siguiente
21 + 42 53 = 1
21 + 42 + 63 = 8
tiene como matriz del sistema la matriz

2.1 Sistemas de ecuaciones lineales


=[

2 4 5
]
2 4 6

y como columna de trminos independientes


1
=[ ]
8
La columna incgnita es
1

= [ 2]
3
El sistema general 2.1 se puede escribir de forma ms sencilla por su
representacin matricial
=

2.5

pues es evidente que se cumple que el producto de la matriz por la columna


es la columna
11
21

[ 1

12
22

1
2



1 1
1
2 2
2

] [ ] [ ]

2.6

Se dice que la coleccin de escalares 10 , 20 , , 0 es una solucin del


sistema general 2.1 si, al sustituir las incgnitas por los escalares
correspondientes de la coleccin, se satisfacen todas y cada una de las
ecuaciones, o lo que es equivalente, si la columna
10
20

0 =
0

[0 ]

2.7

0 =

2.8

satisface la identidad

Un sistema con al menos una solucin se llama compatible; se llama


incompatible si carece de solucin. Un sistema compatible se llama determinado
si la solucin es nica, e indeterminado si tiene ms de una solucin. Dos
sistemas con el mismo conjunto de soluciones se dice que son equivalentes.

2.2 Operaciones elementales


Ejemplo 2.2
El sistema
1 + 32 53 = 1
21 + 42 + 63 = 8
tiene como solucin 1, 1, 1. Tambin tiene la solucin 2.8, 0.6, 0, como es
fcil comprobar. El sistema por tanto es compatible e indeterminado. Adems de
estas dos soluciones hay otras muchas. Ms adelante se aprender a obtenerlas
todas.
Un sistema homogneo es aqul cuyos trminos independientes valen todos
cero. Su representacin matricial es de la forma
= 0

2.9

donde 0 indica en 2.9 la columna nula de elementos. Esos sistemas tienen al


menos la solucin nula 0,0, ,0 formada por ceros, los cuales definen a su vez
la columna nula 0 de elementos, que solucin de la ecuacin matricial = 0.
Ejemplo 2.3
El sistema
1 + 32 53 = 0
21 + 42 + 63 = 0
es el sistema homogneo asociado al sistema general del ejemplo 2.2 anterior.
Este sistema homogneo, adems de la solucin nula 0, 0, 0, tiene otras muchas
soluciones.
2.2

Operaciones elementales
Ya sabemos que un sistema de ecuaciones lineales est representado por la
ecuacin matricial = , y de un modo todava ms sencillo se puede
representar por su matriz ampliada [ ], que resulta de ampliar la matriz
del sistema con la columna de trminos independientes.
Las ecuaciones del sistema se corresponden directamente con las filas de la
matriz ampliada, de modo que cualquier operacin sobre las ecuaciones del
sistema se refleja en la correspondiente operacin sobre las filas de la ampliada;
y recprocamente.
Vamos a tratar aqu de tres clases de operaciones elementales sobre las
ecuaciones (o filas de la matriz ampliada) que respetan el conjunto de soluciones,
esto es, transforman un sistema en otro equivalente.

2.2 Operaciones elementales


Sea el nmero de ecuaciones del sistema (o filas de la matriz ampliada):
1) Operacin clase I: Intercambiar dos ecuaciones (o filas) distintas entre s.
Esta operacin tiene una matriz elemental asociada que resulta de intercambiar
esas filas entre s en la matriz identidad . La denotaremos por , cuando las
ecuaciones (o filas) que se intercambian son la con la , siendo .
Ejemplo 2.4
La matriz ampliada
1
[
4

2 3
| ]
5 6

representa al sistema
1 + 22 = 3
41 + 52 = 6
El intercambio entre s de las filas primera y segunda de la matriz ampliada es
una operacin de clase I, cuya matriz asociada es
0 1
1,2 = [
].
1 0
Esta matriz procede de intercambiar entre s las filas primera y segunda de la
matriz identidad
1 0
2 = [
]
0 1
La nueva matriz ampliada obtenida despus del intercambio
4
[
1

5 6
| ]
2 3

representa al nuevo sistema


4 1 + 5 2 = 6
1 + 22 = 3
que es equivalente con el inicial
Es fcil probar que: Toda matriz de permutacin de filas (o columnas) es el
producto de matrices elementales de clase I de filas (o columnas). Esta cuestin
se comprender mejor en el siguiente Captulo dedicado a los determinantes.
2) Operacin clase II: Multiplicar una ecuacin (o fila) por un nmero distinto
de cero.
Esta operacin tiene una matriz elemental asociada que resulta de multiplicar
por la correspondiente fila de la matriz identidad . La denotaremos por .
cuando la fila que se multiplica por es la fila .

2.2 Operaciones elementales


Ejemplo 2.5
La matriz ampliada
4
[
1

5 6
| ]
2 3

representa al sistema
4 1 + 5 2 = 6
1 + 22 = 3
Si multiplicamos la segunda fila por 4, hacemos una operacin elemental de
clase II, cuya matriz asociada es
1 0
4.2 = [
]
0 4
la cual resulta de multiplicar por 4 la segunda fila de 2
La nueva matriz ampliada es
[

4 5 6
| ]
4 8 12

y representa al nuevo sistema


4 1 + 5 2 = 6
41 + 82 = 12
que es equivalente con el inicial
3) Operacin clase III: Restar a una ecuacin (o fila) otra ecuacin (o fila)
distinta, previamente multiplicada por un nmero .
Esta operacin tiene una matriz elemental asociada que resulta de hacer lo
mismo sobre la matriz identidad . La denotaremos por . cuando a la fila
le restamos por la fila , con .
Ejemplo 2.6
La matriz ampliada
[

4 5 6
| ]
4 8 12

representa el sistema
4 1 + 5 2 = 6
.
41 + 82 = 12
Si a la segunda fila le restamos la primera, hacemos una operacin de clase III. La
nueva matriz ampliada es
4 5 6
[
| ]
0 3 6
y el nuevo sistema equivalente al inicial es
4 1 + 5 2 = 6
32 = 6
La matriz asociada es, en este caso, evidentemente

2.2 Operaciones elementales


1 0
21.1 = [
]
1 1
Proposicin 2.1: Si se premultiplica (o multiplica por la izquierda) una matriz
cualquiera por una matriz , asociada a una operacin elemental por filas, se
obtiene una nueva matriz que resulta de hacer esa misma operacin elemental
sobre las filas de la matriz
Demostracin: Se omite la demostracin.
En el siguiente ejemplo se entender mejor el alcance de la proposicin:
Ejemplo 2.7
Aplicando la proposicin 2.1 a las matrices ampliadas de los ejemplos 2.4, 2.5 y
2.6, se tiene
1 1
][
0 4

2 3
4 5 6
| ]=[
| ]
5 6
1 2 3

1 0 4
][
0 4 1

5 6
4 5 6
| ]=[
| ]
2 3
4 8 12

0
[
1
[
[

1 0 4
][
1 1 4

4
]=[
8 12
0
|

5 6
| ]
3 6

Proposicin 2.2: Las matrices asociadas a las operaciones elementales sobre las
ecuaciones (o filas) son regulares y sus inversas estn asociadas a operaciones
elementales de la misma clase
Demostracin: Las matrices asociadas son regulares, pues es muy fcil probar
que
, 1 = ,
. 1 = ( 1 ). , 0

. 1 = +. = ().
ya que se cumple
, , =
. ( 1 ). =

. +. =

2.3 La eliminacin Gaussiana


De otra parte, es patente de las tres primeras identidades de esta demostracin,
que las inversas son matrices asociadas a operaciones elementales de la misma
clase que las matrices sin invertir.
Por ser regulares, el producto de matrices elementales es una matriz regular,
no necesariamente elemental. Ms adelante veremos el recproco, esto es, que
las matrices regulares se pueden expresar como producto de matrices
elementales.
Existe un tratamiento anlogo de todo lo afirmado sobre las filas de una matriz
que se repite para las columnas, pero no se introduce en este Captulo, en el que
las filas son lo relevante. Las filas estn directamente relacionadas con las
ecuaciones de la matriz ampliada de los sistemas de ecuaciones lineales.
De todos modos si en los enunciados donde aparece la palabra fila se cambia
por la palabra columna y en la proposicin 2.1 se cambia el comienzo de la
frase Si se premultiplica (o multiplica por la izquierda) por la frase Si se
postmultiplica (o multiplica por la derecha) se obtienen afirmaciones
verdaderas.
2.3

La eliminacin Gaussiana
La eliminacin Gaussiana es la tcnica con la que se elimina una incgnita en
una ecuacin, aprovechando la existencia de esa misma incgnita en una
ecuacin distinta con un coeficiente distinto de cero que llamaremos pvot.
Operando ordenadamente, se espera reducir el sistema de ecuaciones lineales
dado a un sistema simplificado equivalente, del que sea sencillo hallar todas sus
soluciones. Esta tcnica la veremos en accin en los mtodos de Gauss y de
Gauss-Jordan.
Supongamos que la ecuacin de un sistema lineal, en la que aparece manifiesta
la incgnita , esto es, 0, (el pvot) fuera la siguiente:
1 1 + 2 2 + + + + =

2.10

Deseamos aprovechar esta ecuacin para eliminar la incgnita de la


ecuacin , con ,
1 1 + 2 2 + + + + =

2.11

mediante una operacin elemental de clase III. Para ello a la ecuacin se le


resta la ecuacin , multiplicada por un nmero , llamado mltiplo de Gauss y
que vale

2.4 El mtodo de Gauss


=

2.12

esto es: el mltiplo de Gauss es el cociente entre el coeficiente de la incgnita


que queremos eliminar y el pvot.
Lo afirmado se justifica porque
( ) =

( ) = = 0

Ejemplo 2.8
Podemos usar la primera ecuacin para eliminar la primera incgnita de la
segunda ecuacin del sistema
2 1 + 32 = 1
41 + 52 = 6
El pvot vale 2 y el mltiplo de Gauss es = 4/2 = 2. Si a la segunda fila le
restamos por tanto la primera multiplicada por 2 se obtiene
2 1 + 32 = 1
2 = 4
Desde el punto de vista de las matrices ampliadas pasamos de la matriz
2
[
4
a la matriz [
2.4

3 1
| ]
5 6

2 3 1
| ] que tiene un cero debajo del primer pvot
0 1 4

El mtodo de Gauss
El mtodo de Gauss es un mtodo sistemtico de eliminacin de incgnitas de
un sistema de ecuaciones lineales en dos fases: la primera, fase de eliminacin,
persigue llegar a un sistema equivalente reducido de forma triangular; y la
segunda, fase de vuelta atrs, partiendo del sistema reducido, permite obtener
la solucin o soluciones, caso de que stas existan.
El mtodo utiliza la tcnica de la eliminacin Gaussiana. La fase de eliminacin
funciona por etapas y se trabaja sobre la matriz ampliada del sistema. Cada etapa
viene marcada por una determinada columna de la matriz del sistema.
El mtodo empieza por la primera columna de la matriz del sistema. Si no hay
pvot en esa columna se pasa a la siguiente y as hasta encontrar una columna
con pvot. El pvot se sita en el nivel ms alto posible, por debajo de las filas que

2.4 El mtodo de Gauss


ya tengan pvot, intercambiando filas de la matriz ampliada si fuera necesario;
luego se forman ceros debajo de l, mediante la eliminacin Gaussiana, pasando
en la nueva etapa a la siguiente columna de la matriz del sistema y repitiendo el
proceso hasta terminar con la ltima columna de la citada matriz.
En este momento a la columna de trminos independientes (la ltima columna
de la matriz ampliada) le pueden suceder dos cosas excluyentes: o bien tiene
algn elemento no nulo en las filas que no tienen pvot ya seleccionado o bien
no lo tiene.
Veremos ms tarde que esta segunda posibilidad conduce a la existencia de
solucin o soluciones, mientras que la primera determina la falta de solucin del
sistema.
En el primer caso (existencia no nulo) se puede reducir an ms la matriz
ampliada situando lo ms alto posible (mediante intercambio de filas) y
formando ceros por debajo de (mediante eliminacin Gaussiana).
Por consiguiente, al final de la fase de eliminacin de Gauss se llega a una matriz,
llamada reducida de Gauss (que no es nica) y que en general toma la forma
escalonada por filas indicada en la figura 2.1
0
0
0

0
0

[0

0
0
0

0
0

0


0 0 0
0 0 0 0

0 0 0 0
0 0 0 0

0 0 0 0

0
0



0

0
0 0

0 0






0

0 0]

2.13

Figura 2.1

donde los pvots estn denotados por el smbolo y el smbolo * denota un


nmero cualquiera. Adems puede valer cero o distinto de cero.
Aunque la reducida de Gauss no es nica, sin embargo se puede probar que son
invariantes el nmero de pvots y el hecho de ser distinto de cero o igual a
cero (o de no existir ).
Si 0 , diremos que hay escalonamiento en la columna de trminos
independientes. La ecuacin en la que aparece distinto de cero no tiene
solucin posible, luego el sistema tampoco puede tener solucin y en este caso
el sistema es incompatible.
En cambio, si = 0 o no existe , diremos que no hay escalonamiento en la
columna de trminos independientes. Las incgnitas sin pvot (si las hubiere)

2.4 El mtodo de Gauss


pueden tomar valores cualesquiera; no as las que tienen pvot, que dependen
directamente de las anteriores (o toman valores constantes), como se
comprender mejor cuando se hable de la vuelta atrs del mtodo de Gauss.
Hay solucin o soluciones en este caso y el sistema es compatible.
Como criterio general: No puede haber dos pvots seleccionados ni en la misma
fila ni en la misma columna de la matriz del sistema.
Un ejemplo ayudar a aclarar todo lo anterior:
Ejemplo 2.9
Fase de eliminacin de Gauss:
Partimos de una matriz ampliada que representa un sistema de cuatro
ecuaciones con cinco incgnitas y vamos realizando operaciones elementales
hasta lograr una reducida de Gauss
0
0
[
0
0

2
2
2
6

2 4
2 8
4 6
8 18

0
0
[
0
0

2
0
0
0

2
2
2
0

3 2
0
(1)
6
4
0
] [
10 8
0
19 10
0

4 3
6 10
2 7
4 3
0
0
[
0
0

2
0
(3)
16
0
] [
10
0
6
0
2
0
0
0

2
0
0
0
2
0
0
0

2
0
2
2

4 3
4 3
2 7
6 10

2
(2)
6
]
10
16

2 4
3 2
(4)
2 6 10 16
]
0 4 3 6
0 4
3
6

2 4
3 2
2 6 10 16
]
0 4 3 6
0 0
0
0

Explicacin: En la primera columna no hay pvot. Los pasos sucesivos son:


(1) Se selecciona el pvot de la segunda columna y primera fila, y con l se forman
ceros debajo; para ello a la segunda fila se le resta la primera, a la tercera fila se
le resta la primera y a la cuarta fila se le resta la primera multiplicada por tres.
(2) Se intercambian las filas segunda y cuarta entre s
(3) Se selecciona el pvot de la tercera columna y segunda fila, y con l se forma un
cero debajo: para ello, a la tercera fila se le resta la segunda.
(4) Se selecciona el pvot de la cuarta columna y tercera fila, y con l se forma un
cero debajo: para ello, a la cuarta fila se le suma la tercera.
Se ha llegado a una reducida de Gauss con = 0, lo que significa que el sistema
original (y el reducido final) tienen solucin.

2.4 El mtodo de Gauss


Las incgnitas que tienen pvot se llaman incgnitas pivotales o ligadas,
mientras que las que no tienen pvot se llaman incgnitas libres.
Ejemplo 2.10
En el ejemplo 2.9 anterior las incgnitas pivotales son 2 , 3 , 4 mientras que
las incgnitas libres son 1 , 5 .
La vuelta atrs del mtodo de Gauss consiste en despejar las incgnitas pivotales
en funcin de las libres, comenzando por la ltima hasta llegar a la primera
pivotal.
A las incgnitas libres se les suele asignar una nueva letra para indicar que hacen
el papel de parmetros independientes del conjunto de soluciones (cuando hay
solucin).
Ejemplo 2.11
Volviendo al ejemplo 2.9, en l se lleg a la matriz ampliada reducida de Gauss
0
0
[
0
0

2
0
0
0

2 4
3 2
2 6 10 16
]
0 4 3 6
0 0
0
0

que representa al sistema


22 + 23 + 44 + 35 = 2
23 + 64 + 105 = 16
44 35 = 6
Fase de vuelta atrs de Gauss:
Damos a las incgnitas libres la notacin
1 = 1
5 = 2
de modo que de la tercera ecuacin despejamos 4
4 =

6 + 35 3 3
= 2
4
2 4

Despejamos ahora 3 de la segunda ecuacin


3 =

16 64 105
3 3
7 11
= 8 3 ( 2 ) 52 =

2
2 4
2 4 2

Finalmente, despejamos 2 de la primera ecuacin

2.4 El mtodo de Gauss


2 =

2 23 44 35
7 11
3 3
3
= 1 ( 2 ) 2 ( 2 ) 2
2
2 4
2 4
2

Operando se llega a
2 =

15 11
+ 2
2
4

Las soluciones son por tanto de la forma


1 = 1 , 2 =

15 11
7 11
3 3
+ 2 , 3 = 2 , 4 = 2 , 5 = 2
2
4
2 4
2 4

Se trata de un sistema compatible e indeterminado. Los dos parmetros del


conjunto de soluciones son 1 y 2 .
Resumiendo: el mtodo de Gauss tiene dos fases: La fase de eliminacin donde
se llega a una forma escalonada por filas (reducida de Gauss), que permite
decidir si hay solucin ( = 0 o no existe) y en caso de haberla, si la solucin
es nica (no hay incgnitas libres) o tiene ms de una solucin (hay incgnitas
libres); y una segunda fase, la fase de vuelta atrs, que en caso de haber solucin
permite hallar la solucin o soluciones, despejando las incgnitas pivotales en
funcin de las libres, desde la ltima a la primera, en orden de aparicin.
Ejemplo 2.12
Sea ahora el sistema
21 + 42 = 6
41 2 = 3
21 + 52 = 3
Fase de eliminacin:

2
4 6 (1) 2 4
6 (2) 2 4
6
[ 4 1 | 3] [0 9 | 9] [0 9 | 9]
2 5 3
0 9
9
0 0
0
(1) El primer pvot est en la primera fila y primera columna. Se forman
ceros debajo de l.
(2) El segundo pvot est en la segunda fila y segunda columna. Se forma un
cero debajo de l.

2.4 El mtodo de Gauss


Es = 0 , lo que significa que hay solucin (sistema compatible). No hay
incgnitas libres, luego el sistema tiene solucin nica (sistema determinado).
Fase de vuelta atrs:
Se despeja primero 2 y luego 1
2 =
1 =

9
=1
9

6 42
=1
2

La solucin nica es 1 = 1, 2 = 1
Ejemplo 2.13
Veamos cmo el siguiente sistema carece de solucin
21 + 42 = 6
41 2 = 3
21 + 52 = 0
Trabajando con el mtodo de Gauss
2
4 6
2 4
6
2
[ 4 1 | 3] [0 9 | 9] [0
2 5 0
0 9
6
0

4
6
9 | 9]
0 3

se llega a que = 3 0. No hay solucin, pues la tercera ecuacin


01 + 02 = 3
no se puede satisfacer nunca.
El mtodo de Gauss, cuando existe solucin obtiene todas las soluciones. El
sistema inicial y el reducido final de Gauss son equivalentes. Si tenemos una
solucin del sistema inicial, los elementos que corresponden a las incgnitas
libres (si las hubiera) determinan los valores de las incgnitas ligadas en el
sistema reducido, por lo que si la supuesta solucin del sistema inicial fuera
distinta de la que obtiene el sistema reducido aquella no se podra obtener nunca
como solucin del sistema reducido (no sera por tanto solucin del sistema
inicial). Un razonamiento ms sencillo se hace cuando no hay incgnitas libres y
la solucin es nica: ambas soluciones, la del sistema inicial y la del reducido,
deben coincidir.

2.5 El mtodo de Gauss-Jordan


2.5

El mtodo de Gauss-Jordan
Una vez estudiado el mtodo de Gauss abordamos en este apartado la variante
de Gauss-Jordan. Las diferencias con el mtodo de Gauss son las siguientes:
1. Los pvots deben valer la unidad. Para ello se normalizan las filas con
pvot, esto es, se dividen por el pvot en caso de que no valga la unidad.
2. Se forman ceros tambin encima de los pvots mediante operaciones
elementales de clase III.
3. No hay fase de vuelta atrs. Las incgnitas pivotales se despejan
directamente, sin necesidad de seguir un orden dado, en funcin de las
incgnitas libres.
Se trata por tanto de un mtodo en que todo es eliminacin. Se llega a una matriz
simplificada, llamada la reducida de Gauss-Jordan, que toma la forma normal
escalonada por filas siguiente (ver figura 2.2).
0
0
0

0
0

[0

0
0
0

0
0

0

1 0
0 0 0 1
0 0 0 0

0 0 0 0
0 0 0 0

0 0 0 0

0
0

0
0
0 0

0 1
0 0

0 0




2.1
4

0

0 0]

Figura 2.2

Donde vale la unidad y encima de todo ceros (no hay solucin) o vale cero
y encima de valores cualesquiera o finalmente, no existe (hay solucin).
Proposicin 2.3: La reducida de Gauss-Jordan es nica para una matriz ampliada
dada
Demostracin: Se omite la demostracin.
Como el mtodo de Gauss-Jordan requiere la fase de eliminacin de Gauss, el
nmero de pvots que aparecen en la reducida de Gauss-Jordan (y en cualquier
reducida de Gauss) para una matriz es un invariante de esa matriz.

Ejemplo 2.14
En este ejemplo veremos cmo se trabaja con el mtodo de Gauss-Jordan.

2.5 El mtodo de Gauss-Jordan


Volviendo a la matriz ampliada del ejemplo 2.9 y trabajando en la fase de
eliminacin se obtuvo una reducida de Gauss
0
0
[
0
0

2
2
2
6

2 4
2 8
4 6
8 18

3
6
10
19

2
0
4
0
] [
8
0
10
0

2
0
0
0

2 4
3 2
2 6 10 16
]
0 4 3 6
0 0
0
0

En el mtodo de Gauss-Jordan esto es lo primero que hay que hacer. Se contina


con la variante de Gauss-Jordan normalizando las filas de los pvots al dividir cada
una por el pvot correspondiente
0 1 1 2 3/2 1
0 2 2 4
3 2
0 0 2 6 10 16
0 0 1 3
5
8
[
] [
]
0 0 0 4 3 6
0 0 0 1 3/4 3/2
0 0 0 0
0
0
0 0 0 0
0
0
A continuacin se forman ceros encima de cada pvot, empezando por el ltimo
hasta el primero
0 1 1 0
0
4
0 1 1 2 3/2 1
0 0 1 0 11/4 7/2
0 0 1 3
5
8
[
][
]
0 0 0 1 3/4 3/2
0 0 0 1 3/4 3/2
0 0 0 0
0
0
0 0 0 0
0
0
0
0
[
0
0

1
0
0
0

0
1
0
0

0
0
1
0

11/4
11/4
3/4
0

15/2
7/2
]
3/2
0

Ya podemos despejar las incgnitas pivotales en funcin de las libres que se


denotan como antes
1 = 1
5 = 2
de modo que
15 11
+ 2
2
4
7 11
3 = 2
2 4
3 3
4 = 2
2 4
obteniendo las mismas soluciones
2 =

1 = 1 , 2 =

15 11
7 11
3 3
+ 2 , 3 =
2 , 4 = 2 , 5 = 2
2
4
2 4
2 4

2.6 Estructura del conjunto de soluciones de =

Desde el punto de vista de la discusin de un sistema, esto es, de si un sistema


tiene solucin y en su caso de si sta es o no nica, se puede responder a la
cuestin al final de la fase de eliminacin de Gauss, trabajo ste que es comn
con la variante de Gauss-Jordan.
En resumen, partiendo de una reducida de Gauss:
1. No hay solucin si 0
2. Hay solucin si = 0 o no existe, en cuyo caso
a. La solucin es nica si el nmero de pvots es igual al nmero de
incgnitas
b. Hay ms de una solucin si el nmero de pvots es estrictamente
menor que el nmero de incgnitas.
2.6

Estructura del conjunto de soluciones de =


Vamos a estudiar qu relacin hay entre las soluciones de un sistema general
compatible, representado por =b, y las soluciones de su sistema homogneo
asociado, representado por = 0.
Denotemos con el conjunto de soluciones del sistema general compatible y
con el conjunto de soluciones del sistema homogneo asociado (siempre
compatible, pues al menos posee la solucin nula 0).
Proposicin 2.4: Las soluciones del sistema general compatible = son el
resultado de sumar una solucin particular 0 a las soluciones del sistema
homogneo asociado = 0 . Nota: El teorema se puede expresar
abreviadamente con = 0 + (ver figura 2.3).

Figura 2.3

2.6 Estructura del conjunto de soluciones de =

Demostracin: Se trata de probar la igualdad entre dos conjuntos y 0 + .


(Con la notacin 0 + queremos indicar el conjunto que resulta de sumar 0
a todos los elementos de ).
Para ello hace falta probar dos afirmaciones: todo elemento del primer conjunto
est en el segundo y, recprocamente, todo elemento del segundo conjunto est
en el primero.
Veamos: Sea 0 una solucin particular de = , por lo que se tendr la
identidad 0 = .
Directo: Si se tiene la nueva identidad = . Restando ambas
identidades se llega a que
( 0 ) = 0
de donde 0 = una solucin del sistema homogneo = . Se deduce
inmediatamente que = 0 + , esto es, es el resultado de sumar 0 a
una solucin del sistema homogneo, es decir, 0 + .
Recproco: si 0 + entonces = 0 + , con una solucin del
sistema homogneo. Multiplicando por por la izquierda la ltima identidad se
tiene,
= 0 + = + 0 =
esto es . Luego queda probada la identidad de conjuntos = 0 +
Consecuencia inmediata de la proposicin es que: Un sistema general
compatible ser determinado si y slo si es determinado el sistema homogneo
asociado.
Ejemplo 2.15
El sistema general
1 + 32 53 = 1
21 + 42 + 63 = 8
1
es compatible, pues tiene al menos la solucin 0 = [1]. El sistema homogneo
1
asociado
1 + 32 53 = 0
21 + 42 + 63 = 0

2.7 Inversas de y la ecuacin =


19

tiene las soluciones =

5
[2

] por lo que las soluciones del sistema general

sern de la forma
19
19
1+

1
5
5
= 0 + = [1] + 2
=

2
1
+

1
5
5
[ ]
[ 1+ ]
2.7

Inversas de y la ecuacin =
Sea una matriz de tamao general y una columna de elementos.
Qu implica para la ecuacin matricial = la existencia de inversa por la
izquierda de ? La respuesta la aporta la siguiente proposicin:
Proposicin 2.5: Si = tiene solucin, y si existe inversa por la izquierda
de , entonces la solucin es nica
Demostracin: Sea 0 una solucin de = . Debe cumplirse 0 = . Si
existiera otra solucin 1 se debera cumplir 1 = . Restando miembro a
miembro ambas identidades se tiene
(1 0 ) = 0
Multiplicando por la izquierda por
(1 0 ) = 0
(1 0 ) = 0
1 0 = 0
1 = 0
lo que significa que la solucin 0 es nica
Nota: En la proposicin 2.5 es crucial la existencia de solucin, no basta con que
exista ; si no hubiera solucin no cabe hablar de solucin nica.

Ejemplo 2.16
El sistema
1 + 2 = 3
1 + 22 = 5
1 + 2 = 3

2.7 Inversas de y la ecuacin =


1 1
1
tiene la solucin 0 = [ ]. La matriz = [1 2] tiene a la matriz
2
1 1
1
=[
0

1
1
]
1 1

como inversa por la izquierda, luego la citada solucin 0 es nica


Qu implica para la ecuacin matricial = la existencia de inversa por la
derecha de ? La respuesta la aporta la nueva proposicin:
Proposicin 2.6: Si existe inversa por la derecha de , entonces existe
solucin para la ecuacin =
Demostracin: Vamos a probar que 0 = es una solucin de = .
Veamos:
0 = () = () = =
luego = tiene al menos la solucin 0 =
En esta proposicin 2.6 no es cierto el recproco: La existencia de solucin no
implica necesariamente que exista inversa por la derecha de .
Ejemplo 2.17
El sistema
1 2 + 3 = 1
2 3 = 2
1 1 1
1
] como matriz del sistema y a = [ ] como columna
0 1 1
2
1 1
de trminos independientes. La matriz = [1 2] es una inversa por la derecha
1 1
1 1
3
1
de , luego 0 = = [1 2] [ ] = [5] es una solucin del sistema (no la
2
1 1
3
nica).
tiene a = [

Finalmente, qu implica para la ecuacin matricial = la existencia de


ambas clases de inversas y de ?
Proposicin 2.7: Si existen las inversas y de , la ecuacin = tiene
solucin y sta es nica
Demostracin: Si existe , por la proposicin 2.6 hay solucin; habiendo solucin
y existiendo , por la proposicin 2.5 la solucin es nica.

2.8 Obtencin de la inversa de una matriz regular


En el caso que existan y de se sabe que 1 = = , esto es, es una
matriz regular; la ecuacin = representa un sistema de Cramer. La citada
ecuacin tiene como solucin nica
0 = = 1

2.15

Ejemplo 2.18
1
La matriz = [
1

1
2 1
] tiene como matriz inversa 1 = [
]. El sistema
2
1
1
1 + 2 = 7
1 + 22 = 9

5
tiene como solucin nica 0 = [ ] que se puede obtener de
2
0 = 1 = [

2 1 7
5
][ ] = [ ]
1
1 9
2

La cuestin de cundo existe , o bien, cundo existe ser resuelta ms


adelante. Se requiere la nocin de rango matricial que se ver en el Captulo 5.
2.8

Obtencin de la inversa de una matriz regular


Se va a utilizar el mtodo de Gauss-Jordan para hallar la inversa 1 de una
matriz regular de orden . Previamente, considrese un sistema de Cramer,
dado por la matriz y una columna cualquiera, de la forma = . Sabemos
que tiene solucin 0 y sta es nica.
Debe ser el nmero de pvots de igual a , que es el orden de ; de ser menor,
o no habra solucin o de haberla no podra ser nica. En consecuencia, la
reducida de Gauss-Jordan de [ ] es [ 0 ].
Denotando con 1 , 2 , , las columnas de 1 y con 1 , 2 , , las
columnas de , se tiene
[1

1 =
] = [1 2

1 = 1
2 = 2
}

=
Lo que significa que 1 es la solucin nica de = 1; 2 es la solucin nica de
= 2 ; y as sucesivamente, es la solucin nica de = . Todos los
sistemas, por tener la misma matriz del sistema, se resuelven con las mismas
operaciones elementales por filas sobre la correspondiente matriz ampliada

2.8 Obtencin de la inversa de una matriz regular


[ 1 ] [
[ 2 ] [

[ ] [

1 ]
2 ]

n ]

Podemos resolver todos los sistemas a la vez ampliando con las columnas de
utilizando las misma operaciones elementales
[

] [

En definitiva,
[

1 ]

] [

2.16

y con ello se ha obtenido la inversa de .


Ejemplo 2.19
1
Se pide obtener la inversa de la matriz = [
3

2
] mediante Gauss-Jordan.
4

Veamos:
[
[

1
0

2 ] = [1 2 1
3 4 0

1
2
1 3/2

0
1
2
1 0
][
]
1
0 2 3 1

0
1
][
1/2
0

1
0 2
] = [2
1 3/2 1/2

1 ]

luego
1 = [

2
1
]
3/2 1/2

Proposicin 2.8: Toda matriz regular se puede descomponer como el


producto de matrices asociadas a operaciones elementales por filas.
Demostracin: Como la reducida de Gauss-Jordan de [ ] es [ 0 ] ,
mediante operaciones elementales por filas (premultiplicacin por matrices
asociadas) se puede transformar la primera matriz ampliada en la segunda. Si
1 , 2 , , son las matrices asociadas, se tiene
2 1 [
[ 2 1

] = [

2 1 ] = [

En particular
2 1 =
Despejando

0 ]
0 ]

2.9 Descomposicin de
= 11 21 1 = 1 2
donde las matrices tambin son elementales (por ser inversas de
elementales).
Nota: Un resultado similar se obtiene para matrices asociadas a operaciones
elementales sobre columnas.
2.9

Descomposicin de
Se pretende ahora resolver en este apartado el problema de descomponer una
matriz cuadrada como el producto de una matriz triangular inferior por una
matriz triangular superior ; la primera con su diagonal principal formada por
unos y la segunda con su diagonal principal formada por nmeros distintos de
cero, de modo que
=

2.17

Veremos que el problema de la descomposicin de no siempre tiene


solucin y, cuando la tiene, la solucin es nica.

Ejemplo 2.20
1
Se pide hallar la descomposicin de la matriz = [
3
Lo que se busca es una matriz de la forma = [
forma = [

], con 0, 0 tal que

1
=[
3

2
1
]=[
4

0
][
1 0

2
].
4
0
] y una matriz de la
1

] =

De esta ecuacin matricial con incgnitas , , , se obtiene el sistema


=1
=2
= 3
+ = 4
del que se deduce fcilmente la solucin nica
=3
=1
=2
= 2
y de ah

2.9 Descomposicin de
=[

1 0
1 2
], = [
]
3 1
0 2

Ejemplo 2.21
0 1
] es fcil darse
2 3
cuenta de que se llega a un sistema de ecuaciones incompatible. Luego esta
matriz no tiene descomposicin .
Caso de que se pida la descomposicin de la matriz = [

En lo que sigue vamos a establecer, sin justificar, las condiciones que se deben
cumplir para que exista la descomposicin de una matriz cuadrada de
orden y el mtodo de obtencin de las matrices y :
Condiciones de existencia de la :
1) Que la matriz tenga n pvots, lo que significa que es regular (por tener
un nmero de pvots igual a su orden).
2) Que al utilizar slo operaciones elementales de clase III sobre las filas de ,
para convertir en una matriz triangular superior , esos pvots aparezcan
secuencialmente en las posiciones (1,1), (2,2), , (, ).

Mtodo:
Si se cumplen las condiciones anteriores, la matriz triangular inferior , con unos
en la diagonal principal, est formada, en el tringulo estrictamente inferior, por
los mltiplos de Gauss que se hayan utilizado para convertir en la matriz
mediante slo operaciones elementales de clase III sobre las filas de . El
mltiplo de Gauss que se usa para formar un cero en la posicin (, ), con > ,
es el elemento de .Ntese que en la diagonal principal de estarn los
pvots (que son no nulos). Estas afirmaciones se dejan sin demostrar.
El siguiente ejemplo ayudar a comprender mejor lo anterior.
Ejemplo 2.22
3
1
1
Hallar la descomposicin de la matriz = [ 6
0
4].
9 11 9
Veamos: El primer pvot aparece en la posicin (1,1) y con l formamos dos
ceros debajo
21 = 2
3
1
1
3
1
1
=[ 6
[ 0
0
4]
2 2]
9 11 9
9 11 9

2.9 Descomposicin de
31 = 3
3
1
1
3 1
1
[0
[0 2 2 ]
2 2]
9 11 9
0 8 12
(2,2)y
El segundo pvot aparece en la posicin
con l formamos un cero debajo
32 = 4
3 1
1
3 1 1
[0 2 2 ]
[0 2 2] =
0 8 12
0 0 4
con lo que se logra la matriz .
Los mltiplos de Gauss utilizados 21 , 31 , 32 en el proceso forman el tringulo
estrictamente inferior de la matriz que viene dada por
1 0 0
= [ 2 1 0]
3 4 1
Si se hace el producto , con las matrices y obtenidas, se obtiene la
matriz .
Veamos ahora unas variantes de la descomposicin de :

1) Primera variante: Variante


Se parte de una matriz que posee descomposicin , de modo que = .
Se define la matriz diagonal formada por los elementos de la diagonal principal
de (los pvots)
11 0 0
0 22 0
=[
]
2.18


0
0
Esta matriz tiene inversa (por ser los pvots no nulos)
11 1
0

0
1
0
22

0
1 =

[ 0
0
1 ]

2.19

Se construye la matriz
= 1

2.20

Es fcil probar que esta matriz es triangular superior con unos en su diagonal
principal. Se tiene

2.9 Descomposicin de
= = = (1 ) = (1 ) =
con lo que se ha llegado a la descomposicin de
=

2.21

Ejemplo 2.23
Hallar la descomposicin de la matriz del ejemplo 2.22.
Partimos de las matrices y ya obtenidas, de modo que
1
=[ 2
3

0 0
3 1 1
1 0] = [0 2 2]
4 1
0 0 4

La matriz procede de la diagonal principal de


3
= [0
0

0 0
2 0]
0 4

Se construye como

1/3
0
0 3 1
1/2
0 ] [0 2
=[ 0
0
0
1/4 0 0

1 1/3 1/3
1
2] = [0
1
1 ]
4
0
0
1

y se tiene finalmente que =


2) Variante
Si es una matriz que tiene descomposicin y adems es simtrica se
puede probar fcilmente que = , llegndose de ese modo a la
descomposicin de
=

2.22

Ejemplo 2.24
2
Hallar la descomposicin de la matriz simtrica = [
4
Veamos:
2
=[
4

4
]
16

21 = 2

1 0
=[
],
2 1

2
[
0

2
=[
0

4
]=
8
0
]
8

4
]
16

2.9 Descomposicin de
Si se hace el producto se obtiene .
3) Variante de Cholesky
Se parte de una matriz que es simtrica, real, con pvots mayores que cero y
que tiene descomposicin . Se tiene
= = =
Denotando con 1 una matriz diagonal, con elementos diagonales mayores que
cero, tal que 12 = , se tiene
= = (1 1 ) = (1 )(1 ) = (1 )(1 ) =
donde
= 1

2.23

es una matriz triangular inferior, en cuya diagonal principal se hallan las races
cuadradas positivas de los pvots de .
Se ha llegado a la descomposicin
=

2.24

de , tambin llamada descomposicin de Cholesky.


Ejemplo 2.25
Hallar la descomposicin de Cholesky de la matriz real y simtrica del ejemplo
2 4
2.24 anterior = [
].
4 16
Se tiene
1 0
=[
],
2 1

2
=[
0

0
]
8

de modo que los pvots 2 y 8 son mayores que cero. En este caso ser
1 = [2 0 ]
0 8
y
= 1 = [

1 0 2
0 ] = [ 2
0 ]
][
2 1 0 22
22 22

Si se hace el producto se obtiene la matriz

2.9 Descomposicin de
Vamos a terminar este apartado con el uso de la descomposicin LU de A a la
hora de resolver el sistema representado por la ecuacin = . Veamos:
Las matrices cuadradas que poseen son regulares. Luego el sistema =
es de Cramer (solucin nica). Si se conoce la descomposicin de se
puede aprovechar para resolver el sistema = del siguiente modo:
=
() =
() =
= , =
Primero se resuelve el sistema triangular inferior
=

2.25

obteniendo la solucin 0 y luego se resuelve el sistema triangular superior


= 0

2.26

obteniendo definitivamente la solucin buscada 0 .


En la resolucin de 2.25 se despeja la primera incgnita, luego la segunda, hasta
la ltima; en cambio, para resolver 2.26 se despeja la ltima incgnita, luego la
penltima hasta la primera.
Ejemplo 2.26
Aprovechar la descomposicin de la matriz
3
1
=[ 6
0
9 11

1
4]
9

del ejemplo 2.22 para resolver el sistema = con


8
= [ 18 ]
4
Veamos: Se conocen ya las matrices y
1 0 0
3
= [ 2 1 0] , = [0
3 4 1
0
El sistema 2.25 se puede escribir

1 1
2 2]
0 4

2.10 Descomposicin de
1 = 8
21 + 2
= 18
31 + 42 + 3 = 4
del que se deduce 1 = 8, 2 = 2, 3 = 12, esto es
8
0 = [ 2 ].
12
El sistema 2.26 se puede escribir
31 + 2 + 3 = 8
22 + 23 = 2
43 = 12
del que se deduce 3 = 3, 2 = 2, 1 = 1, esto es
1
0 = [2]
3
que es la solucin del sistema inicial.
La descomposicin de es muy interesante para resolver muchos sistemas
que compartan la misma matriz del sistema pero con columnas de trminos
independientes diferentes; es suficiente hacer dos sustituciones, una hacia
adelante y otra hacia atrs, para cada columna.
Aunque no se ha estudiado todava la nocin de determinante, es bueno
adelantar este nuevo resultado: Cuando la matriz tiene descomposicin
se tiene la identidad
= det() = = 1 = = 11 22
esto es, el determinante de es el producto de los pvots.
2.10 Descomposicin de
Puede suceder que una matriz regular no tenga descomposicin , debido a
que los pvots no aparecen en las posiciones debidas. Siempre es posible, sin
embargo, desordenar las filas de mediante una matriz de permutacin de
modo que la nueva matriz regular tenga descomposicin .
=
Para resolver el sistema
=

2.27

2.11 Costo computacional


en este caso, se multiplica miembro a miembro la ecuacin por
=
y se hace la descomposicin de , con =
=
Se tiene = y se trabaja resolviendo el sistema = de solucin 0 , y a
continuacin el sistema = 0 , como ya se explic en el caso sencillo de que
tenga descomposicin , obteniendo definitivamente 0 .
Ejemplo 2.27
0
La matriz regular = [0
4

0 1
2 3] no tiene , pero s en cambio la matriz
5 6

0
4 5 6
[0 2 3] = = [0
1
0 0 1

0 1 0 0
1 0 ] [0 2
0 0 4 5

1
3]
6

En este caso tan sencillo es


0
= [0
1

0 1
1 0
1 0] , = [0 1
0 0
0 0

0
4 5
0] , = [0 2
1
0 0

6
3]
1

Caso de ser
1
b=[5]
15
se tiene
0 0
= = [0 1
1 0

1 1
15
]
[
]
=
[
0 5
5 ].
0 15
1

1
15
De = se obtiene 0 = [ 5 ] y de = 0 se halla 0 = [1]
1
1
2.11 Costo computacional
Las operaciones tienen un costo computacional derivado del tiempo que
requieren para realizarse. Este tiempo conecta con el que necesita la unidad de
procesamiento central del ordenador que se utilice para ejecutar las
correspondientes operaciones.

2.11 Costo computacional


Se suelen distinguir las operaciones de suma y producto de nmeros reales de
las de divisin entre nmeros reales.
Los problemas que utilizan las anteriores operaciones numricas se pueden
clasificar por su tamao, concepto que se puede comprender bien con los
siguientes ejemplos:
Para efectuar la siguiente suma de nmeros
1 + 2 + + 1 +
es necesario realizar
1

2.28

Cuando es grande, 1 es del mismo orden que . El tamao de nuestro


problema es y se escribe () para indicar que es de orden . El orden es
lineal, lo que significa que el tiempo de clculo es proporcional al tamao del
problema. Si duplicamos el tamao se duplica el tiempo.
Veamos los casos ms interesantes:

a) Producto fila-columna
El producto de una fila por una columna, ambas de elementos, conduce a una
expresin de la forma
1 1 + 2 2 + + 1 1 +
Hacen falta
1
}

2.29

Cuando es grande, 1 es del mismo orden que . El tamao de nuestro


problema sigue siendo y se escribe () para indicar que es de orden . Es un
problema lineal.
b) Producto de dos matrices cuadradas
El producto de dos matrices cuadradas y de orden requiere 2 productos
fila-columna, esto es, un total de
2 ( 1) = 3 2
}
2.30
2 = 3

2.11 Costo computacional


Como 2 es despreciable frente a 3 cuando es grande, siendo nuestro
problema de tamao , su orden es 3 y se escribe (3 ). Se trata de un orden
cbico, lo que significa que si duplicamos el tamao del problema el tiempo se
multiplica por ocho.
En lo que sigue nos va a interesar el costo computacional de la resolucin de
sistemas y de la inversin de una matriz regular, sin justificar los valores que se
indican para las diferentes operaciones:
c) Mtodo de Gauss para un sistema de Cramer de ecuaciones y
incgnitas
El tamao del problema es . Se necesitan en las dos fases (eliminacin y vuelta
atrs) un total de
3 2 5
+

3
2
6
2.31
3

+ 2 }
3
3
3

El problema es cbico y de orden ( 3 ). La mayor parte de tiempo se consume


en la fase de eliminacin, pues la fase de vuelta atrs requiere un total de
( 1)

2
( 1)

2
}

2.32

que es de orden cuadrtico ( 2 ), muy inferior al cbico.


d) Mtodo de Gauss-Jordan para un sistema de Cramer de ecuaciones y
incgnitas
El tamao del problema es . Se necesitan un total de
3

2 2

3 2
+
}
2
2

2.33

El problema vuelve a ser cbico, de orden ( 2 ), pero comparado con el mtodo


de Gauss el mtodo de Gauss-Jordan es ms lento: en concreto un 50% ms lento,
ya que

2.11 Costo computacional


3 3 3
=
2
2
3

2.34

e) Mtodo de Gauss-Jordan para invertir una matriz regular


Si se usa el mtodo de Gauss-Jordan para hallar la inversa de una matriz
regular de orden hacen falta un total de
3 22 +
}
3

2.35

Se trata de un problema de orden (3 ). Lo sorprendente es que invertir una


matriz regular por Gauss-Jordan exige tres veces ms de tiempo que resolver
el sistema = por Gauss; ms an, si se resuelven por Gauss los sistemas
de ecuaciones = , = 1,2, , , con el fin de hallar la inversa de , no se
gana sustancialmente en tiempo de clculo. De todos modos, no es aconsejable
resolver el sistema = , calculando previamente 1 , para luego hallar la
solucin 0 = 1 (muy costoso cuando toma un valor grande).
f) Descomposicin de Cholesky
La obtencin de la matriz de la descomposicin de Cholesky de una matriz
cuadrada de orden n (caso de existir) requiere:
(2 1)

6
(2 1)

6
( 1)

2
}

2.36

Es un problema de orden (3 /6).


g) Solucin del sistema = conocida la descomposicin de
Es un problema de orden (2 ). Se requiere un total de
( 1)
( 1) }
2

2.37

2.11 Costo computacional

2.11 Costo computacional

Determinantes
3

Desde el punto de vista histrico los determinantes precedieron a las matrices.


Antiguamente se hizo uso extensivo de ellos en la resolucin de sistemas de
ecuaciones lineales, si bien las tcnicas Gaussianas son en la actualidad las que
de hecho se utilizan, habida cuenta la ventaja de la velocidad de clculo. Los
determinantes tienen aplicaciones en la resolucin de determinados problemas
geomtricos y en el anlisis funcional. En este Curso nos interesan especialmente
por su conexin con el problema propio, esto es, para qu valores de existen
columnas no nulas tal que = , siendo una matriz cuadrada? La
respuesta la encontraremos en las soluciones de la ecuacin ( ) = 0.
Se introducen los determinantes a travs de la nocin de permutaciones de los
nmeros naturales 1,2, , , y se estudia la funcin determinante y sus
propiedades. La nocin de adjunto de un elemento prepara la definicin de
matriz adjunta de otra matriz que conduce, a su vez, al clculo de la matriz
inversa de una matriz regular. Se estudia el caso particular de las matrices
regulares, la regla de Cramer y el clculo prctico de los determinantes. Con el
determinante de Vandermonde, el mtodo de Laplace y el rango de una matriz
se cierra este Captulo.

3.1 Definiciones
3.1

Definiciones
Una permutacin de los primeros nmeros naturales 1, 2, , est
formada por esos nmeros (1), (2), , () , pero posiblemente
cambiados de orden. As, para = 4 , los nmeros 4, 3, 1, 2 forman una
permutacin de los nmeros 1, 2, 3, 4. En general, hay un total de ! ( factorial)
permutaciones de nmeros sin repeticin. En el caso de = 4 habr un total
de 4! = 1 2 3 4 = 24 permutaciones. Denotaremos, en general, con
al conjunto de todas las permutaciones de los primeros nmeros naturales
1, 2, , .
Se dice que en la permutacin (1), (2), , (), , (), , () hay una
inversin si < pero () > (). Por ejemplo, en la permutacin 4, 3, 1, 2 el
nmero 4 presenta tres inversiones con los nmeros 3, 1, 2 y el nmero 3
presenta 2 inversiones con los nmeros 1, 2. Se denotar con () el nmero
total de inversiones de la permutacin . As, en nuestro ejemplo, hay un total
de 5 inversiones.
Se define el signo de la permutacin mediante
= (1)()

3.1

En nuestro ejemplo = (1)5 = 1.


Ya podemos dar una definicin, un tanto terica, del determinante de una matriz
cuadrada de orden mediante la expresin
= 1,(1) 2,(2) ,()

3.2

donde recorre todo el conjunto de permutaciones . Se trata de una suma de


! sumandos, tantos como permutaciones de nmeros. Cada sumando es el
producto del signo de una permutacin por el resultado de multiplicar
elementos de la matriz , pertenecientes a filas distintas y a columnas
distintas; ntese que en cada sumando las filas de los elementos de que se
multiplican estn numeradas en el orden natural 1, 2, , y las columnas
(1), (2), , () segn la permutacin .
Ejemplo 3.1
Sea una matriz cuadrada de orden dos
11
= [

21

12
22 ]

3.1 Definiciones
Se tiene = 2. Hay dos permutaciones de los nmeros 1,2:
1 = 1,2 1 = 1
2 = 2,1 2 = 1
En este caso, segn 3.2
= 1 11 22 + (1) 12 21 = 11 22 12 21

3.3

Se ha obtenido una regla general para calcular el determinante de las matrices


cuadradas de orden dos. (El determinante de una matriz de orden uno coincide
con el nico elemento de esa matriz, caso trivial)
Ejemplo 3.2
Sea una matriz cuadrada de orden tres
11
= [21
31
Se

12
22
32

13
23 ]
33

tiene = 3. Hay seis permutaciones de los nmeros


1 = 1,2,3, 2 = 2,3,1, 3 = 3,1,2 1 = 2 = 3 = 1

1,2,3:

4 = 2,1,3, 5 = 3,2,1, 6 = 1,3,2 4 = 5 = 6 = 1


De modo que aplicando la frmula 3.2 se llega a
= 11 22 33 + 12 23 31 + 13 21 32
12 21 33 13 22 31 11 23 32

3.4

Se ha obtenido la llamada regla de Sarrus, vlida slo para matrices cuadradas


de orden tres.
Ejemplo 3.3
El clculo del determinante de la matriz de orden tres
1 2 3
= [4 5 6 ]
7 8 9
vale cero, pues es el resultado que se obtiene por la regla de Sarrus
= 1 5 9 + 2 6 7 + 3 4 8
2 4 9 3 5 7 1 6 8 = 0

3.2 Propiedades
De todo lo explicado se puede afirmar que el determinante de una matriz
cuadrada es un nmero, perteneciente al campo numrico de la citada matriz,
que depende de los elementos de la misma, segn la frmula indicada en 3.2
3.2

Propiedades
En lo sucesivo nos conviene pensar en una funcin determinante, denotada
, que acta sobre las columnas de una matriz cuadrada de orden ,
dando como resultado el determinante de definido anteriormente
() = ([1 2 ]) =

3.5

Se puede probar (se omite la demostracin) que la funcin determinante


cumple las siguientes propiedades, que la determinan de modo nico, las cuales
son consecuencia de la definicin de determinante de 3.2 y de la exigencia
impuesta en 3.5:
Propiedades:

1. ([1 2 + ]) = ([1 2 ]) +
([1 2 ])
2. ([1 2 ]) = ([1 2 ])

3. ([1 2 ]) = ([1 2 ])
4. ( ) = ([1 2 ]) = 1

La propiedad 1 afirma que si una columna es suma de otras dos columnas y ,


el determinante se puede descomponer como suma de dos determinantes: el
primero se lleva la columna y el segundo la columna , dejando las dems
columnas en su lugar.
La propiedad 2 afirma que si una columna es mltiplo escalar de otra columna ,
en la forma , el determinante se puede expresar como el factor por otro
determinante que retiene la columna y deja intactas las dems columnas.
La propiedad 3 afirma que si se intercambian entre s dos columnas y que
ocupan posiciones distintas, el determinante cambia de signo.

3.2 Propiedades
Las propiedades 1, 2 y 3 permiten afirmar que la funcin determinante es una
forma multilineal alternada. De la propiedad 3 se deduce inmediatamente que
([1 2 ]) = 0

3.6

esto es, cuando en la matriz hay dos columnas iguales, el determinante se anula.
Finalmente, la propiedad 4 afirma que el determinante de la matriz identidad
vale la unidad.
Consecuencias:
De las propiedades que definen la funcin determinante se pueden extraer,
entre otras, las siguientes consecuencias (de las que se omite la demostracin):
1. Si una columna de es combinacin lineal de las dems columnas de ,
el determinante se anula. Lo que significa que si hay una columna de
de la forma
= 1 1 + 2 2 + + 1 1 + +1 +1 + +
3.7
entonces
([1 2 ]) = 0

3.8

2. Si a una columna de se le suma una combinacin lineal de las dems


columnas de , el determinante no vara. Esto es, si
= 1 1 + 2 2 + + 1 1 + +1 +1 + +
entonces
([1 2 ]) = ([1 2 + ])
3.9
3. Las operaciones elementales sobre las columnas de , si son de clase I
cambian de signo el valor del determinante; si son de clase II multiplican
el valor del determinante por el correspondiente escalar; y si son de clase
III no alteran el valor del determinante.
4. ( + ) + , en general.
5. () =
6. ( ) =
Esta ltima consecuencia afirma que la trasposicin no altera el valor del
determinante. Lo que significa que cualquier propiedad enunciada sobre las
columnas de sigue siendo cierta si se enuncia sobre las filas de ".
7. () =

8. () =
9. (1 ) = 1/ , supuesto regular

3.3 Menores
En los ejercicios resueltos de este Captulo se comprender mejor el alcance de
las propiedades y consecuencias.
3.3

Menores
Se llama menor de orden de una matriz (no necesariamente cuadrada) al
determinante de la submatriz cuadrada de que resulta de fijar filas y
columnas de .
Si se fijan las filas 1 , 2 , , y las columnas 1 , 2 , , utilizaremos la notacin
(1 , 2 , , ; 1 , 2 , , )
para denotar el citado menor.

Ejemplo 3.4
Dada la matriz
1 2
= [5 6
9 10

3
7
11

4
8]
12

Es
6
(2, 3; 2, 4) = [
10

8
] = 8
12

Para matrices cuadradas es interesante definir un menor principal de orden


como un menor de orden que resulta de fijar filas y las mismas columnas
de . Se simplifica la notacin a (1 , 2 , , ).
Ejemplo 3.5
Dada la matriz
1 2 3
= [4 5 6 ]
7 8 9
el menor

(2,3) = [

5 6
] = 3
8 9

es un menor principal de .
Un menor principal de orden se llama menor principal angular si se fijan las
primeras filas y las primeras columnas.

3.4 La matriz adjunta


Ejemplo 3.6
Dada la matriz anterior
1 2 3
= [4 5 6 ]
7 8 9
el menor
(1,2) = [

1 2
] = 3
4 5

es un menor principal angular de .


3.4

La matriz adjunta
Se llama menor complementario del elemento de la matriz cuadrada al
menor formado por las 1 restantes filas distintas de la fila y las 1
restantes columnas distintas de la columna de la matriz , o lo que es
equivalente: el determinante de la matriz que resulta de suprimir en la fila y
la columna . El menor complementario de se denota por .

Ejemplo 3.7
Dada la matriz
1 2 3
= [4 5 6 ]
7 8 9
el menor complementario del elemento 12 = 2 es
12 = [

4 6
] = 6
7 9

Se llama adjunto del elemento de la matriz cuadrada al menor


complementario de afectado del coeficiente (1)+ . El adjunto se denota
por de modo que
= (1)+
Ejemplo 3.8
Dada la matriz
1 2 3
= [4 5 6 ]
7 8 9

3.10

3.4 La matriz adjunta


el adjunto del elemento 12 = 2 es
12 = (1)1+2 12 = (6) = 6
Ya estamos en condiciones de definir la matriz adjunta de la matriz cuadrada
como la traspuesta de la matriz de adjuntos. Se denota , de modo que
11
= [
1

1
11
] =[

1

1
]

3.11

Ejemplo 3.9
La adjunta de la matriz
1 2 3
= [4 5 6 ]
7 8 9
es la matriz
3
6
= [ 6 12
3
6

3
6]
3

Se van a enunciar dos proposiciones sin demostracin:


Proposicin 3.1: Si se multiplican los elementos de una fila (o columna) de una
matriz cuadrada por sus correspondientes adjuntos y se suman los resultados
obtenidos se obtiene el valor del determinante de ".
Demostracin: Se omite la demostracin.
Eligiendo, por ejemplo, la fila de se puede escribir
1 1 + 2 2 + + =

3.12

Proposicin 3.2: Si se multiplican los elementos de una fila (o columna) de una


matriz cuadrada por los adjuntos de los correspondientes elementos de una
fila (o columna) distinta y se suman los resultados obtenidos se obtiene como
resultado cero".
Demostracin: Se omite la demostracin.
Lo que significa que, eligiendo las fila y de se puede escribir
1 1 + 2 2 + + = 0,

3.13

Obsrvese que las dos identidades 3.12 y 3.13 se pueden condensar en una nica
identidad

3.5 Las matrices regulares


1 1 + 2 2 + + =

3.14

donde es la llamada delta de Kronecker y que toma los valores


1, =
= {

3.15

0,

Proposicin 3.3: El producto de la matriz cuadrada por su matriz adjunta es


igual al determinante de la matriz por la matriz identidad, esto es,
=

3.16

Nota: La matriz no tiene por qu ser regular.


Demostracin:

= [1

3.5

1
] [


] = [

] =

] =

Las matrices regulares


Ya estamos en disposicin de probar dos afirmaciones que permiten identificar
las matrices cuadradas de determinante distinto de cero con las matrices
regulares:
Proposicin 3.4: Si el determinante de una matriz cuadrada es distinto de
cero, entonces es regular
Demostracin:
Sea una matriz cuadrada con 0. De la identidad 3.16 se deduce que

(
) =

de donde
1 =

3.17

luego es regular
La frmula 3.17 permite obtener la inversa de una matriz regular utilizando
determinantes.

3.6 La regla de Cramer


Proposicin 3.5: Recprocamente: Si es una matriz regular, entonces el
determinante de es distinto de cero
Demostracin:
Si es una matriz regular, existir 1 , cumplindose 1 = . Tomando
determinantes miembro a miembro
(1 ) = ( )
(1 ) = 1

3.18

Si el producto de dos nmeros es la unidad, ninguno de ellos puede ser cero,


luego en particular
0
lo que se quera probar.
Ntese que de 3.18 se deduce la interesante frmula
(1 ) =

3.19

Ejemplo 3.10
La inversa de la matriz
1 2 0
= [3 0 2 ]
0 3 1
es la matriz
1

3.6

1/2

1 6 2 4
=
=
[3 1 2] = [ 1/4
12
3/4
9 3 6

1/6
1/12
1/4

1/3
1/6 ]
1/2

La regla de Cramer
Se utiliza para resolver sistemas = , con una matriz regular de orden
(sistemas de Cramer), mediante determinantes.
Se sabe que estos sistemas tienen solucin nica 0 = 1 . No se trata aqu de
usar la frmula 3.17 para calcular 1 y luego multiplicar por , que exigira el
tedioso clculo de la matriz adjunta de .
Ntese que si

3.6 La regla de Cramer

= [1 2 ],

10
20
0 = [ ]
0

y 0 es la solucin de = se tiene
10
20
= 0 = [1 2 ] [ ] = 10 1 + 20 2 + + 0 + + 0 =
0
0 +
donde se ha escrito primero el sumando y se han agrupado en los dems
sumandos, por lo que es combinacin lineal de las columnas de , a excepcin
de la columna , y ello para una columna dada.
Si sustituimos en [1 2 ] la columna de por la columna se
tiene
[1 2 ] = [1 2 0 + ] =
[1 2 0 ] + [1 2 ]
= 0 [1 2 ] + 0 = 0
y de ah se despeja 0
0 =

[1 2 ]

3.20

donde toma todos los valores de 1 a


Con la expresin 3.20 se resuelve el sistema incgnita a incgnita. Veamos un
ejemplo:
Ejemplo 3.11
Se considera la matriz regular
1 2 0
= [3 0 2 ]
0 3 1
y la columna
12
= [24]
48

3.7 Clculo prctico de determinantes


Se desea resolver por la regla de Cramer el sistema = .
Denotando con 1 , 2 , 3 las columnas de , la solucin viene dada por
12 2 0
[24 0 2]
[ 2 3 ]
48 3 1 = 6
=
=

12

10

20

30

1 12 0
[3 24 2]
[1 3 ]
0 48 1 = 9
=
=

12
1 2 12
[3 0 24]
[1 2 ]
0 3 48 = 21
=
=

12

esto es,
6
0 = [ 9 ]
21
3.7

Clculo prctico de determinantes


1) Desarrollo por los elementos de una fila o columna
La frmula 3.12
1 1 + 2 2 + + =
muestra cmo calcular el determinante de desarrollado por los elementos de
la fila de . Conviene desarrollar por una fila (o columna) que posea el mayor
nmero posible de ceros, ya que para esos elementos no har falta calcular su
correspondiente adjunto. Un ejemplo:

Ejemplo 3.12
Se pide calcular el siguiente determinante:
0
1
[
1
3

2
2
4
5

0
3
0
0

0
4
].
6
7

Desarrollando por la primera fila y luego por la segunda columna

3.7 Clculo prctico de determinantes


0
1
[
1
3

2
2
4
5

0
3
0
0

0
1 3 4
4
] = 2 (1) [1 0 6]
6
3 0 7
7
1 6
= 2 (1) 3 [
] = 6 (11) = 66
3 7
2) De matrices triangulares
De otra parte, las matrices triangulares (inferiores o superiores) tienen un
determinante muy sencillo de calcular, pues resulta de multiplicar los
elementos de la diagonal principal de la matriz, cuestin que se prueba para el
caso de las triangulares inferiores en la siguiente proposicin (se seguira con las
triangulares superiores un razonamiento anlogo):
Proposicin 3.6: El determinante de la matriz triangular inferior
11
21
=[

0
22

0
0
]

viene dado por


= 11 22

3.21

esto es el producto de los elementos de la diagonal principal


Demostracin: Desarrollando por la primera fila de se tiene
22
= 11 [
2

0
]

que es el producto de 11 por el determinante de una matriz triangular inferior


de orden 1. Repitiendo sucesivamente el procedimiento se llega finalmente
al resultado
= 11 22
Un resultado anlogo se obtiene para las matrices triangulares superiores.
3) Conversin a una matriz triangular
La facilidad de clculo de las matrices triangulares explica por qu conviene, para
calcular el valor de su determinante ms fcilmente, convertir una matriz en

3.7 Clculo prctico de determinantes


triangular, mediante operaciones elementales por filas y/o columnas,. El
siguiente ejemplo puede aclarar lo que aqu se afirma:
Ejemplo 3.13
Se pide calcular el determinante de la siguiente matriz
1 2 3
= [4 5 6].
7 8 9
Veamos:
1 2 3
1 2
3
[4 5 6] = [0 3 6 ] =
7 8 9
0 6 12
1 2
3
[0 3 6] = 1 (3) 0 = 0
0 0
0
En este ejemplo slo se han usado operaciones elementales de clase III sobre las
filas de la matriz.
Otro ejemplo interesante:
Ejemplo 3.14
1 1
Dada la matriz = [1 1
1 1

1
1] se pide calcular el determinante de .
1

Veamos:
1
( ) = [ 1
1

1
1
1

1
1
(3 ) [1 1
1
1

1
3
]
=

[
1
1
1
1

3
1
1

1
1 1
1 ] = (3 ) [0
1
0 0

3
1 ]=
1

1
0 ]=

(3 )()2 = 3 + 32
En este ejemplo se ha comenzado sumando a la primera fila las filas segunda y
tercera, para lograr un factor comn 3 en la primera fila; una vez extrado, a
la segunda y tercera fila se le restan la primera formada por todo unos,
obteniendo el determinante de una matriz triangular superior. El resto es
evidente.
4) Matrices tridiagonales
Las matrices cuadradas de orden tridiagonales de la forma

3.7 Clculo prctico de determinantes


0

0

0 0 0
[0 0 0

0 0
0 0
0 0


]

poseen un determinante que se puede obtener recursivamente conociendo


los dos determinantes de rdenes inmediatamente inferiores 1 y 2, pues
desarrollando por la primera fila de se tiene

=
0
[0

0
0

0 0
[0 0
]

1 2
donde el primer determinante es 1 y el segundo se ha desarrollado a su vez
por su primera columna obteniendo 2.
En definitiva,
= 1 2

3.22

Una frmula general para en funcin de los valores de , , , se puede


hallar utilizando ecuaciones en diferencias: Se parte de la ecuacin de segundo
grado 2 + = 0 cuyas races son y . Se dan dos situaciones posibles:
a) , en cuyo caso
= 1 + 2

3.23

= 1 + 2 1

3.24

b) = , en cuyo caso

En ambos casos, los coeficientes 1 y 2 se determinan para valores pequeos de


. Se omite la justificacin de las citadas afirmaciones.
Ejemplo 3.15
Se pide hallar el valor del siguiente determinante de orden
3 2 0 0
1 3 2 0
0 1 3 0
= det

0 0 0 3
[0 0 0 1

0
0
0

2
3]

3.8 El determinante de Vandermonde


La ecuacin 2 + = 0 es en este ejemplo 2 3 + 2 = 0 . Las
soluciones de la ecuacin son = 1 y = 2, distintas entre s, luego
= 1 1 + 2 2
Como 1 = 3 y 2 = 7, se tiene
1 = 1 + 22 = 3
2 = 1 + 42 = 7
deducindose
1 = 1,

2 = 2

de donde
= 1 + 2+1
5) Matrices triangulares por bloques
Es frecuente encontrarse con la necesidad de calcular el determinante de una
matriz triangular por bloques, con bloques diagonales cuadrados. Se puede
probar que el citado determinante es igual al producto de los determinantes de
los bloques diagonales. As, por ejemplo,
11

[ 21

22

] = 11 22

3.25

Ejemplo 3.16
Se pide calcular el determinante de la siguiente matriz
1 1 1 0 0
1 2 2 0 0
= 1 2 3 0 0
5 6 7 1 2
[8 9 10 3 4]
Tiene dos bloques cuadrados diagonales por lo que
1 1
= [1 2
1 2
3.8

1
1 2
] = 1 (2) = 2
2] [
3 4
3

El determinante de Vandermonde
El determinante de Vandermonde es un determinante de orden que
aparece en determinadas ocasiones, por las que se justifica su estudio. Depende
de parmetros 1 , 2 , , . Formulado en trminos de filas, la fila de la

3.9 El mtodo de Laplace


matriz est formada por las potencias naturales de 0 hasta 1 de , con =
1,2, , .
1
1
1
2
3
= 1

1 1
[1

Se puede probar que

12
22
32

2
1
2

12
22
32

2
1
2

= ( )

11
21
31

1
1
1 ]

3.26

>

Se trata del producto de todas las diferencias posibles entre pares de


nmeros de 1 , 2 , , de modo que el subndice de sea mayor que el
subndice de .
Un ejemplo aclarar esta cuestin:
Ejemplo 3.17
Se pide calcular el determinante de la siguiente matriz
1
= [1
1

2
2]
2

Se trata del determinante de Vandermonde de orden tres, dependiente de , , .


Aqu 1 = , 2 = , 3 = . Se tiene por tanto
= 3 = (3 2 )(3 1 )(2 1 ) = ( )( )( )
Proposicin 3.7: El determinante de Vandermonde vale cero si y slo si =
para un par de subndices (, ),
Demostracin: es un producto de factores de la forma . El resultado
del producto es cero si y slo si algn factor es cero.
3.9

El mtodo de Laplace
Sea una matriz cuadrada de orden . El mtodo de Laplace consiste en fijar
filas de , por ejemplo 1 , 2 , , , y con columnas de 1 , 2 , , se van
formando todos los menores

3.9 El mtodo de Laplace


(1 , 2 , , ; 1 , 2 , , )
de orden de que se pueden obtener con esas filas y columnas, con 1 <

2 < < . En total ( ) menores.

Denotaremos con
(1 , 2 , , ; 1 , 2 , , )
el adjunto del menor (1 , 2 , , ; 1 , 2 , , ), definido mediante

(1 , 2 , , ; 1 , 2 , , ) =
1 +2 ++ +
(1) 1 +2 ++ (1 , 2 , , ; 1 , 2 , , )

3.27

esto es, el producto de un coeficiente por el menor, donde el citado coeficiente


se obtiene elevando (1) a la suma de la numeracin de filas y de columnas del
menor.
Se puede probar bastante laboriosamente que
=
=

(1 , 2 , , ; 1 , 2 , , ) (1 , 2 , , ; 1 , 2 , , )

3.2
8

11 <2 <<

esto es, el valor del determinante es la suma de los productos de los menores
procedentes de fijar filas por sus correspondientes adjuntos.
El mtodo de Laplace tiene como caso particular el desarrollo de un
determinante por los elementos de una fila o columna (cada elemento es un
menor de orden uno).
Ejemplo 3.18
Calcular el determinante de la siguiente matriz
1
3
= 1
5
[1

2
4
2
4
0

0
0
3
3
1

0
0
4
2
1

1
1
5
1
0]

Comenzamos, fijadas las filas primera y segunda, se tienen tres menores de


orden dos distintos de cero
1
[
3

2
1 1
2
] = 2, [
] = 2, [
4
3 1
4

1
] = 2
1

3.10 Rango y determinantes


Sus correspondientes adjuntos son
(1)6

3
[3
1

2
(1)9 [4
0
1
(1)10 [5
1

4 5
2 1] = 12 ,
1 0
3 4
3 2] = 6
1 1
3 4
3 2] = 18
1 1

luego
= (2) (12) + (2) (6) + (2) 18 = 0
3.10 Rango y determinantes
Sea una matriz de tamao . El rango de es un invariante de la matriz
y se define como: el orden del menor no nulo de A de mayor orden. La
definicin significa que si tiene un menor distinto de cero, de orden , y todos
los menores de orden mayor que valen cero, entonces es el rango de . En
ese caso, bastara con que fueran cero los menores de orden + 1 , para
garantizar que es el rango de , recordando cmo se calcula un determinante
en funcin de los adjuntos (menores con signo) de un orden inferior.
Es evidente que: el rango de no puede ser mayor que el nmero de filas ni
que el nmero de columnas.
Ejemplo 3.19
Se pide calcular el rango de la siguiente matriz
1 2 3
= [4 5 6]
7 8 9
Veamos: Hay un menor de orden dos distinto de cero, por ejemplo
det [

1 2
] = 3
4 5

El nico menor que existe de orden tres, que es el determinante de , es nulo,


luego
() = 2

3.10 Rango y determinantes


Se puede probar que el rango matricial de coincide con el nmero de pvots
que se producen cuando la matriz se toma como matriz de un sistema de
ecuaciones lineales y se utilizan tcnicas Gaussianas.
La siguiente proposicin (sin demostracin) muestra su utilidad en la discusin
de un sistema de ecuaciones lineales de la forma = :
Proposicin 3.8: El sistema de ecuaciones y incgnitas = es
compatible si y slo si () = ([ ]). En cuyo caso, el sistema es
determinado si () = , e indeterminado si () <
Demostracin: Se deja sin demostracin.
Ejemplo 3.20
El sistema = con
1 2
= [4 5
7 8

3
6
6] , = [15]
9
24

es compatible e indeterminado, pues


() = ([

]) = 2 < 3 = ,

siendo = 3 el nmero de incgnitas.


Se dejan para ms adelante otras propiedades del rango.

You might also like