Professional Documents
Culture Documents
etodes Num`
erics
1
Sistemas Lineales.
En este tema tratamos la parte numerica de varios problemas de algebra lineal que se
1.1
Introduccion
Consideremos el sistema de
a1,1 x1
a2,1 x1
..
a x
n,1 1
que en lenguaje matricial
a1,1
a2,1
A = ..
.
an,1
ecuaciones lineales
+ a1,2 x2 + + a1,m xm = b1 ,
+ a2,2 x2 + + a2,m xm = b2 ,
..
..
..
..
.
.
.
.
+ an,2 x2 + + an,m xm = bn ,
a1,2 a1,m
x1
x2
a2,2 a2,m
,
x
=
y
b
=
..
.
.
..
.
.
.
.
.
.
an,2 an,m
xm
(1)
b1
b2
..
.
bn
det(Aj )
det(A)
1.2
M
etodos directos
Comenzamos desarrollando algunas estrategias para resolver sistemas lineales con matrices
particularmente sencillas.
1.2.1
Sistemas diagonales
Sustituci
on hacia atr
as
bn
an,n
For i = n 1, . . . , 1
P
bi nj=i+1 ai,j xj
xi =
ai,i
Para el calculo de xk se necesitan n k multiplicaciones, n k restas y una division. En
total, para calcular la solucion hemos de realizar n(n 1)/2 multiplicaciones, n(n 1)/2
restas y n divisiones. En consecuencia para un problema de dimension n necesitamos
aproximadamente n2 operaciones. La siguiente funcion en Maxima implementa este
algoritmo y presenta algunos comandos novedosos como length y makelist.
LinSolveBSubs(_A,_b):=
block(
[i,j,s,x:[],n],
n:length(_b),
x:makelist(0,i,1,n),
x[n]:(_b[n]/_A[n,n]),
for i:n-1 thru 1 step -1 do
(
s:0,
for j:i+1 thru n do
s:s+_A[i,j]*x[j],
4
x[i]:(_b[i]-s)/_A[i,i]
),
return(x)
)$
Destacamos que la rutina LinSolveBSubs puede tener problemas si la matriz A tiene
valores nulos sobre la diagonal. Incluso valores demasiado peque
nos en la diagonal pueden
provocar que las divisiones involucradas produzcan valores fuera de rango Overflow.
Ejemplo 1 Resolvamos el sistema
1 1
0 1
A=
0 0
0 0
4
0
3
1 5
y b = 7
13
3
13
13
0 13
(%o5)
[1, 2, 0, 1]
1.2.3
Sustituci
on hacia adelante
b1
a1,1
For i = 2, . . . , n
P
bi i1
j=1 ai,j xj
xi =
ai,i
Para el calculo de xk se necesitan k 1 multiplicaciones, k 1 restas y una division, que
en total son n(n1)/2 multiplicaciones, n(n1)/2 restas y n divisiones, equivalentemente
n2 operaciones.
De forma analoga podemos escribir un procedimiento en maxima que implemente el
algoritmo de sustitucion hacia adelante al que llamaremos LinSolveFSubs(A,b).
1.2.4
M
etodo de Gauss
son equivalentes.
c) Restar a una ecuaci
on una
ejemplo los sistemas (1) y
a1,1 x1
+
a
x
+
2,1 1
..
Pn .
(ak,1 (i=1) i ai,1 )x1 +
i6=k
..
an,1 x1
+
combinaci
on lineal del resto de las ecuaciones. Por
+
+
a1,m xm
=
b1
a2,m xm
=
b2
..
..
Pn.
Pn .
+ (ak,m (i=1) i ai,m )xm = bk (i=1) i bi
i6=k
i6=k
..
..
.
.
+
an,m xm
bn
(2)
tienen las mismas soluciones. En efecto, si x = (x1 , x2 , . . . , xm ) es una solucion de
(1), entonces todas las ecuaciones de (2), salvo quizas la kesima, se satisfacen. Pero
incluso esta ecuacion es sencillo ver que se satisface, puesto que es una combinacion
lineal de ecuaciones que ya hemos comentado que se satisfacen.
Recprocamente, si tenemos una solucion de (2), entonces todas las ecuaciones de (1),
salvo quizas la k-esima que es la u
nica en la que difieren, se satisfacen. Dado que la
k-esima ecuacion de (2) es una combinancion lineal de las restantes, y estas sabemos
que se satisfacen, tenemos que la k-esima ecuacion de (1) tambien se satisface. Lo
que prueba que ambos sistemas son equivalentes.
1
1
a1,1 a11,2 a11,n b11 ,
a1,1 a11,2 a11,n b11 ,
F11
1
2
1
2
1
2
1
F21
a2,1 a2,2 a2,n b2 , m2i,1 = 1a1i,1 /a1 1, 11 0 a2,2 a2,n b2 ,
..
..
..
..
..
..
.. iFi= =2, F3,i. .. ,mni,1 F1 ..
.. .
..
..
.
.
.
.
.
.
.
.
.
.
.
1
1
2
1
1
1
2
2
Fn
an,1 an,2 an,n bn ,
0 an,2 an,n bn ,
6
4
1
1
0
3
2
1 1 1
y b= 1
A=
3
3 1 1 2
4
1 2
3 1
4
1 1
0
3
0 1 1 5 7
(A2 |b2 ) =
0 4 1 7 15
0 3
3
2
8
En el siguiente paso, el algoritmo propone los multiplicadores m3,2 = 4, m4,2 =
3, dando lugar a la matriz
1 1
0
3
4
0 1 1 5 7
(A3 |b3 ) =
0 0
3
13
13
0 0
0 13 13
En u
ltimo lugar, tenemos que m4,3 = 0 por lo que la matriz ampliada resultante
resulta ser identica a la anterior.
Aplicando ahora el algoritmo BSubs a A3 y b3 tenemos que la solucion es
T
x = (1, 2, 0, 1).
Cada una de las transformaciones elementales puede llevarse a cabo multiplicando matrices elementales por a matriz ampliada (A|b). As intercambiar dos ecuaciones equivale
7
a multiplicar (A|b) por P (i, j), donde P (i, j) es la matriz identidad con las filas i y j
permutadas. Multiplicar la ecuacion iesima por 6= 0 equivale a multiplicar la matriz
ampliada por I(, i), donde I(, i) es la matriz identidad pero con en la fila iesima.
Finalmente restar a la fila iesima la fila jesima multiplicada por es equivalente a
multiplicar por E(i, j, ), que es la matriz identidad con el elemento (i, j) igual a .
Ejemplo 3 Consideremos el mismo sistema del ejemplo anterior y realicemos las operaciones multiplicando por matrices elementales.
Partimos de la matriz ampliada
4
1
1
0
3
2
1 1 1
1
(A1 |b1 ) =
3 1 1 2 3
1 2
3 1 4
1 0 0 0
2 1 0 0
E(2, 1, 2) =
0 0 1 0
0 0 0 1
obteniendo
4
1
1
0
3
0 1 1 5 7
E(2, 1, 2)(A1|b1 ) =
3 1 1 2 3 .
1 2
3 1 4
1 0 0
0 1 0
E(3, 1, 3) =
3 0 1
0 0 0
elemental
0
0
0
1
4
1
1
0
3
0 1 1 5 7
E(3, 1, 3)E(2, 1, 2)(A1|b1 ) =
0 4 1 7 15
1 2
3 1 4
Concluimos que
(A3 |b3 ) =
E(4, 3, 2)E(3, 2, 3)E(4, 1, 2)E(3, 1, 3)E(2, 1, 2)(A1|b1 ).
8
Puesto que las matrices elementales son todas inversibles, tenemos que en
nuestro ejemplo existe una matriz inversible E (de hecho producto de matrices
elementales) tal que
1 1
0
3
0 1 1 5
EA =
0 0
3
13
0 0
0 13
2
A=
3
2 3
1
4 7
1
y b=
5 9
1
1 2 3 1
(A2 |b2 ) = 0 0 1 1 .
0 1 0 2
Como acabamos de ver, en el algoritmo de Gauss aparece una operacion que no siempre
esta definida. Incluso cuando lo esta, puede no ser numericamente aceptable, no referimos a la division. Recordamos que la division por n
umeros peque
nos amplifica el error
absoluto. Para evitar este problema existen dos variantes del metodo de Gauss conocidas
como metodo de Gauss con pivote maximo por columnas y metodo de Gauss con pivote
maximal.
Pivotaje m
aximo por columnas. Para este metodo, en el paso k antes de calcular
mi,k buscamos en la columna k la fila m tal que |akm,k | |aki,k | para k i n e intercambiamos la fila k por la fila m. Supongamos que akm,k = 0, en ese caso aki,k = 0 para
k i n y det(A) = 0, en contradiccion con las hipotesis. Por tanto akm,k 6= 0.
Como hemos visto, si det(A) = 0, entonces para alg
un k el pivote akm,k podra ser cero.
En tal caso, podemos dejar esta fila como esta y continuar el proceso con la fila siguiente, no siendo necesaria la detencion del algoritmo, lo que prueba el siguiente resultado.
Llegamos al siguiente resultado.
Teorema 3
a) El metodo de Gauss con pivotaje maximo por columnas se puede aplicar
a toda matriz cuadrada. En el caso de matrices regulares, esta alternativa disminuye
la cota del error en la solucion en comparacion con el metodo de Gauss general.
9
b) Dada una matriz cuadrada A existe una matriz inversible E tal que E.A es una
matriz triangular superior.
El siguiente algoritmo implementa el metodo de Gauss con pivotaje maximo por columnas. Destacamos que el aviso de det(A) = 0 no implica detener el proceso.
For k = 1, 2, . . . , n 1
For i = k + 1, k + 2, . . . , n
m=k
For r = k + 1, k + 2, . . . , n
If |ar,k | > |am,k | then m = r
If am,k = 0 then
Alerta! det(A) = 0
mi,k = 1
else
intercabiar filas k y m
ai,k
mi,k =
ak,k
ai,k = 0
For j = k + 1, k + 2, . . . , n
ai,j = ai,j mi,k ak,j
bi = bi mi,k bk
Ejemplo 4 Resolver el siguiente sistema de ecuaciones usando aritmetica flotante con
mantisa de 4 dgitos y los algoritmos de Gauss sin y con pivote.
x1
+x3 = 1
x1 +0.0001x2 +2x3 = 2
x1
+x2
+x3 = 0
En ambos casos:
.1 101
0
.1 101 .1 101
.1 101
0
.1 101 .1 101
.1 101 .1 103 .2 101 .2 101
0
.1 103 .1 101 .1 101
1
1
1
.1 10
.1 10
.1 10
0
.1 101
0
0
.1 101
Sin pivotaje se sigue:
.1 101
0
.1 101
.1 101
x1 = 0
3
1
1
0
.1 10
.1 10
.1 10
x2 = 0
0
0
.1 105 .1 105
x3 = 1
Con pivotaje:
.1 101
0
.1 101 .1 101
x1 = 0
0
.1 101
0
.1 101 x2 = 1
0
0
.1 101 .1 101
x3 = 1
10
, x
, podemos preComo ambos metodos proporcionan soluciones diferentes, x
guntarnos cual de ellas sera mas aproximada.
Si x es la solucion correcta de un sistema Ax = b y z es una solucion
aproximada, entonces el error ez = x z viene dado por la solucion del
sistema Aez = b c, donde Az = c.
= (1, 2, 1) y b
= (1, 1.9999, 0). por tanto
En nuestro caso tenemos que b
n1
X
k+2
k=1
n1
X
k=1
k2 = 3
n(n 1)
n(n 1)(2n 1)
2n3
+2
=
+ O(n2 ).
2
6
3
M
etodo LU
En este apartado presentamos otro metodo para resolver el sistema de ecuaciones lineales
Ax = b, donde A es una matriz regular. El procedimiento consiste en descomponer la
matriz A como producto de dos matrizes A = LU tal que L = (li,j )1i,jn es triangular
inferior y U = (ui,j )1i,jn es triangular superior.
En el siguiente resultado veremos que siempre que podemos aplicar el metodo de
Gauss, existe una posible factorizacion para la matriz A.
11
Teorema 4 Sea A una matriz a la que podemos aplicar el m`etodo de Gauss. Entonces
existen dos matrices L y U, la primera triangular inferior con unos en la diagonal y la
segunda triangular superior, tales que A = LU.
Sea U la matriz triangular superior obtenida al aplicar el metodo de Gauss
a la matriz A, y sean mi,k los multiplicadores obtenidos. Es sencillo concluir
que
y en consecuencia
j+1
1
Y
Y
E(i, j, mi,j ) A = U.
j=n1 i=n
Por otra parte, las transformaciones elementales son inversibles, concretamente E(i, j, mi,j )1 = E(i, j, mi,j ). Concluimos que
A=
j+1
1
Y
Y
E(i, j, mi,j )
j=n1 i=n
n1
Y
n
Y
n
Y
E(i, j, mi,j )1 U
j=1 i=j+1
n1
Y
!1
E(i, j, mi,j ) U.
j=1 i=j+1
1 0 ...
...
... ... ... 0
..
..
.
.
0 1
. .
.
.
.
.. . . . .
..
..
..
n
..
Y
...
.
0
1
.
Ej =
E(i, j, mi,j ) = .
.
.
.
.. mj+1,j 1
..
..
..
i=j+1
.
..
..
. . . . ..
..
.
. .
.
.
0
.
.
.
.
..
..
.. . . . . . . 0
..
0 ... 0
mn,j
0 ... 0 1
y que
L=
n
Y
m
Ej = .2,1
..
j=1
mn,1
12
0
...
..
..
.
.
..
..
.
.
. . . mn,n1
0
..
.
0
1
a1,1 . . . a1,k
.. 1 k n
k = ...
.
ak,1 . . . ak,k
u1,1
0
.
!
j+1
1
.
Y Y
.
E(i, j, mi,j ) A = .
..
j=k1 i=n
..
.
0
...
u1,n
..
.
..
.
uk,k . . . uk,n
..
..
.
.
un,k . . . un.n
1
0
... 0
u1,1 . . . . . . u1,k
..
..
.
..
..
.
.
.
.
e2,1 . .
0
. .
k = .
.
.
.
.
.
.
..
..
..
.. ..
..
..
..
ek,1 . . . ek,k1 1
0 . . . 0 uk.k
Q
Tomando determinantes se sigue que det(k ) = ki=1 ui,i.
Como las submatrices k son inversibles, su determinante es diferente de
cero y en consecuencia uk,k tambien es diferente de cero, por lo que se puede
realizar el paso kesimo del metodo de Gauss. Concluimos que de esta forma
podemos aplicar el metodo de Gauss a la matriz A y por tanto descomponerla
en la forma LU.
Diremos que una matriz A = (ai,j )1i,jn es estrictamente diagonal dominante si
se satisface que
n
X
|ai,j |.
|ai,i | >
j=1
( j6=i )
Lema 6 (McKenzie y Hadamard) Si una matriz es estrictamente diagonal dominante,
es regular.
Sea A estrictamente diagonal dominante y supongamos que A es singular.
Existe v no nulo y tal que DAv = 0 con D = diag{d1 , d2 , . . . , dn }, di > 0 y
B = DA estrictamente diagonal dominante.
P
Como Bv = 0, entonces bii vi + j6=i bij vj = 0, para j = 1, 2, . . . , n. Sea i0
tal que |xi0 | |xj |. Entonces
X
|xi0 ||bi0 ,i0 |
|xj ||bjj |
Corolario 7 Sea A una matriz estrictamente diagonal dominante, entonces existe la factorizacion LU de la matriz A.
Puesto que A es estrictamente diagonal dominante, todas las submatrices k
son estrictamente diagonal dominantes. Aplicando el Lema de McKenzie y
Hadamard, se sigue que son todas invertibles. El corolario se sigue del Teorema
5.
1 2 3 7
A = 4 5 6 (3, 2, 1) 4
7 8 1
1
7
8
8 1
= 4/7
5 6 ll2,1
3,2 = 1/7
2 3
7
8
1
4/7 3/7 38/7
1/7 6/7 20/7
7
8
1
1/7 6/7 20/7
4/7 1/2
4
1
0 0
7 8
1
0 0 1
L = 1/7 1 0 , U = 0 6/7 20/7 y P = 1 0 0
4/7 1/2 1
0 0
4
0 1 0
15
1.2.6
Descomposici
on de Cholesky
Dada una matriz A = (ai,j )1i,jn definimos la matriz transpuesta y la denotamos por
AT a la matriz (
ai,j )1i,jn donde ai,j = a
j,i. Diremos que A es una matriz sim
etrica si
T
A=A .
Por otra parte, diremos que una matriz A es definida positiva si xT Ax > 0 para
todo x Rn \ {0}. El siguiente resultado proporciona un criterio sencillo para saber si
una matriz es definida positiva.
Proposici
on 10 (Criterio de Sylvester) Si A es definida positiva, entonces los determinantes de las submatrices diagonales k son todos positivos.
Como resultado del criterio anterior tenemos que si A es simetrica y definida positiva
entonces existe la descomposicion LU de A. Pero utilizando la simetra podemos mejorar
la descomposicion.
Teorema 11 (Factorizaci
on de Cholesky) Sea A una matriz simetrica y definida positiva, existe una matriz real y triangular inferior B tal que A = BB T . Si imponemos que
los elementos de la diagonal bi,i > 0 entonces la descomposicion es u
nica
1.2.7
M
etodo QR
16
2
uT u
uuT cu = cu
2
uT u
b) Sea v u . Entonces
P (u)v = v
2
uT u
u(uT v) = v.
2
uT u
uuT ) = P (u)
2
uT u
P (u)uuT = P (u) +
2
uT u
uuT = I.
Por tanto P (u) = P (u)1 . Como ademas P (u) es simetrica, se sigue que P (u)
es ortogonal.
b) Para todo 6= 0 se sigue que
P (u) = I
2
2 uT u
2 uuT = P (u).
=
P (u)aj
1.3
uT u
ka1 k
M
etodos iterativos
Preliminares
Dado un Kespacio vectorial V, con K = R, C, llamamos norma vectorial a una aplicacion kk : V R tal que:
kxk = 0 si y solo si x = 0,
kxk = ||kxk,
kx + yk kxk + kyk.
P
1/p
Teorema 15 Para todo p N la aplicacion kxkp = ( ni=1 |xi |p ) es una norma vectorial.
Unicamente
es necesario probar la desigualdad triangular puesto que el resto
son inmediatas. Por tanto nos planteamos desigualdad:
! p1
! p1
! 1p
n
n
n
X
X
X
|xk |p
|yk |p
+
.
|xk + yk |p
k=1
k=1
k=1
+
.
|xk |p
|yk |p
k=1
k=1
k=1
k=1
r=1
19
k=1
k=1
r=1
k=1
n
X
|yk |p
k=1
! pr
p
|xk |
.
|yk |
k=1
k=1
k=1
k=1
k=1
para cualesquiera p > 1 y q > 1 tales que 1/p + 1/q = 1. En efecto, puesto que
el cambio de variables (xk , yk ) (xrk , ykpr ) permite pasar de una desigualda
a otra.
Notemos que si la desigualdad de Holder es cierta para vectores x e y,
entonces
lo es para vectores x y y. Por tanto podemos considerar
Pn tambien
P
p
q
que k=1 |xk | = nk=1
k | = 1.
P|y
n
Veamos pues que k=1 |xk yk | 1. Consideremos la funcion y = xp1 y
Ra
Rb
su inversa x = y q1. Si S1 = 0 xp1 dx = ap /p y S2 = 0 y q1 dy = bq /q, a
partir de la representacion grafica de S1 y S2 , ver la Figura 2, es inmediato
que ab S1 + S2 = ap /p + bq /q. De donde
n
X
k=1
|xk yk | 1/p
n
X
|xk | + 1/q
k=1
n
X
|yk |q = 1.
k=1
A las normas p se las denomina normas H
older. El caso particular p = 2 se denomina
norma euclideana. La aplicacion kxk = maxi=1,...,n {|xi |} es una norma vectorial y se
denomina norma del m
aximo.
Proposici
on 16
kxk = lim kxkp
p
= kxk
p
n
X
|xi |
i=1
kxk n
1
p
20
|xk |
! 1p
f 1 (x)
S2
f (x)
S1
a
b) Una matriz es inversible si y solo si tiene todos sus valores propios diferentes de
cero.
c) Si es un valor propio de A, entonces 1 es un valor propio de A1 .
d) Sea A una matriz simetrica. Todos los valores propios de A son reales. Ademas,
existe una base de vectores propios ortogonales.
22
X
|ai,j | para todo i = 1, 2, . . . , n,
Fi = z : |z ai,i |
j =1
j 6= i
X
|ai,j | para todo j = 1, 2, . . . , n.
Cj = z : |z aj,j |
i=1
i 6= j
Ademas, si una componente conexa de F o de C esta formada por k discos, entonces esta
componente contiene exactamente k valores propios teniendo en cuenta la multiplicidad.
Sea v un vector propio de A y el valor propio asociado, esto es (AI)v = 0.
Sea |vk | = kvk 6= 0, entonces |v|vki || 1 para todo i. Como
ak,1 v1 + . . . + (ak,k )vk + . . . + ak,n vn = 0,
P
P
vi
se sigue que ak,k =
i6=k ai,k vk . Por tanto |ak,k |
i6=k |ai,k |. En
consecuencia Fk F . Para ver que Ck tomamos la matriz transpuesta.
23
m
Supongamos que m
i=1 Fi es una componente conexa de F , esto es i=1 Fi
ni=m+1 Fi = y veamos que A tiene m valores propios en la componente
conexa. Descomponemos A como suma de la matriz diagonal y del resto,
A = D + R. Definimos la familia de matrices At = D + tR con t en el intervalo
[0, 1] de forma que A0 = D y A1 = A. Los valores propios de A0 son los
centros de los discos Fi por lo que A0 tiene exactamente m valores propios en
la componente conexa. Como los valores propios de At varian continuamente
con t, existen exactamente m en la componente conexa. Lo que prueba el
teorema.
Proposici
on 20 Consideremos la matriz A = (ai,j )1i,jn .
a) La norma matricial subordinada a la norma vectorial k k1 satisface que
( n
)
X
kAk1 = max
|ai,j | .
j=1,...,n
i=1
j=1
a) Aplicando
Pnla definicion de norma subordinada se sigue que kAk1 = maxkxk1 =1 {kAxk1 }
kAek k1 = i=1 |ai,k | parta todo k por tanto, es mayor que el maximo de la
suma por columnas,
Supongamos ahora que el maximo de la suma por columnas se alcanza en
la columna j0 , esto es
( n
)
n
X
X
|ai,j0 | = max
|ai,j | .
i=1
j=1,...,n
i=1
Pn Pn
Para
cualquier
vector
x
de
norma
1
se
tiene
que
kAxk
=
1
Pn Pn
Pn Pn
Pn i=1 | j=1 ai,j xj |
j=1 (
i=1 |ai,j |) |xj |
j=1 (
i=1 |ai,j0 |) |xj | (
i=1 |ai,j0 |) . De ambas
desigualdades se concluye el resultado.
b) En primer lugar definimos el cociente de Rayleigh (1842-1919) de una
matriz M como la aplicacion RM : V \ {0} C definida seg
un
RM (v) =
vT Mv
.
vT v
| |2
i i
RM (v) = Pi=1
. De donde es sencillo ver que k = max{RM (v) : v Vk },
k
2
i=1 |i |
siendo Vk =< p1 , . . . pk > . Concluimos que (M) = max{RM (v) : v V }.
Por otra parte
kAk22 = sup
vT AT Av
= sup RAT A (v).
vT v
25
1.3.2
Para ver que la sucesion {xk } generada por un metodo iterativo xk+1 = Bxk + b es
convergente veamos que es de Cauchy (Rn es un espacio de Banach). En efecto, como
xk+1 xk = B(xk xk1 ) = . . . = B k (x1 x0 ),
entonces kxk+1 xk k kB k kkx1 x0 k. De la Proposicion 21(c) concluimos que una
condicion necesaria y suficiente para la convergencia de la sucesion es que (B) < 1.
En el supuesto que la sucesion {xk }
k=0 converja a z se sigue que
kz xn k
kxn+k+1 xn+k k
kBkn+k kx1 x0 k.
k=0
k=0
Por la Proposicion 21(b), existe una norma matricial subordinada a una norma vectorial
tal que kBk < 1, y por tanto
kz xn k
1.3.3
kBkn
kx1 x0 k.
1 kBk
M
etodo de Jacobi.
a
x
xk+1
=
i
i
j6=i i,j j
ai,i
1.3.4
M
etodo de GaussSeidel.
26
1 kBGS k
ln 1
kx x0 k
Sea n
ln kBGS k
For k = 1, 2, . . . , n
Pi1
Pn
1
k+1
k+1
k
bi j=1 ai,j xj j=i+1 ai,j xj
xi =
ai,i
1.3.5
M
etodo de sobrerelajaci
on.
xk+1
i
Pn
Pi1
k+1
k
bi j=1 ai,j xj j=i ai,j xj
+
ai,i
Convergencia de los m
etodos iterativos
2
p
<2
1 + 1 (BJ )2
27
1.4
Condicionamiento de sistemas
b) Sea A una matriz verificando que kAk < 1, donde k k es una norma vectorial subordinanda, entonces (I + A) es inversible y
k(I + A)1 k
1
1 kAk
kz zk
kb bk
(A)
.
kzk
kbk
= b con kA Ak
suficienb) Si z es la soluci
on del sistema de ecuaciones lineales Ax
temente peque
na, entonces
1
kA Ak
kz zk
(A)
.
kzk
kAk
1 kA1 kkA Ak
se sigue que A(z z) = b b,
por tanto z z =
a) De Az = b y A
z = b,
1
De donde tenemos que
A (b b).
(3)
Por otra parte, sabemos que kbk = kAzk kAkkzk. Por tanto
kAk
1
.
kzk
kbk
(4)
(5)
(6)
Por otra parte kA1 (A A)k kA1 kkA Ak < 1 si kA Ak suficientemente peque
na. Por el Lema 24 se sigue que la matriz I + A1 (A A) es
inversible y que
(I + A1 (A A))1
1
1
kA1 (A
A)k
1
1
kA1 kkA
A)k
1
1
kA1 kkA
A)k
kzk.
1
1
kA1 kkA
A)k
kzk,
(7)
29