You are on page 1of 60

Hans C. Muller S.C.

Una Introduccion
al
Analisis Numerico

www.elsolucionario.net
i

Hans C. Muller S.C.


Una Introduccion
al
Analisis Numerico
Con 55 guras

www.elsolucionario.net
ii

Hans C. Muller Santa Cruz


Departamento de Matematicas
Facultad de Ciencias y Tecnologa
Universidad Mayor de San Simon
Casilla 992, Cochabamba, Bolivia
e-mail hans@mat.umss.bo

www.elsolucionario.net
Prologo

La Facultad de Ciencias y Tecnologa tiene 17 a~nos de vida, perodo que


ha sido fructfero en el ambito universitario, porque se han creado carreras
tecnologicas, como cient cas, haciendo enfasis a una investigacion cient ca
seria como un mecanismo de garantizar una excelencia academica. La
Carrera de Matematicas, una de nuestras Carreras de reciente creacion, esta
inscrita dentro este marco.
Ahora bien, la Universidad Mayor de San Simon consciente de esta
situacion, ha conseguido convenios de cooperacion internacional, como es
el caso del Programa MEMI, Programa de Mejoramiento de la Ense~nanza
de la Matematica y la Informatica. De los objetivos principales de este
programa es fortalecer el area de las matematicas, incentivar la difusion de
las diferentes ramas de las matematicas en el medio universitario y fuera de
este. La Universidad y sus autoridades, dentro de sus polticas academicas y
de investigacion, han tenido la vision de conseguir los servicios de los mejores
profesionales en esta disciplina y Hans Muller es uno de ellos.
El autor del libro, Hans Muller Santa Cruz, es un joven matematico bo-
liviano que ha regresado a su pas para compartir los conocimientos adquiri-
dos en en la Universidad de Ginebra, Suiza. Actualmente es el Coordinador
del Programa Magister en Matematicas, programa implementado de manera
conjunta entre la Universidad Mayor de San Simon y la Universidad Catolica
del Norte, Chile. Ha dictado un curso de Elementos Finitos, destinado a los
docentes en nuestra superior Casa de Estudios; en La Paz, bajo invitacion ha
impartido cursos tutoriales en la Academia de Ciencias en temas relaciona-
dos a las matematicas aplicadas. El y otros profesionales de su area, estan
transformando la manera de hacer matematicas en la Facultad de Ciencias
y Tecnologa.
Los topicos tratados en este libro estan muy relacionados con los cam-
bios estructurales que ha ocasionado la introduccion masiva de sistemas in-
formaticos. En efecto, la utilizacion masiva del computador ha permitido al
Hombre efectuar calculos que en otra epoca hubiese sido impensable realizar-
los. En la actualidad es muy corriente simular numericamente experiencias,
que en laboratorio son muy complicadas, costosas o peligrosas, o simplemente
imposible de experimentarlas. Los problemas de optimizacion son abordables
gracias a la utilizacion del ordenador y no faltan situaciones en las cuales
el uso de estos dispositivos de calculo, no solamente son de gran ayuda,
sino indispensables. El Analisis Numerico es la rama de las Matematicas,
cuyo campo de accion es el estudio y analisis de los diferentes algoritmos

www.elsolucionario.net
iv Pro logo
y metodos numericos que se utilizan para resolver los problemas mediante
computadoras. El libro \Una Intruduccion al Analisis Numerico" presenta
los temas basicos del Analisis Numerico de una manera rigurosa, permitiendo
que el lector pueda adquirir los conocimientos matematicos necesarios para
profundizar en topicos mas especializados o simplemente pueda concebir e
implementar metodos numericos de una manera correcta y optima.
Finalmente, mi esperanza es que este libro sea el inicio de una larga
serie de otras publicaciones de alto nivel que ofrezca el autor y su unidad
academica.

Cochabamba, septiembre de 1996


Ing. Alberto Rodrguez Mendez
Rector de la Universidad Mayor de San Simon

www.elsolucionario.net
Prefacio

Este libro nace ante el vacio existente de una bibliografa en espa~nol que
trate los temas capitales del Analisis Numerico. El nombre que lleva, \Una
Introduccion al Analisis Numerico", se debe esencialmente al caracter que
deseo que tenga este libro.
El Analisis Numerico es una disciplina de las Matematicas en gran
crecimiento gracias a la utilizacion masiva de medios informaticos. Da que
pasa es mas corriente el tratamiento numerico en las Ciencias, como en
la Tecnologa; el modelaje, la simulacion numerica son moneda corriente.
Ahora bien, toda persona que pretenda tener como herramienta de tra-
bajo, los metodos numericos, debe conocer los topicos introductorios del
Analisis Numerico que son: Sistemas Lineales, Interpolacion, Resolucion de
Ecuaciones no Lineales, Calculo de Valores Propios y Solucion Numerica de
Ecuaciones Diferenciales, porque tarde o temprano se topara con alguno de
estos temas.
Siguiendo la lnea trazada por este libro, este contiene siete captulos: el
primero de caracter introductorio, donde se da los conceptos basicos de error
y estabilidad, seguido de un ejemplo mostrando que la aritmetica del punto
otante no es un impedimento para efectuar calculos de precision arbitraria;
el segundo captulo trata sobre los problemas lineales mas comunes y
los metodos de solucion de estos; el tercer captulo aborda el tema de
interpolacion numerica y extrapolacion, introduciendo el estudio de los
splines cubicos; el captulo IV analiza los problemas no lineales y los metodos
mas e cientes de resolucion de estos; en el captulo V se estudia el problema
de valores propios y la implementacion de metodos numericos para el calculo
de valores propios; el captulo sexto trata de la integracion numerica y la
transformada rapida de Fourier y nalmente el captulo VII estudia los
problemas diferenciales y los metodos numericos de resolucion mas usuales
de estos problemas.
Practicamente el contenido de este libro ven los estudiantes de segundo
a~no de las Carreras de Matematicas e Informatica de la Universidad de
Ginebra, Suiza, Universidad en la cual he sido formado. El pre-requisito
para un buen aprovechamiento de este libro es conocer bien los principios
basicos del Analisis Real y Complejo, como tambien tener una buena base
de Algebra Lineal. Por consiguiente, este libro esta destinado a estudiantes
universitarios que siguen la asignatura de Analisis Numerico, como as mismo
toda persona interesada en Analisis Numerico que tenga los pre-requisitos
y que desea cimentar sus conocimientos en esta disciplina. Este libro puede

www.elsolucionario.net
vi Prefacio
ser utilizado como texto base o bien como complemento bibliogra co.
Debo agredecer a mis profesores de la Universidad de Ginebra, E. Hairer
y G. Wanner cuyos cursos han servido de base para la elaboracion de este
libro. Por otro lado, sin el apoyo en material de trabajo del Programa
MEMI, Programa de Mejoramiento de la Ense~nanza de las Matematicas e
Informatica, de la Universidad Mayor de San Simon este libro no habra
existido. As mismo agradezco a mi familia, mis colegas y amigos que
seguieron con inters la elaboracion de este libro.
El libro ha sido transcrito en TEX y las gra cas realidas en las sub-
rutinas gra cas FORTRAN que G. Wanner me las cedio muy gentilmente. La
transcripcion, como la ejecucion de los programas en sido realizados sobre
una WorkStation HP-9000.
Posiblemente este libro contenga muchos errores, me gustara que los
hagan conocer, para que en una segunda edicion estos sean corregidos.
Octubre, 1995 Hans C. Muller S.C.

www.elsolucionario.net
Contenido

I. Preliminares
I.1 Algoritmos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 2
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 6
I.2 Estabilidad : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 8
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 14
I.3 Un ejemplo: Calculo de PI : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 15
II. Sistemas Lineales
II.1 Condicion del Problema Lineal : : : : : : : : : : : : : : : : : : : : : : : : : : 25
Normas de Vectores y Matrices : : : : : : : : : : : : : : : : : : : : : : : : : : : : 25
La Condicion de una Matriz : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 29
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 33
II.2 Metodos Directos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 35
El Algoritmo de Gauss : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 36
El Algoritmo de Cholesky : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 43
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 47
II.3 Metodos Iterativos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 48
Metodos de Jacobi y Gauss-Seidel : : : : : : : : : : : : : : : : : : : : : : : : : 48
El Teorema de Perron-Frobenius : : : : : : : : : : : : : : : : : : : : : : : : : : : 52
Metodo de Sobrerelajacion SOR : : : : : : : : : : : : : : : : : : : : : : : : : : : 56
Estudio de un Problema Modelo : : : : : : : : : : : : : : : : : : : : : : : : : : : 59
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 64
II.4 Metodos Minimizantes : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 66
Metodo del Gradiente : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 68
Metodo del Gradiente Conjugado : : : : : : : : : : : : : : : : : : : : : : : : : : 69
Polinomios de Chebichef : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 73
Metodo del Gradiente Conjugado Precondicionado : : : : : : : : : 75
Resultados Numericos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 78
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 81
II.5 Mnimos Cuadrados : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 83
La descomposicion QR : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 87
La Pseudo-Inversa de una Matriz : : : : : : : : : : : : : : : : : : : : : : : : : : 92
Error del Metodo de los Mnimos Cuadrados : : : : : : : : : : : : : : : 96
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 101

www.elsolucionario.net
viii Contenido
III. Interpolacion
III.1 Interpolacion de Lagrange : : : : : : : : : : : : : : : : : : : : : : : : : : : : 104
Bases Teoricas : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 104
Construccion del Polinomio de Interpolacion : : : : : : : : : : : : : : 106
El Error de Interpolacion : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 111
Polinomios de Chebichef : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 113
Estudio de los Errores de Redondeo : : : : : : : : : : : : : : : : : : : : : : 115
Convergencia de la Interpolacion : : : : : : : : : : : : : : : : : : : : : : : : : 119
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 129
III.2 Splines Cubicos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 131
Construccion del Spline Interpolante : : : : : : : : : : : : : : : : : : : : : : 133
El Error de la Aproximacion Spline : : : : : : : : : : : : : : : : : : : : : : : 136
Aplicacion de Spline : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 142
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 143
III.3 Extrapolacion : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 145
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 150
IV. Ecuaciones No Lineales
IV.1 Ecuaciones Polinomiales : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 152
Ecuaciones Resolubles por Radicales : : : : : : : : : : : : : : : : : : : : : : 152
Ecuaciones No Resolubles por Radicales : : : : : : : : : : : : : : : : : : 155
Localizacion de Ceros : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 155
Metodo de Newton : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 157
Sucesiones de Sturm : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 159
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 161
IV.2 Metodos Iterativos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 163
Posicion del Problema : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 163
Metodo de la Falsa Posicion : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 165
Sistema de Ecuaciones : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 168
Un Metodo Iterativo Simple : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 169
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 173
IV.3 Metodo de Newton : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 174
El Teorema de Newton-Misovski : : : : : : : : : : : : : : : : : : : : : : : : : : 179
Metodo de Newton Simpli cado : : : : : : : : : : : : : : : : : : : : : : : : : : 184
Metodo de Newton con Relajacion : : : : : : : : : : : : : : : : : : : : : : : : 193
Aproximacion de Broyden : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 197
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 199
IV.4 Metodo de Gauss Newton : : : : : : : : : : : : : : : : : : : : : : : : : : : : 203
Convergencia del Metodo de Gauss-Newton : : : : : : : : : : : : : : : 204
Modi caciones del Metodo de Gauss-Newton : : : : : : : : : : : : : 207
El Metodo de Levenber-Marquandt : : : : : : : : : : : : : : : : : : : : : : : 210
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 211

www.elsolucionario.net
Contenido ix
V. Calculo de Valores Propios
V.1 Teora Clasica y Condicion del Problema : : : : : : : : : : 214
La Condicion del Problema a Valores Propios : : : : : : : : : : : : : 217
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 221
V.2 Determinacion de Valores Propios : : : : : : : : : : : : : : : : : : : 223
El Metodo de la Potencia : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 223
Formas Tridiagonales y Formas de Hessenberg : : : : : : : : : : : : 227
Teorema de Sturm y el Algoritmo de la Biseccion : : : : : : : : : 229
Generalizacion del Metodo de la Potencia : : : : : : : : : : : : : : : : : 233
El Metodo QR : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 237
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 241
VI. Integracion Numerica
VI.1 Bases Teoricas : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 244
Formulas de Cuadratura : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 248
El Orden de una Formula de Cuadratura : : : : : : : : : : : : : : : : : 249
Estimacion del Error : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 250
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 256
VI.2 Cuadraturas de Orden Elevado : : : : : : : : : : : : : : : : : : : : : : 258
Polinomios Ortogonales : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 259
Los Polinomios de Legendre : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 263
Las Formulas de Cuadratura de Gauss : : : : : : : : : : : : : : : : : : : 264
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 267
VI.3 Implementacion Numerica : : : : : : : : : : : : : : : : : : : : : : : : : : : : 269
Tratamiento de Singularidades : : : : : : : : : : : : : : : : : : : : : : : : : : : 273
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 282
VI.4 Transformacion de Fourier : : : : : : : : : : : : : : : : : : : : : : : : : : : : 284
Estudio del Error : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 287
Interpolacion Trigonometrica : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 288
Transformacion Rapida de Fourier FFT : : : : : : : : : : : : : : : : : : 290
Aplicaciones de FFT : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 292
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 293
VII. Ecuaciones Diferenciales
VII.1 Generalidades : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 296
Teoremas de Existencia y Unicidad : : : : : : : : : : : : : : : : : : : : : : : 297
Problemas con Valores en la Frontera : : : : : : : : : : : : : : : : : : : : : 300
Diferenciabilidad respecto a los Valores Iniciales : : : : : : : : : : 300
Simple Shooting : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 303
Shooting Multiple : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 307
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 311

www.elsolucionario.net
x Contenido
VII.2 Metodo de Euler : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 313
Efectos de los Errores de Redondeo : : : : : : : : : : : : : : : : : : : : : : : 317
Estabilidad del Metodo de Euler : : : : : : : : : : : : : : : : : : : : : : : : : 319
Metodo de Euler Impcito : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 321
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 322
VII.3 Metodos de Runge-Kutta : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 323
Construccion de un Metodo de Orden 4 : : : : : : : : : : : : : : : : : : 327
Metodos Encajonados : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 330
Soluciones Continuas : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 333
Convergencia de los Metodos de Runge-Kutta : : : : : : : : : : : : 335
Experiencias Numericas : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 338
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 340
VII.3 Metodos Multipasos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 341
Metodos de Adams Explcitos : : : : : : : : : : : : : : : : : : : : : : : : : : : : 341
Metodos de Adams Implcitos : : : : : : : : : : : : : : : : : : : : : : : : : : : : 343
Metodos Predictor-Corrector : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 344
Metodos BDF : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 345
Estudio del Error Local : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 346
Estabilidad : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 348
Convergencia de los Metodos Multipaso : : : : : : : : : : : : : : : : : : 350
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 353
Bibliografa : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 355
Indice de Smbolos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 359
Indice Alfabetico : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 361

www.elsolucionario.net
Captulo I
Preliminares

Con la utilizacion masiva de sistemas informaticos en la resolucion de


problemas a todo nivel, el Analisis Numerico ha tenido un gran desarrollo en
las ultimas decadas, como una rama integrante de las Matematicas. En este
primer captulo se expondra las nociones de base que sustentan el Analisis
Numerico, para ser utilizadas en los captulos posteriores.
La primera seccion estara dedicada a estudiar los algoritmos como
una composicion de operaciones elementales, partiendo de un dispositivo
ideal de calculo. Se analizara las nociones de e ciencia y error de un
algoritmo.
En la segunda seccion se analizara el problema algortmico a partir
de los dispositivos materiales con que se cuenta en la actualidad, es decir
ordenadores o computadoras. En esta seccion se estudiara la representacion
en punto otante de un numero real y su redondeo en la computadora. Se
introducira la nocion de precision de una computadora y la relacion de esta
con el concepto de estabilidad, en sus diferentes versiones, de un algoritmo.
En la tercera y ultima seccion de este captulo, se vera que las li-
mitaciones impuestas por la representacion en punto otante, no es una res-
triccion para calcular con la precision que se requiera. Prueba de esto,  sera
calculado, como un ejemplo ilustrativo, con 10000 decimales de precision.

www.elsolucionario.net
I.1 Algoritmos

En esta seccion se supondra que se cuenta con un dispositivo ideal de calculo,


es decir una computadora de precision exacta, situacion que no sucede en la
realidad. El cuerpo de base sera R, a menos que se especi que lo contrario.
Este dispositivo esta provisto de ciertas operaciones cuya accion se efectua
en un tiempo nito, por ejemplo es capaz de realizar las 4 operaciones
aritmeticas elementales, mas algunas como la radicacion, la exponenciacion
y las otras funciones elementales que se estudian en un curso de Calculo I.
Por consiguiente, se tiene la primera de nicion.
De nicion I.1.1.- Una operacion elemental es una operacion matematica
o funcion cuya accion se la efectua en un tiempo nito y que ademas el
dispositivo ideal la puede realizar.
Inicialmente se supondra que las cuatro operaciones aritmeticas
como: la adicion, la multiplicacion, la sustraccion y la division son posibles
en este dispositivo de calculo. De esta manera es posible evaluar toda
funcion polinomial, toda funcion racional, en una cantidad nita de pasos o
composicion de operaciones elementales.
De nicion I.1.2.- Un algoritmo es una sucesion nita de operaciones
elementales. Si se denota por fi una operacion elemental, un algoritmo es la
composicion de n operaciones elementales, es decir
f = fn  fn 1      f2  f1 : (I:1:1)

Por otro lado, el dispositivo de calculo con el que se cuenta tiene la


nalidad de evaluar la o las soluciones de un problema matematico, siempre
que sea posible hacerlo. Ahora bien, lo que cuenta en este estudio es el
resultado, de donde la:
De nicion I.1.3.- Un problema es darse un dato x 2 Rn y obtener un
resultado P (x) 2 R.
En consecuencia, son problemas todas las funciones cuyo dominio
es un espacio vectorial real de dimension nita, cuya imagen esta incluida
en la recta real. Una funcion cuya imagen esta incluida en un espacio de
dimension mas grande que 1, puede ser interpretada como un conjunto de
problemas, donde cada problema es la funcion proyeccion correspondiente.
Las ecuaciones pueden ser vistas como problemas, pero antes aclarando cual
de las soluciones se esta tomando.

www.elsolucionario.net
I.1 Algoritmos 3
Es necesario recalcar que problema y algoritmo son conceptos dife-
rentes, aunque de alguna manera ligados. Considerese el problema siguiente,
P (x) = an xn + an 1 xn 1 +    + a1 x + a0 : (I:1:2)
P (x) puede ser obtenido de muchas maneras, en particular utilzando los 2
siguientes algoritmos: El primero consiste en evaluar el polinomio (I.1.2) tal
como esta de nido, con la convencion que:
x1 = x;
(I:1:3)
xn = x  xn 1 ; para n  2:
La segunda manera de evaluar el polinomio consiste en utilizar el algoritmo
de Horner, el cual esta dado por:
q0 (x) = an ;
q1 (x) = q0 (x)x + an 1 ;
q2 (x) = q1 (x)x + an 2 ; (I:1:4)
..
.
qn (x) = qn 1 (x)x + a0 :
Como puede observarse ambos algoritmos evaluan el polinomio P (x), sin
embargo en el primero se requiere: 1 +    + n 1 multiplicaciones para
evaluar las potencias, n multiplicaciones para evaluar los terminos de la
forma ai xi y nalmente n adiciones, lo cual hace un total de
n(n + 3) operaciones elementales. (I:1:5)
2
El algoritmo de Horner requiere a cada paso de una multiplicacion y una
adicion lo cual es igual a
2n operaciones elementales. (I:2:6)
Por lo tanto, puede observarse claramente que el algoritmo de Horner es
mas e ciente que el primero, pues la implementacion de este efectua menos
operaciones elementales.
El concepto de e ciencia de un algoritmo esta ligado por consi-
guiente al costo en operaciones elementales que se requiere para ejecutar
un algoritmo. Ahora bien, en la realidad una computadora requiere menos
tiempo para evaluar una adicion que para una multiplicacion. Cada ope-
racion elemental toma cierto tiempo en efectuarse, que en general depende
de la computadora y el lenguaje en el que esta escrito el programa. Es

www.elsolucionario.net
4 I Preliminares
por eso, que es mas conveniente medir la e ciencia en terminos de tiempo
ejecutado, en lugar del numero de operaciones elementales ejecutadas. Con
lo argumentado se puede formular una primera de nicion de e ciencia.
De nicion I.1.4.- El costo del algoritmo fn      fn, esta dado por
C = m1 + m2 + : : : + mn ; (I:1:7)
donde mi es el tiempo de ejecucion de fi . Si C1 y C2 son los costos en tiempo
de dos algoritmos que resuelven el mismo problema, se dira que el primer
algoritmo es mas e ciente que el segundo si C1  C2 .
Tal como se dijo al inicio de esta seccion, el dispositivo ideal con
el que se cuenta, puede efectuar una cantidad nita de operaciones elemen-
tales. Suponiendo nuevamente, que solamente se cuenta con las cuatro ope-
raciones aritmeticas, las unicas funciones que pueden evaluarse utilizando
un algoritmo son las funciones polinomiales y racionales. Ahora bien, existe
una cantidad ilimitada de funciones y se puede mostrar que no existe ningun
algoritmo que sea la composicion de adiciones, multiplicaciones, sustrac-
ciones o divisiones, que permita calcular una raiz cuadrada; evaluar funciones
trigonometricas, exponenciales o logartmicas. Sin embargo, existen proce-
dimientos matematicos que permiten aproximar estas funciones de manera
arbitraria. Los mas comunmente utilizados: son las series de Taylor, las frac-
ciones continuas y algunos metodos iterativos. Todos estos metodos estan
sustentados en las nociones de lmite, de continuidad, derivabilidad dados
en los cursos de Calculo y Analisis.
A continuacion se vera un ejemplo ilustrativo, donde se introducira
la nocion del error de truncacion. Considerese la funcion exponencial, cuyo
desarrollo en serie de Taylor esta dada por
X
1 xk
ex = : (I:1:8)
k=0 k !
Es evidente que ex no puede evaluarse en un numero nito de pasos, para
un x dado, sin embargo en lugar de evaluar ex , uno se puede contentar
evaluando una cantidad nita de terminos de la serie de Taylor, es decir
X
n xk
p(x) = ; (I:1:9)
k=0 k !
para un n jado de antemano. La diferencia entre ex y p(x) es el error
de truncacion de ex respecto a p(x). Este error de truncacion es del orden
O(xn+1 ) cuando x tiende a 0. El nombre de truncacion proviene del hecho
que para evaluar ex se ha despreciado una parte de la serie. Por consiguiente,
el error de truncacion puede de nirse como:

www.elsolucionario.net
I.1 Algoritmos 5
De nicion I.1.5.- Sean P (x), P 0(x) dos problemas. El error de truncacion
de P (x), respecto de P 0 (x) esta dado por
P (x) P 0 (x): (I:1:10)
El nombre que tiene este error, como se dijo mas arriba, es debido
a que la la serie de Taylor es truncada a un numero nito de terminos.
No obstante, existe una gran diversidad de metodos que aproximan a la
solucion del problema utilizando otro tipo de argumentos, en este caso es
mas conveniente utilizar el nombre de error de aproximacion o error del
metodo; de todas formas es cuestion de gusto.
El concepto de e ciencia ha sido de nido para aquellos problemas
donde se puede encontrar la solucion mediante un algoritmo. Para aquellos
problemas, donde no es posible encontrar un algoritmo que de la solucion y
suponiendo que es posible aproximar la solucion de manera arbitraria me-
diante un metodo algortmico, la e ciencia esta ligada al costo en opera-
ciones, como tambien al error del metodo. En esta situacion la e ciencia es
un concepto mas subjetivo que depende de alguna manera del usuario, pues
existen problemas donde el error de aproximacion debe ser lo mas peque~no
posible, y otros problemas donde la exactitud no es un requisito primordial.
Ejemplos
1.- Considerese el problema, determinar . Utilizando la identidad
arctan 1 = 4
y que la serie de Taylor en el origen esta dada por
X1 ( 1)k
arctan x = 2k + 1 x2k+1 ; (I:1:11)
k=0
se puede obtener un metodo que aproxime , pero el problema de este
metodo es su convergencia demasiado lenta; es mas, para x = 1 la serie
(I.1.11) no es absolutamente convergente.
Otro metodo que permitira aproximar , consiste en utilizar el hecho
que
arccos(1=2) = 3
y desarrollando arccos en serie de Taylor, se obtiene un metodo cuya
convergencia es mucho mas rapida.
p
2.- Consid
p erese el problema, determinar 2. La primera manera de determi-
nar 2 es tomar un intervalo cuya extremidad inferior tenga un cuadrado
inferior a 2 y la extremidad superior tenga un cuadrado mas grande a 2.
Se subdivide el intervalo en dos subintervalos de igual longitud, se elige
aquel cuyas extremidades al cuadrado contengan 2. En la tabla siguiente
se da algunas de las iteraciones de este metodo.

www.elsolucionario.net
6 I Preliminares

Iteraci
on Ext. Inferior Ext. Superior
0 1.0 1.5
1 1.25 1.5
2 1.375 1.5
3 1.375 1.4375
4 1.40625 1.4375
5 1.40625 1.421875
16 1.41420745849609 1.41421508789063
17 1.41421127319336 1.41421508789063
18 1.41421318054199 1.41421508789063
19 1.41421318054199 1.41421413421631
20 1.41421318054199 1.41421365737915

La segunda posibilidad es utilizar la sucesion de nida recursivamente


por:
a0 = 1;
an+1 = 12 an + a1 :
n
Esta sucesion es convergente py se deja al lector la demostracion para
que veri que que el lmite es 2. En la tabla siguiente se tiene los seis
primeros terminos de la sucesion. Efectuando unas cuantas iteraciones
se obtiene:
Iteraci
on an
0 1.0
1 1.5
2 1.41666666666667
3 1.41421568627451
4 1.41421356237469
5 1.4142135623731

Puede
p observarse inmediatamente, que el segundo metodo para determinar
2 es mas e ciente que el primer algoritmo.

Ejercicios
1.- Supongase que, el dispositivo de calculo, con el que se cuenta, puede
efectuar la division con resto; es decir, para a; b enteros no negativos,
con b 6= 0, el dispositivo calcula p; q satisfaciendo:
a = pb + r y 0  r < b:
a) Implementar un algoritmo que calcule el maximo comun divisor de a
y b.
b) Utilizando el inciso precedente, implementar otro algoritmo que
permita calcular m; n 2 Z, tales que
mcd(a; b) = ma + nb:

www.elsolucionario.net
I.1 Algoritmos 7
c) Estudiar la situacion mas desfavorable, aquella donde el costo en
operaciones es el mas alto. Deducir una estimacion de la e ciencia del
algoritmo.
2.- Suponiendo que, el dispositivo de calculo puede efectuar la division con
resto, con la particularidad siguiente:

a = pb + r y jbj < r  jbj :


2 2
a) Mostrar que el algoritmo implementado en el ejercicio 1a), puede
implementarse para esta nueva division con resto.
b) Veri car que, el nuevo algoritmo es mas e ciente que aquel con di-
vision con resto normal. Encontrar una estimacion de costo del algoritmo.
3.- Para el polinomio p(x) = a0 + a1 x +    + an xn , el algoritmo de Horner
(I.1.9) esta de nido por:
bn = an ;
bi = ai + x0 bi+1 ; i = n 1; : : : ; 1; 0:
Se plantea q(x) = b1 + xb2 +    + xn 1 bn .
a) Mostrar que p0 (x0 ) = q(x0 ). Veri car que p(x) = b0 + (x x0 )q(x).
b) Generalizar el algoritmo de Horner, de tal forma que se pueda calcular
p(x0 ) y p0 (x0 ) al mismo tiempo.
4.- Una regla y compas constituyen un dispositivo de calculo. Supongase
que se conocen dos puntos O y P tales que OP sea de longitud 1.
a) Mostrar que, ademas de las 4 operaciones aritmeticas elementales, la
radicacion puede obtenerse a partir de un numero nito de manipula-
ciones de reglapy compas.
p
b) Construir 1 + p 10.
c) Intentar construir 3 2. >Es posible?

www.elsolucionario.net
I.2 Estabilidad

En esta seccion, a diferencia de la precedente, se analizara el problema de los


algoritmos y metodos numericos desde el punto de vista de un dispositivo
material real, mas conocido como computadora. Para comenzar existen
esencialmente dos tipos de numeros en la aritmetica de un ordenador: el tipo
entero cuya aritmetica es igual a la de los numeros enteros, con la diferencia
que el tipo entero de un ordenador es un conjunto nito, motivo por el cual
se tiene que tener cuidado con los over ows en las operaciones aritmeticas; el
segundo tipo de numero es el real, en sus diferentes versiones, la idea de este
tipo de numero es la representacion de un numero real en punto otante, es
decir todo numero real no nulo x se puede escribir de manera unica como
x = a  10b ; donde jaj < 1; b 2 Z; (I:2:1)
a se llama mantisa y b el exponente. Los numeros reales solo tienen una
representacion parcial en el tipo real de un ordenador por limitaciones fsicas
del dispositivo, por consiguiente un numero real estara en una clase de
equivalencia de tipo de numero real. Esta representacion de numero real
esta dada por la precision de la computadora.
Cuando se trabaja sobre un computador, se tiene a disposicion
un numero nito de cifras, por ejemplo l, para la mantisa, Si a denota el
redondeado de a, se trabaja en realidad con
arr(x) = a  10b (I:2:2)
p
en lugar de x. De esta manera, el numero 2 = 1:414213562 : : : esta
representado por p
arr( 2) = 0:141421356  101 ;
si se calcula con l = 8 cifras en base 10.
Como se dijo mas arriba, el redondeo esta determinado por la
precision de la computadora. Esta precision esta dada por un numero dado
por la:
De nicion I.2.1.- Se denota por eps, el numero positivo mas peque~no tal
que
arr(1 + eps) > 1: (I:2:3)
Este numero eps llamado precision de la computadora esta dado por
los siguientes hechos: si los calculos se hacen en base 10 y con l cifras en la

www.elsolucionario.net
I.2 Estabilidad 9
mantisa, se tiene
| {z: : : 0} 49 : : :  101) = 1;
arr(0: 10
l
| {z: : : 0} 50 : : :  101) = : 10
arr(0: 10 | {z: : : 1} 101 > 1;
l l
deduciendose, por consiguiente
eps = 5:10 l; (I:2:4)
si se realiza el mismo calculo en base 2, como todas las computadoras lo
hacen, se obtiene
eps = 2 l : (I:2:5)
Para el FORTRAN sobre una HP-9000, se tiene:
REAL4; eps = 2 24  5:96  10 8;
REAL8; eps = 2 55  1:39  10 17;
REAL16; eps = 2 113  9:63  10 35:
Ahora bien, un numero real y su representacion en punto otante
en una computadora estan relacionados por el:
Teorema I.2.2.- Para x 6= 0, se tiene
jarr(x) xj  eps: (I:2:6)
jxj

Demostracion.- Sea x = a  10b y arr(x) = a  10b. Si se redondea a l cifras


signi cativas se tiene
ja aj  5  10 l 1;
de donde
jarr(x) xj = ja aj  10b  5:10 l 1
= 5  10 l = eps
jxj jaj  10b 10 1

por que jaj  1=10: 


La estimacion dada por (I.2.6) puede ser escrita bajo la forma
arr(x) = x(1 + ); donde jj  eps: (I:2:7)
Como se vera mas adelante, la relacion (I.2.7) es la base fundamental para
todo estudio de los errores de redondeo.

www.elsolucionario.net
10 I Preliminares
Cuando se trabaja en un computador, se tiene que ser cuidadoso en
la solucion de los problemas, pues ya no se resuelve con los datos exactos, si
no con los datos redondeados. Considerese la ecuacion de segundo grado
p
x2 2 2x + 2 = 0;
p
cuya solucion x = 2 es un cero de multiplicidad 2. Resolviendo en simple
precision, la computadora da un mensaje de error, debido a que
p
arr( 2) = 0:141421  10;
p
arr(arr( 2)2 2) = 0:119209  10 6 :
Como puede observarse, la manipulacion de ciertos problemas utilizando la
aritmetica del punto otante puede ocasionar grandes di cultades, como en
el ejemplo anterior. Es por eso necesario introducir el concepto de condicion
de un problema, el cual esta dado en la:
De nicion I.2.3.- Sea P (x) un problema dado por P : Rn ! R. La
condicion  del problema P es el numero mas peque~no positivo , tal que
jxi xi j  eps ) jP (x) P (x)j   eps: (I:2:8)
jxi j jP (x)j
Se dice que el problema P es bien condicionado si  no es demasiado grande,
sino el problema es mal condicionado.
En la de nicion, eps representa un numero peque~no. Si eps es la
precision de la computadora entonces xi puede ser interpretado como el
redondeo de xi . Por otro lado, es necesario resaltar que  depende solamente
del problema, de x y no as del algoritmo con el que se calcula P (x). Para
comprender mas sobre la condicion de un problema se analizara los siguientes
dos ejemplos.
Ejemplos
1.- Multiplicacion de dos numeros reales. Sean x1 y x2 reales, considerese el
problema calcular P (x1 ; x2 ) = x1  x2 . Para los dos valores perturbados
x1 = x1 (1 + 1 ); x2 = x2 (1 + 2 ); ji j  eps; (I:2:9)
se obtiene
x1  x2 x1  x2 = (1 +  )(1 +  ) 1 =  +  +    :
x1  x2 1 2 1 2 1 2

Puesto que eps es un numero peque~no, el producto 1 :  2 es despreciable


respecto a j1 j + j2 j, de donde
x  x x  x
1 2 1 2  2  eps: (I:2:10)
x1  x2

www.elsolucionario.net
I.2 Estabilidad 11
Por consiguiente,  = 2. El problema es bien condicionado.
2.- Adicion de numeros reales. Para el problema P (x1 ; x2 ) = x1 + x2 , por
analoga al ejemplo precedente, se obtiene
(x + x ) (x + x ) x  x  jx j + jx j
1 2 1 2 = 1 1 2 2  1 1 eps: (I:2:11)
x1 + x2 x1 + x2 jx1 + x2 j
Si x1 y x2 son de signos iguales, se tiene  = 1, de donde el problema es
bien condicionado.
Pero, si x1  x2 , la condicion  = jjxx1 j + + jx1 j se convierte en
x2 j
1
una cantidad muy grande. Motivo por el cual el problema esta mal
condicionado. Para mejor ilustrar el efecto de condicion muy grande,
considerese el siguiente ejemplo numerico.
1;
x1 = 51 x2 = 52 1 ; para el cual   2=50 = 100:
(1=50)2
Realizando el calculo con 3 cifras signi cativas en base 10, se obtiene
x1 = :196  10 1, x2 = :192  10 1 y x1 + x2 = :400  10 1. Como las
dos primeras cifras son las mismas para x1 y x2 , la adicion las ha hecho
desaparecer y no hay mas que una cifra que es signi cativa. El resultado
exacto es 1=(51  52) = 0:377  10 3.
Respecto a la de nicion de condicion, se debe observar dos situa-
ciones. La primera, si uno de los xi = 0, entonces se tiene xi = 0; la segunda
sucede cuando P (x) = 0, la condicion se la calcula pasando al lmite.
Una vez de nida la condicion de un problema, el siguiente paso es
ver la incidencia que tienen los errores de redondeo en la implementacion de
un algoritmo para resolver un problema dado. Tal como se dijo en la seccion
precedente, un algoritmo es una sucesion nita de operaciones elementales,
es decir
P (x) = fn(fn 1 (: : : f2 (f1 (x)) : : :)): (I:2:12)
La ampli cacion del error, efectuando la operacion fi , esta dada por la
condicion (fi ). Por consiguiente:
Proposicion I.2.4.- El algoritmo que resuelve el problema dado por
(I.2.12), tiene la estimacion siguiente
(P )  (f1 )  (f2 )    (fn ): (I:2:13)

Demostracion.- Por induccion sobre n. Para n = 1, el resultado es trivial.


Supongase, que es cierto para n, por lo tanto, si el problema es de la forma
P (x) = fn+1 (fn (fn 1 (: : : f2 (f1 (x)) : : :)));

www.elsolucionario.net
12 I Preliminares
puede escribirse como
P (x) = fn+1 (P 0 (x));
utilizando la de nicion de condicion se tiene
jP 0 (x) P 0 (x)j  (P 0 )eps
jP 0 (x)j
0 0
) jfn+1 (Pjf(x)) (P 0f(nx+1))j(P (x))j  (fn+1 )(P 0 )eps:
n+1
Finalmente utilizando la hipotesis de induccion, se tiene (I.2.13). 
De nicion I.2.5.- Un algoritmo es numericamente estable, en el sentido de
forward analysis, si
(f1 )  (f2 )    (fn )  Const  (P ) (I:2:14)
donde Const no es demasiado grande.
La formula (I.2.14) expresa el hecho de que la in uencia de los
errores de redondeo durante el calculo de P (x) no es mucho mas grande
que la in uencia de los errores en los datos, lo que en realidad es inevitable.
Ejemplo
Sea x = 104 y considerese el problema de calcular 1=(x(1 + x)). Se
examinara los dos algoritmos siguientes: El primero de nido por
% x &
x x(x + 1) ! x(x 1+ 1) :
& %
x+1
Las operaciones efectuadas son muy bien condicionadas, por consiguien-
te, este algoritmo es numericamente estable.
El segundo algoritmo de nido por
1=x
% &
x 1 1 1
x x + 1 = x(x + 1) :
& %
x + 1 ! 1=(x + 1)
En este algoritmo, solamente las tres primeras operaciones son bien
condicionadas. Sin embargo la ultima operacion, la sustraccion, es muy

www.elsolucionario.net
I.2 Estabilidad 13
mal condicionada, porque 1=x  1=(x + 1). Entonces, este algoritmo es
numericamente inestable.
La veri cacion, si un algoritmo es estable en el sentido de forward
analysis, sobre todo si el numero de operaciones es elevado, es a menudo
muy compleja y di cil. Por esta razon, Wilkinson introdujo otra de nicion
de la estabilidad de un algoritmo.
De nicion I.2.6.- Un algoritmo para resolver el problema P (x) es numeri-
camente estable en el sentido de backward analysis si el resultado numerico y
puede ser interpretado como un resultado exacto para los datos perturbados
x, es decir y = P (x), y si
jxi xi j  Const  eps; (I:2:15)
jxi j
donde Const no es demasiado grande y eps es la precision de la computadora.
De la de nicion I.2.6 y (I.2.15) se deduce que, en el estudio de este tipo
de estabilidad no se requiere conocer de antemano la condicion del problema.
Ejemplo
Considerese el problema de calcular el producto escalar x1  x2 + x3  x4 .
Para calcular este, se utiliza el algoritmo
x x
% 1 2&
(x1 ; x2 ; x3 ; x4 ) x1  x2 + x3  x4 : (I:2:16)
& x1  x2 %
El resultado numerico bajo la in uencia de los errores de redondeo es

x1 (1 + 1)  x2 (1 + 2 )(1 + 1 ) + x3 (1 + 3 )  x4 (1 + 4 )(1 + 2 ) (1 + 3 );
donde ji j ; jj j  eps. Este resultado es igual a x1  x2 + x3  x4 , si se
plantea
x1 = x1 (1 + 1 )(1 + 1 ); x3 = x3 (1 + 3 )(1 + 2 );
x2 = x2 (1 + 2 )(1 + 3 ); x4 = x4 (1 + 4 )(1 + 3 ):
Despreciando los productos de la forma i  j , la relacion (I.2.15) es
satisfecha con Const = 2. Por lo tanto, el algoritmo (I.2.16) siempre es
numericamente estable en el sentido de backward analysis.
El ejemplo precedente muestra que un algoritmo puede ser estable,
incluso si el problema esta mal condicionado. En consecuencia, es necesario
bien distinguir las nociones de estabilidad y condicion.

www.elsolucionario.net
14 I Preliminares
Ejercicios
1.- >Cual es la condicion de la sustraccion de dos numeros?
2.- Determinar la condicion del problema P (x1 ; x2 ) = x1 =x2 con x2 6= 0.
3.- Hallar la condicion del calculo del producto escalar
X
n
hx; yi = xi yi :
i=1

4.- Mostrar que el sistema lineal


(
ax + by = 1
; con ad 6= bc
cx + dy = 0
es numericamente estable en el sentido de backward analysis.
5.- Las raices del polinomio x2 2px q = 0 son:
p p2
1 = p + p2 + q; 2 = p p + q:
Mostrar que para p > 0, grande, y q  0, muy peque~no, este algoritmo
es numericamente inestable. Utilizando la relacion 1 2 = q, encontrar
un algoritmo que es numericamente estable en el sentido de backward
analysis.

www.elsolucionario.net
I.3 Un ejemplo: Calculo de Pi

En las seccion precedente se ha visto que el dispositivo material que efectua


los calculos numericos tiene en general dos tipos de numeros: los enteros
que se asemejan mucho a los enteros matematicos y el tipo real que es
una representacion del numero real. Tal como se mostro, ambos tipos de
numero presentan ciertas particularidades, por ejemplo son en cantidad
nita, para el tipo real existe el redondeo de los numeros. Por consiguiente
si se utiliza el tipo real para determinar , se tendra una precision de
8 decimales; para doble precision se obtendra 16 decimales de precision;
para cuadruple precision, que algunos lenguajes de programacion cuentan,
se obtendra 32 decimales de precision. Por lo tanto, la precision para obtener
 esta determinada por el lenguaje de programacion y en algunos casos por
el tipo de computadora con que se cuenta.
En esta seccion se pretende mostrar que estas limitaciones no constituyen
necesariamente un impedimento para determinar un numero, en particular
, con la precision que se desee.
Una de las maneras mas usuales de determinar  es utilizar el desarrollo
en serie de Taylor en el origen de arctan x, el cual esta dado por
X
1 ( 1)k x2k+1 :
arctan x = (1:3:1)
k=0 2k + 1
De (I.3.1) se deduce, para x = 1, que
X
1 ( 1)k :
=4 (I:3:2)
k=0 2k + 1
Como se recalco en la seccion I.2, utilizar la serie (I.3.2) no es conveniente,
por que la convergencia de esta serie es muy lenta. Utilizando la relacion
+ tan ;
tan( + ) = 1tantan tan
una veri cacion inmediata conduce a
 = 12 arctan 1 + 8 arctan 1 5 arctan 1 : (I:3:3)
4 18 57 239
Remplazando (I.3.1) en (I.3.3), da como resultado

www.elsolucionario.net
16 I Preliminares

X
1 ( 1)k ( 1 )2k+1
 = 48
| k=0 2k + 1 18
{z }
A
X
1 ( 1)k ( 1 )2k+1 20 X1 ( 1)k 1
+ 32 2 k + 1 57 2 k + 1 ( 239 )2k+1 : (I:3:4)
| k =0
{z } | k =0
{z }
B C
Ahora bien, se desea obtener una representacion de  en notacion decimal
con N decimales de precision. Si cada serie del lado derecho de (I.3.4) es
calculada con una precision de 10 (N +1) se tiene largamente la precision
deseada. Denotando por A^, el valor calculado de A; B^ , el valor calculado de
B y C^ , el valor calculado de C , se tiene:
^ X
MA ( 1)k 1
A = 48 2k + 1 ( 18 )2k+1 ;
k=0
X
MB ( 1)k ( 1 )2k+1 ;
B^ = 32
k=0 2k + 1 57
X
MC 1)k 1
C^ = 20 2(k + 2k+1
1 ( 239 ) :
k=0
De donde:
X 1 ( 1)k 1
 48 (1=18)2MA+3 ;
A^ A = 48 ( )2 k +1

k=MA +1 2k + 1 18 1 (1=18)2
X 1 ( 1)k 1
2k+1

(1=57)2MB +3 ;
B B = 32
^ ( )
 32
k=MB +1 2k + 1 57 1 (1=57)2
X1 ( 1)k 1
2k+1

(1=239)2MC +3 :
C C = 20
^ ( )
 20
k=MC +1 2k + 1 239 1 (1=239)2

Por hipotesis, se tiene por ejemplo que A A^  10 (N +1), por lo tanto
para asegurar esta precision es su ciente que
2MA +3
48 (1=18) 2  10 (N +1);
1 (1=18)
remplazando el signo  por =, se tiene
2MA +3
48 (1=18) 2 = 10 (N +1); (I:3:5)
1 (1=18)

www.elsolucionario.net
I.3 Un ejemplo: Calculo de Pi 17
obteniendo de esta manera
log10 (48) (2MA + 3) log10 (18) log10 (1 (1=18)2) = (N + 1):
Despejando MA, se obtiene

MA = N + 1 + log10 (48) 3 log10 (18) + (1=18) : 2

2 log (18) (I:3:6)


10

Del mismo modo se llega a:

MB = N + 1 + log10 (32) 3 log10 (57) + (1=57) ;


2

2 log10 (57) (I:3:7)

MC = N + 1 + log10 (20) 3 log10 (239) + (1=239)2 :


2 log10 (239) (I:3:8)

Una vez determinada la cantidad de terminos en cada serie para calcular


A^, B^ y C^ , es necesario de nir una representacion de los numeros reales y
su respectiva aritmetica que permita calcular A^, B^ y C^ con la precision
requerida.
Sea b > 1, entonces todo numero positivo x se escribe de manera unica
como
X1
x = ak 1k ; (I:3:9)
k=0 b
donde 0  ak < b para k  1. Suponiendo que b = 10m, para obtener una
representacion de x con N decimales de precision, es su ciente conocer ak
para 0  k  N=m + 2. Se suma 2 a la cota anterior por seguridad. Por lo
tanto, para todo numero positivo x,el redondeado x^ con N cifras decimales
de precision puede escribirse como
X+2
N=m
x^ = ak =10mk ; (I:3:10)
k=0
con 0  ak < 10m para k  1. Comparando (I.3.9) con (I.3.10) se tiene
que ak = ak para 0  k  N=m + 1 y jak ak j  1 para k = N=m + 2,
deduciendose de esta manera la:
Proposicion I.3.1.- Sea x un numero no negativo y x su representacion
dada por (I.3.10), entonces
(N +2m)
jx^ xj  10 : (I:3:11)

www.elsolucionario.net
18 I Preliminares
Con los elementos presentados, se esta en la capacidad de formular un
algoritmo que permita calcular A^, B^ , y C^ ; por razones obvias el algoritmo
sera el mismo. Por consiguiente, es su ciente dar el metodo que permita
calcular A^ con la precision requerida. De la formula (I.3.4) se puede observar
que las operaciones efectuadas son adiciones o sustracciones, divisiones por
expresiones de la forma (2k +1) y divisiones por 18 o 182. La aritmetica sera
consiguientemente de nida en tres pasos o etapas.
El primer paso sera de nir la division por un entero p. Sea x un real
positivo, su redondeo se escribe como en (I.3.10), por consiguiente x=q
redondeado se escribe
X+2 mk
xb = N=m
q k=0 bk =10 ; (I:3:12)
donde los bk se los de ne de manera recursiva, utilizando la division
euclidiana, as:
a0 = b0 q + r0 ;
a1 + r0  10m = b1 q + r1 ;
.. (I:3:13)
.
aN=m+2 + rN=m+1  10m = bN=m+2 + rN=m+2 :
El segundo paso sera de nir la adicion y la sustraccion para dos reales
positivos x y y. Si se denota los redondeados por x^ y y^, sus representaciones
en punto jo estan dadas por:
X+2
N=m X+2
N=m
x^ = ak =10mk ; y^ = bk =10mk :
k=0 k=0
La suma redondeada se escribe por lo tanto
X+2
N=m
 y^ =
x^[ ck =10mk ; (I:3:14)
k=0
donde los ck estan de nidos recursivamente, utilizando la division eu-
clidiana, por:
cN=m+2 + dN=m+2 10m = aN=m+2  bN=m+2;
cN=m+1 + dN=m+1 10m = aN=m+1  bN=m+1 + dN=m+2 ;
.. (I:3:15)
.
c0 = a0  b0 + d1 :
El tercer paso sera de nir la multiplicacion de un real positivo con un
entero q. Sea el productovskip-3pt
X+2
N=m
qcx^ = bk =10mk ; (I:3:16)
k=0

www.elsolucionario.net
I.3 Un ejemplo: Calculo de Pi 19
donde x^ esta dado por (I.3.10), los coe cientes bk estan de nidos recursiva-
mente, utilizando la division euclidiana, de la manera siguiente:
qaN=m+2 = bN=m+2 + dN=m+2 10m;
qaN=m+1 + dN=m+2 = bN=m+1 + dN=m+1 10m;
.. (I:3:17)
.
b0 = qa0 + d1 :
Habiendo de nido las operaciones requeridas para calcular  con la
precision requerida, se puede de nir el algoritmo que calculara A^, y por
consiguiente ^ .
Algoritmo
1.- Se de ne x := 1=18, a = x, k = 0.
2.- Hacer para k = 1 hasta k = MA:
x := x=182;
y := x=(2k + 1);
a; = a + ( 1)k y:
3.- a := 48  a.
Finalmente, se debe hacer un analisis de la propagacion de errores de
redondeo, cometidos en el calculo de A^, para asegurar que el resultado que
de la computadora corresponde con lo esperado. Este estudio se lo efectuara
en tres partes. Sea x^2k+1 el resultado realizado por el algoritmo al calcular
x2k+1 para x = 1=18. Utilizando la proposicion I.3.1, se tiene,
x^ = x + ; jj  10 N 2m : (I:3:18)
deduciendose inmediatamente:
x^3 = (x + )=182 + ;
x^5 = x^3 =182 + ; (I:3:19)
..
.
Utilizando desigualdades triangulares y considerando series geometricas, se
obtiene x^2k+1 x2k+1  1 10 N 2m: (I:3:20)
1 (1=18)2
La segunda operacion, que aparece en el algoritmo, es la division por los
enteros de la forma 2k + 1. Por el mismo procedimiento que antes, se llega a
2k+1\
x =(2k + 1) x2k+1 =(2k + 1)  2  10 N 2m: (I:3:21)

www.elsolucionario.net
20 I Preliminares
Por ultimo para obtener A^, se tiene una suma de MA + 1 terminos y un
producto por 48. En cada suma se comete un error menor a 2  10 N 2m, de
donde se tiene como estimacion del error acumulado

A^ A  192(MA + 1)10 N 2m (I:3:22)
Ahora bien, si 192(MA +1) es mas peque~no que 102m 1, entonces el objetivo
es satisfecho largamente.
Como ilustracion de lo expuesto, se ha calculado  con 10000 decimales
de precision, utilizando una HP-9000.
 con 10000 decimales
3.1415926535 8979323846 2643383279 5028841971 6939937510 E-00050
5820974944 5923078164 0628620899 8628034825 3421170679 E-00100
8214808651 3282306647 0938446095 5058223172 5359408128 E-00150
4811174502 8410270193 8521105559 6446229489 5493038196 E-00200
4428810975 6659334461 2847564823 3786783165 2712019091 E-00250
4564856692 3460348610 4543266482 1339360726 0249141273 E-00300
7245870066 0631558817 4881520920 9628292540 9171536436 E-00350
7892590360 0113305305 4882046652 1384146951 9415116094 E-00400
3305727036 5759591953 0921861173 8193261179 3105118548 E-00450
0744623799 6274956735 1885752724 8912279381 8301194912 E-00500
9833673362 4406566430 8602139494 6395224737 1907021798 E-00550
6094370277 0539217176 2931767523 8467481846 7669405132 E-00600
0005681271 4526356082 7785771342 7577896091 7363717872 E-00650
1468440901 2249534301 4654958537 1050792279 6892589235 E-00700
4201995611 2129021960 8640344181 5981362977 4771309960 E-00750
5187072113 4999999837 2978049951 0597317328 1609631859 E-00800
5024459455 3469083026 4252230825 3344685035 2619311881 E-00850
7101000313 7838752886 5875332083 8142061717 7669147303 E-00900
5982534904 2875546873 1159562863 8823537875 9375195778 E-00950
1857780532 1712268066 1300192787 6611195909 2164201989 E-01000
3809525720 1065485863 2788659361 5338182796 8230301952 E-01050
0353018529 6899577362 2599413891 2497217752 8347913151 E-01100
5574857242 4541506959 5082953311 6861727855 8890750983 E-01150
8175463746 4939319255 0604009277 0167113900 9848824012 E-01200
8583616035 6370766010 4710181942 9555961989 4676783744 E-01250
9448255379 7747268471 0404753464 6208046684 2590694912 E-01300
9331367702 8989152104 7521620569 6602405803 8150193511 E-01350
2533824300 3558764024 7496473263 9141992726 0426992279 E-01400
6782354781 6360093417 2164121992 4586315030 2861829745 E-01450
5570674983 8505494588 5869269956 9092721079 7509302955 E-01500
3211653449 8720275596 0236480665 4991198818 3479775356 E-01550
6369807426 5425278625 5181841757 4672890977 7727938000 E-01600
8164706001 6145249192 1732172147 7235014144 1973568548 E-01650
1613611573 5255213347 5741849468 4385233239 0739414333 E-01700
4547762416 8625189835 6948556209 9219222184 2725502542 E-01750
5688767179 0494601653 4668049886 2723279178 6085784383 E-01800
8279679766 8145410095 3883786360 9506800642 2512520511 E-01850
7392984896 0841284886 2694560424 1965285022 2106611863 E-01900
0674427862 2039194945 0471237137 8696095636 4371917287 E-01950
4677646575 7396241389 0865832645 9958133904 7802759009 E-02000
9465764078 9512694683 9835259570 9825822620 5224894077 E-02050
2671947826 8482601476 9909026401 3639443745 5305068203 E-02100
4962524517 4939965143 1429809190 6592509372 2169646151 E-02150
5709858387 4105978859 5977297549 8930161753 9284681382 E-02200
6868386894 2774155991 8559252459 5395943104 9972524680 E-02250
8459872736 4469584865 3836736222 6260991246 0805124388 E-02300
4390451244 1365497627 8079771569 1435997700 1296160894 E-02350
4169486855 5848406353 4220722258 2848864815 8456028506 E-02400
0168427394 5226746767 8895252138 5225499546 6672782398 E-02450
6456596116 3548862305 7745649803 5593634568 1743241125 E-02500
1507606947 9451096596 0940252288 7971089314 5669136867 E-02550
2287489405 6010150330 8617928680 9208747609 1782493858 E-02600
9009714909 6759852613 6554978189 3129784821 6829989487 E-02650
2265880485 7564014270 4775551323 7964145152 3746234364 E-02700

www.elsolucionario.net
I.3 Un ejemplo: Calculo de Pi 21
5428584447 9526586782 1051141354 7357395231 1342716610 E-02750
2135969536 2314429524 8493718711 0145765403 5902799344 E-02800
0374200731 0578539062 1983874478 0847848968 3321445713 E-02850
8687519435 0643021845 3191048481 0053706146 8067491927 E-02900
8191197939 9520614196 6342875444 0643745123 7181921799 E-02950
9839101591 9561814675 1426912397 4894090718 6494231961 E-03000
5679452080 9514655022 5231603881 9301420937 6213785595 E-03050
6638937787 0830390697 9207734672 2182562599 6615014215 E-03100
0306803844 7734549202 6054146659 2520149744 2850732518 E-03150
6660021324 3408819071 0486331734 6496514539 0579626856 E-03200
1005508106 6587969981 6357473638 4052571459 1028970641 E-03250
4011097120 6280439039 7595156771 5770042033 7869936007 E-03300
2305587631 7635942187 3125147120 5329281918 2618612586 E-03350
7321579198 4148488291 6447060957 5270695722 0917567116 E-03400
7229109816 9091528017 3506712748 5832228718 3520935396 E-03450
5725121083 5791513698 8209144421 0067510334 6711031412 E-03500
6711136990 8658516398 3150197016 5151168517 1437657618 E-03550
3515565088 4909989859 9823873455 2833163550 7647918535 E-03600
8932261854 8963213293 3089857064 2046752590 7091548141 E-03650
6549859461 6371802709 8199430992 4488957571 2828905923 E-03700
2332609729 9712084433 5732654893 8239119325 9746366730 E-03750
5836041428 1388303203 8249037589 8524374417 0291327656 E-03800
1809377344 4030707469 2112019130 2033038019 7621101100 E-03850
4492932151 6084244485 9637669838 9522868478 3123552658 E-03900
2131449576 8572624334 4189303968 6426243410 7732269780 E-03950
2807318915 4411010446 8232527162 0105265227 2111660396 E-04000
6655730925 4711055785 3763466820 6531098965 2691862056 E-04050
4769312570 5863566201 8558100729 3606598764 8611791045 E-04100
3348850346 1136576867 5324944166 8039626579 7877185560 E-04150
8455296541 2665408530 6143444318 5867697514 5661406800 E-04200
7002378776 5913440171 2749470420 5622305389 9456131407 E-04250
1127000407 8547332699 3908145466 4645880797 2708266830 E-04300
6343285878 5698305235 8089330657 5740679545 7163775254 E-04350
2021149557 6158140025 0126228594 1302164715 5097925923 E-04400
0990796547 3761255176 5675135751 7829666454 7791745011 E-04450
2996148903 0463994713 2962107340 4375189573 5961458901 E-04500
9389713111 7904297828 5647503203 1986915140 2870808599 E-04550
0480109412 1472213179 4764777262 2414254854 5403321571 E-04600
8530614228 8137585043 0633217518 2979866223 7172159160 E-04650
7716692547 4873898665 4949450114 6540628433 6639379003 E-04700
9769265672 1463853067 3609657120 9180763832 7166416274 E-04750
8888007869 2560290228 4721040317 2118608204 1900042296 E-04800
6171196377 9213375751 1495950156 6049631862 9472654736 E-04850
4252308177 0367515906 7350235072 8354056704 0386743513 E-04900
6222247715 8915049530 9844489333 0963408780 7693259939 E-04950
7805419341 4473774418 4263129860 8099888687 4132604721 E-05000
5695162396 5864573021 6315981931 9516735381 2974167729 E-05050
4786724229 2465436680 0980676928 2382806899 6400482435 E-05100
4037014163 1496589794 0924323789 6907069779 4223625082 E-05150
2168895738 3798623001 5937764716 5122893578 6015881617 E-05200
5578297352 3344604281 5126272037 3431465319 7777416031 E-05250
9906655418 7639792933 4419521541 3418994854 4473456738 E-05300
3162499341 9131814809 2777710386 3877343177 2075456545 E-05350
3220777092 1201905166 0962804909 2636019759 8828161332 E-05400
3166636528 6193266863 3606273567 6303544776 2803504507 E-05450
7723554710 5859548702 7908143562 4014517180 6246436267 E-05500
9456127531 8134078330 3362542327 8394497538 2437205835 E-05550
3114771199 2606381334 6776879695 9703098339 1307710987 E-05600
0408591337 4641442822 7726346594 7047458784 7787201927 E-05650
7152807317 6790770715 7213444730 6057007334 9243693113 E-05700
8350493163 1284042512 1925651798 0694113528 0131470130 E-05750
4781643788 5185290928 5452011658 3934196562 1349143415 E-05800
9562586586 5570552690 4965209858 0338507224 2648293972 E-05850
8584783163 0577775606 8887644624 8246857926 0395352773 E-05900
4803048029 0058760758 2510474709 1643961362 6760449256 E-05950
2742042083 2085661190 6254543372 1315359584 5068772460 E-06000
2901618766 7952406163 4252257719 5429162991 9306455377 E-06050
9914037340 4328752628 8896399587 9475729174 6426357455 E-06100
2540790914 5135711136 9410911939 3251910760 2082520261 E-06150
8798531887 7058429725 9167781314 9699009019 2116971737 E-06200
2784768472 6860849003 3770242429 1651300500 5168323364 E-06250
3503895170 2989392233 4517220138 1280696501 1784408745 E-06300
1960121228 5993716231 3017114448 4640903890 6449544400 E-06350

www.elsolucionario.net
22 I Preliminares
6198690754 8516026327 5052983491 8740786680 8818338510 E-06400
2283345085 0486082503 9302133219 7155184306 3545500766 E-06450
8282949304 1377655279 3975175461 3953984683 3936383047 E-06500
4611996653 8581538420 5685338621 8672523340 2830871123 E-06550
2827892125 0771262946 3229563989 8989358211 6745627010 E-06600
2183564622 0134967151 8819097303 8119800497 3407239610 E-06650
3685406643 1939509790 1906996395 5245300545 0580685501 E-06700
9567302292 1913933918 5680344903 9820595510 0226353536 E-06750
1920419947 4553859381 0234395544 9597783779 0237421617 E-06800
2711172364 3435439478 2218185286 2408514006 6604433258 E-06850
8856986705 4315470696 5747458550 3323233421 0730154594 E-06900
0516553790 6866273337 9958511562 5784322988 2737231989 E-06950
8757141595 7811196358 3300594087 3068121602 8764962867 E-07000
4460477464 9159950549 7374256269 0104903778 1986835938 E-07050
1465741268 0492564879 8556145372 3478673303 9046883834 E-07100
3634655379 4986419270 5638729317 4872332083 7601123029 E-07150
9113679386 2708943879 9362016295 1541337142 4892830722 E-07200
0126901475 4668476535 7616477379 4675200490 7571555278 E-07250
1965362132 3926406160 1363581559 0742202020 3187277605 E-07300
2772190055 6148425551 8792530343 5139844253 2234157623 E-07350
3610642506 3904975008 6562710953 5919465897 5141310348 E-07400
2276930624 7435363256 9160781547 8181152843 6679570611 E-07450
0861533150 4452127473 9245449454 2368288606 1340841486 E-07500
3776700961 2071512491 4043027253 8607648236 3414334623 E-07550
5189757664 5216413767 9690314950 1910857598 4423919862 E-07600
9164219399 4907236234 6468441173 9403265918 4044378051 E-07650
3338945257 4239950829 6591228508 5558215725 0310712570 E-07700
1266830240 2929525220 1187267675 6220415420 5161841634 E-07750
8475651699 9811614101 0029960783 8690929160 3028840026 E-07800
9104140792 8862150784 2451670908 7000699282 1206604183 E-07850
7180653556 7252532567 5328612910 4248776182 5829765157 E-07900
9598470356 2226293486 0034158722 9805349896 5022629174 E-07950
8788202734 2092222453 3985626476 6914905562 8425039127 E-08000
5771028402 7998066365 8254889264 8802545661 0172967026 E-08050
6407655904 2909945681 5065265305 3718294127 0336931378 E-08100
5178609040 7086671149 6558343434 7693385781 7113864558 E-08150
7367812301 4587687126 6034891390 9562009939 3610310291 E-08200
6161528813 8437909904 2317473363 9480457593 1493140529 E-08250
7634757481 1935670911 0137751721 0080315590 2485309066 E-08300
9203767192 2033229094 3346768514 2214477379 3937517034 E-08350
4366199104 0337511173 5471918550 4644902636 5512816228 E-08400
8244625759 1633303910 7225383742 1821408835 0865739177 E-08450
1509682887 4782656995 9957449066 1758344137 5223970968 E-08500
3408005355 9849175417 3818839994 4697486762 6551658276 E-08550
5848358845 3142775687 9002909517 0283529716 3445621296 E-08600
4043523117 6006651012 4120065975 5851276178 5838292041 E-08650
9748442360 8007193045 7618932349 2292796501 9875187212 E-08700
7267507981 2554709589 0455635792 1221033346 6974992356 E-08750
3025494780 2490114195 2123828153 0911407907 3860251522 E-08800
7429958180 7247162591 6685451333 1239480494 7079119153 E-08850
2673430282 4418604142 6363954800 0448002670 4962482017 E-08900
9289647669 7583183271 3142517029 6923488962 7668440323 E-08950
2609275249 6035799646 9256504936 8183609003 2380929345 E-09000
9588970695 3653494060 3402166544 3755890045 6328822505 E-09050
4525564056 4482465151 8754711962 1844396582 5337543885 E-09100
6909411303 1509526179 3780029741 2076651479 3942590298 E-09150
9695946995 5657612186 5619673378 6236256125 2163208628 E-09200
6922210327 4889218654 3648022967 8070576561 5144632046 E-09250
9279068212 0738837781 4233562823 6089632080 6822246801 E-09300
2248261177 1858963814 0918390367 3672220888 3215137556 E-09350
0037279839 4004152970 0287830766 7094447456 0134556417 E-09400
2543709069 7939612257 1429894671 5435784687 8861444581 E-09450
2314593571 9849225284 7160504922 1242470141 2147805734 E-09500
5510500801 9086996033 0276347870 8108175450 1193071412 E-09550
2339086639 3833952942 5786905076 4310063835 1983438934 E-09600
1596131854 3475464955 6978103829 3097164651 4384070070 E-09650
7360411237 3599843452 2516105070 2705623526 6012764848 E-09700
3084076118 3013052793 2054274628 6540360367 4532865105 E-09750
7065874882 2569815793 6789766974 2205750596 8344086973 E-09800
5020141020 6723585020 0724522563 2651341055 9240190274 E-09850
2162484391 4035998953 5394590944 0704691209 1409387001 E-09900
2645600162 3742880210 9276457931 0657922955 2498872758 E-09950
4610126483 6999892256 9596881592 0560010165 5256375678 E-10000

www.elsolucionario.net
Captulo II
Sistemas Lineales

Una gran cantidad de problemas implica la resolucion de sistemas lineales


de la forma
Ax = b;
donde 0 a11    a1n 1 0 b1 1
A = @ ... .. A ;
. b = @ ... A
an1    ann bn
con coe cientes reales o complejos. Por esta necesidad es importante la cons-
truccion de algoritmos que permitan su resolucion en un tiempo razonable y
con el menor error posible. Cada problema tiene su particularidad, motivo
por el cual no existe un metodo general mediante el cual se pueda resolver e -
cazmente todos los problemas. Es verdad que existen metodos casi generales,
que con peque~nas modi caciones pueden servir para encontrar la solucion
de un problema particular. A lo largo de este captulo se expondran estos
metodos, dando criterios de estabilidad y estimaciones de error.
En la primera seccion se tratara la condicion del problema lineal, para
este efecto sera necesario introducir elementos de la teora de normas en
las matrices, para luego introducir las nociones relativas a la condicion del
problema lineal.
En la segunda seccion se abordara los metodos de resolucion como son:
el Algoritmo de Eliminacion de Gauss, la Descomposicion de Cholesky y
algunas modi caciones de estos metodos. En esta seccion se estudiara la
implementacion de tales metodos, como tambien la estabilidad de estos.
La tercera seccion tratara, la teora e implementacion de los metodos ite-
rativos lineales como: Jacobi, Gauss-Seidel y SOR. As mismo se analizaran
algunos problemas tipos y se haran comparaciones de tales metodos.
En la cuarta seccion, se vera los metodos de tipo gradiente cuyo enfoque
es diferente a los metodos de las dos secciones precedentes, en efecto, son
metodos que encuentran la solucion a partir de problemas de minimizacion.
Se resolveran ejemplos tipos y se comparara la e ciencia de estos con otros
metodos.

www.elsolucionario.net
24 II Sistemas Lineales
La ultima seccion describira el Metodo de los Mnimos Cuadrados, como
una generalizacion de lo anteriormente expuesto, introduciendo como coro-
lario la nocion de Pseudo-Inversa. As mismo se analizara la implementacion
del metodo QR, incluyendo una estimacion del error de tal metodo.

www.elsolucionario.net
II.1 Condicion del Problema lineal

Normas de Vectores y Matrices


La nocion de norma y espacio normado es un instrumento matematico muy
util en el estudio de las magnitudes que se manipulan, como tambien un
instrumento en el estudio de la convergencia y los lmites. Se empezara
de niendo el concepto de norma en espacios Rn , para luego de nir en el
algebra de las matrices a coe cientes reales.
De nicion II.1.1.- Una norma sobre Rn es una aplicacion
k k : Rn ! R;
con las siguientes propiedades:
i) kxk  0; kxk = 0 () x = 0;
ii) k xk = j j kxk ; donde 2 R;
iii) kx + yk = kxk + kyk :
La primera condicion implica que una norma siempre es positiva y es
nula siempre y cuando el vector sea el vector nulo. La segunda propiedad es
la homogeneidad de la norma y la tercera condicion es mas conocida como
desigualdad del triangulo. Las normas mas usuales en Rn son las siguientes:
X
n
kxk1 = jxi j ; norma ciudad-bloque;
i=1
Xn ! 12
kxk2 = jxi j 2
; norma euclidiana;
i=1
Xn ! p1
kxkp = jxi j2 ; p > 1;
i=1
kxk1 = i=1max jx j ;
;:::;n i
norma de la convergencia uniforme:

Estas normas, que son las usualmente utilizadas, tienen algunas propiedades
en comun. La mas importante es que, si se aumenta en valor absoluto una
de las componentes, la norma se incrementa. Es necesario formalizar este
hecho, motivo por el cual, se tiene la:

www.elsolucionario.net
26 II Sistemas Lineales
De nicion II.1.2.- Si x = (x1 ; : : : ; xn ) 2 Rn , se de ne el valor absoluto de
x como jxj = (jx1 j ; : : : ; jxn j). Se dice que jxj  jyj, si jxi j  jyi j para todo
i = 1; : : : ; n. Una norma k k sobre Rn se dice que es:
(a) Monotona, si jxj  jyj implica que kxk  kyk para todo
x; y 2 Rn .
(b) Absoluta, si kxk = kjxjk para todo x 2 Rn .
Proposicion II.1.3.- Una norma k k sobre Rn es monotona, si y solamente
si es absoluta.
Demostracion.- Si la norma k k es monotona, sea x 2 Rn , llamenos y = jxj.
Como jxj  jyj, y jyj  jxj se tiene inmediatamente, porque la norma es
monotona, que kxk = kyk.
Si la normak k es absoluta, sea x 2 Rn , considerese
x = (x1 ; : : : ; xk 1 ; xk ; xk+1 ; : : : ; xn ), con 2 [0; 1]. Utilizando el hecho
que la norma sea absoluta, desigualdad del triangulo y efectuando calculos
algebraicos se tiene:
1 1


kxk = 2 (1 )(x1 ; : : : ; xk 1 ; xk ; xk+1 ; : : : ; xn ) + 2 (1 )x + x
 12 (1 ) k(x1 ; : : : ; xk 1 ; xk ; xk+1 ; : : : ; xn )k + 12 (1 ) kxk + x
= 12 (1 ) kxk + 12 (1 ) kxk + kxk = kxk :
Ahora bien, si x = (x1 ; : : : ; xk ; : : : ; xn ) y y = (x1 ; : : : ; xk1 ; yk ; xk+1 ; : : : ; xn ),
con jyk j  jxk j, utilizando la desigualdad anterior se tiene kxk  kyk. Para
demostrar que jxj  jyj implica que kxk  kyk, se repite el anterior paso n
veces, es decir una vez por cada componente. 
Una matriz de orden m  n puede ser vista como un vector que pertenece
al espacio Rmn , de esta manera de nir la norma de una matriz como la de
un vector, pero se perdera as muchas de las propiedades que tiene una
aplicacion lineal. Es por eso la:
De nicion II.1.4.- Sea A una matriz de m  n, se de ne su norma como
kAk = sup kkAx
xk
k = sup kAxk : (II:1:1)
x6=0 kxk=1
La de nicion de la norma de una matriz depende evidentemente de las
normas elegidas para kxk y kAxk. Sin embargo puede ser veri cado sin
ningun problema, que la norma de una matriz, veri ca las condiciones de
norma de un vector. La demostracion es una simple veri cacion de estas
condiciones, utilizando la de nicion de supremo. Ademas si las norma de los
espacios Rn y Rm son monotonas o absolutas, es facil veri car que la norma

www.elsolucionario.net
II.1 Condicio n del Problema lineal 27
de matriz inducida por estas, es todava monotona; es su ciente utilizar
la de nicion para probar esta a rmacion. Por otro lado kAk es el numero
positivo mas peque~no que satisface kAxk  kxk, por lo tanto
kAxk  kAkkxk ; 8x 2 Rn : (II:1:2)
Una norma sobre el espacio de matrices veri ca las siguientes propiedades,
dada por la:
Proposicion II.1.5.- Cualquier norma sobre el espacio de las matrices
Mm (R) satisface las propiedades adicionales siguientes:
kI k = 1; (II:1:3)
kAB k  kAk kB k : (II:1:4)
Demostracion.- La relacion (II.1.3) de la proposicion es consecuencia
inmediata de la de nicion de la norma de una matriz.
La relacion (II.1.4) es consecuencia de las observaciones hechas despues de
la de nicion, en efecto
kABxk  kAk kBxk  kAk kB kkxk ;
kABxk  kAkkB k ;
kxk
kAB k  kAk kB k :

Se ha dado las propiedades esenciales de la norma de matrices, pero es
necesario conocer algunas de estas por su utilizacion frecuente. Utilizando
la misma notacion que en las normas de los vectores de nidas al inicio de
la seccion, se puede utilizar la misma notacion en los ndices de las normas
de las matrices, con la convencion que las normas de los vectores tienen los
mismos ndices.
Teorema II.1.6.- Sea A una matriz de n  m, entonces:
X
n
kAk1 = j=1max
;:::;m
jaij j ; (II:1:5)
p i=1
kAk2 = valor propio mas grande de At A; (II:1:6)
X
m
kAk1 = i=1max
;:::;n
jaij j : (II:1:7)
j =1

www.elsolucionario.net
28 II Sistemas Lineales
Demostracion.- Se comenzara por kAk1 , se tiene:
m
n X
n m
X X X ja j jx j
kAxk1 = aij xj 
i=1 j =1 i=1 j=1 ij j
Xm X n ! Xn !
 jaij j jxj j  max ja j
j =1;:::;m i=1 ij
kxk1 ;
j =1 i=1
X
n
por lo tanto kAk1  j=1max
;:::;m
jaij j :
i=1
Se mostrara, que la igualdad se cumple, en efecto, sea jo tal que:
X
n X
n
jaijo j = j=1max
;:::;m
jaij j ; y x tal que xjo = 1; xi = 0 si i 6= jo ;
i=1 0 a 1
i=1
1.jo C X
n
de esta manera kAxk = B@ .. A = jaijo j kxk1 :
amjo 1 i=1
Para la k k2 se tiene:
kAxk22 = hAx; Axi = xt At Ax;
ahora bien At A es una matriz simetrica de nida positiva, de donde los
valores propios son reales no negativos, ademas es posible formar una base de
vectores propios ortonormales. Sea fe1 ; : : : ; em g una base de vectores propios
Xm Xm
ortonormales, entonces x = i ei y Ax = i i ei , donde los i  0 son
i=1 i=1
los valores propios de A. Por lo tanto, se tiene
X
m X
m
kAxk22 = 2i 2i  i=1max 
;:::;m i
2i = i=1max  kxk2 :
;:::;m i
i=1 i=1
Para obtener la igualdad, es su ciente tomar x = ejo , donde jo es el
autovalor mas grande.
Para la k k1 se tiene:
m 0m 1
X
a x  max @ ja j jx jAX
kAxk1 = i=1max
;:::;n j =1 ij j i=1;:::;n j =1 ij j
0m 1 0 1
X
@ jaij j j=1max X
m
 i=1
max:::;n
jx jA  @i=1max
;:::;m j ;:::;n
jaij jA kxk1 ;
j =1 j =1
X
m
as kAk1  j=1max
;:::;m
jaij j :
j =1

www.elsolucionario.net
II.1 Condicio n del Problema lineal 29
Para obtener la igualdad es su ciente tomar x = 1, donde 1 = (1; : : : ; 1)t .


La Condicion de una Matriz


La resolucion de un sistema lineal de ecuaciones debe hacer meditar sobre
muchos aspectos relacionados, como ser la existencia de la solucion, si el
problema a resolver esta bien condicionado, conocer una estimacion del error
cometido en la solucion numerica, etc. Se tiene inicialmente el sistema de
ecuaciones
Ax = b; donde A 2 Mn (R), y b 2 Rn ; (II:1:8)
el problema es encontrar x 2 R que sea solucion del sistema (II.1.8), esta
situacion puede escribirse formalmente como
P (A; b) = x:
De esta manera la condicion del problema esta dada por
P (A; b) P (A; b)
jP (A; b)j  cond  eps; (II:1:9)
donde:
aij = aij (1 + ij ); jij j  eps; (II:1:10)
bi = bi (1 + i ); ji j  eps: (II:1:100)
 b) = x, se tiene kx xk  cond  eps. Por otro lado,
Si se plantea P (A; kxk
considerando que solamente normas mononotas son utilizadas, se tiene:
0 a1111    a1nn1 1
@ .. .. .. A  eps kAk ;
. . .
an1 n1    ann nn
de esta manera
A A  eps kAk y b b  eps kbk : (II:1:11)
Suponiendo que la matriz sea inversible, se puede enunciar el siguiente
teorema, pero antes una de nicion es necesaria.
De nicion II.1.7.- La condicion de una matriz A inversible se de ne como
cond(A) = kAk A
1
: (II:1:12)

www.elsolucionario.net
30 II Sistemas Lineales
Teorema
A A  II.1.8.- Sea A una matriz con det A 6= 0, supongase que
kAk A , b b  kbk b . Si A cond(A) < 1, entonces
kx xk  cond(A) ( +  ): (II:1:13)
kxk 1 A cond(A) A b
Si ademas se tiene A cond(A) < 21 , entonces la condicion del problema
resolver Ax = b es  2cond(A).
Demostracion.- Se tiene Ax = b y Ax = b, de donde:
Ax Ax = b b y Ax Ax + Ax  Ax = b b;
A(x x) = (A A)x + (b b); x x = A 1 (A A)x + A 1 (b b);
 
introduciendo las desigualdades
en las normas se obtiene:

kx xk  A 1 A A kxk + A 1 b b

 A 1 (kAk A (kxk + kx xk) + kbk b )

 A 1 kAk (A (kxk + kx xk) + kxk b ) ;
de esta manera kxkxkxk  1 cond( A)
 cond(A) (A + b ): 
A
Como la condicion del problema lineal esta ntimamente ligada a la
condicion de la matriz, es importante conocer algunas de sus propiedades,
dadas por la:
Proposicion II.1.9.- La condicion de una matriz satisface las siguientes
propiedades:
cond(A)  1; (II:1:14)
cond(I ) = 1; (II:1:15)
cond( A) = cond(A); 2 R: (II:1:16)
Demostracion.- Veri cacion inmediata. 
Ejemplos
1.- Q ortogonal, es decir Qt Q = I , la condicion respecto a la norma k k2
esta dada por
cond2 (Q) = 1: (II:1:17)
2.- Sea la matriz A dada por
0 4 1 0  0 1
BB 1 4 1    0 CC
A= hB 1
BB .... . . . . . . ... ... CCC ;
@ ..    1 4 1 A
  1 4

www.elsolucionario.net
II.1 Condicio n del Problema lineal 31
entonces kAk1 = h6 , ademas A = h4 (I + N ) donde
00 01
4 01   
1

B 41 0 4  0C
N =B
B@ .. C;
.. C kN k1 = 12 < 1:
. ... ...    .A
0    0 41 0
Se deduce que
A 1 = h4 (I + N ) 1 = h4 (I N + N 2 N 3 +   );
A 1  h (1 + kN k + N 2 +   )
1 4
 
 h4 1 1kN k
 h2 ;
entonces cond1 (A)  3, por lo tanto, la matriz es bien condicionada.
3.- El siguiente ejemplo muestra la existencia de una matriz mal condi-
cionada.
Sea H la matriz de n  n, llamada matriz de Hilbert, de nida por
hij = i + j1 1 ; i; j = 1; : : : ; n:
H es una matriz simetrica de nida positiva, motivo por el cual la
condicion respecto a la norma euclidiana esta dada por
cond2 H = max ;
min
donde los  son valores propios de H . Se puede mostrar que
cond2 H  cen : (II:1:18)
Se puede observar claramente que las matrices de Hilbert son mal
condicionadas, inclusive para n bastante peque~no.
4.- Finalmente, este ejemplo muestra la existencia de otra matriz mal
condicionada, como ser las matrices de Vandermonde. Sea V la matriz
de n  n de nida por
0 1 1  1 1
V =B
B c1 c2    cn CC ;
@ ... .    .. A
.. .
cn1 1 cn2 1    cnn 1

www.elsolucionario.net
32 II Sistemas Lineales
donde los ci son diferentes. Se puede mostrar que la cond2 V  bn ,
donde b > 1.
Ahora bien, la estimacion kkxxkxk  2cond(A)eps puede ser demasiada
pesimista, para ver esto, considerese el siguiente ejemplo,
 1 1  x   2 
0 108 y = 1 :

Si se llama A a la matriz del sistema, se tiene kAk2 = 108 y A 1  1. El
sistema con los errores de redondeo incorporados, esta dado por:
 1 +  1 +    x 
0 108(1 + 3 ) = y = ( 2(1 + 4 ) 1 + 5 ) ;
1 2

y = 108 11 + 5
+ 3 ' 10 (1 + 5 3);
8

de donde jy yj  2eps:


jyj
Calculando x; se tiene
x = 2(1 + 41) + (1 + 2 )y
1

= 2 10 + 24 1 +10 (2 + 5 3)


8 8

= x + 21 101 + (2 + 5 3 )


8

1
' x(1 + 4eps);
por lo tanto, jx xj  4eps:
jxj
El problema es bien condicionado, aunque la matriz A tenga una gran
condicion. Si se multiplica el sistema de ecuaciones por una matriz diagonal
D se obtiene, el nuevo problema dado por
DAx = Db;
por el teorema II.1.8, se tiene
kx xk  2cond(DA)eps; si cond(DA)eps < 1 :
kxk 2
En el ejemplo anterior, se plantea
1 0  1 1
D = 0 10 8 ; as DA = 0 1 ;

www.elsolucionario.net
II.1 Condicio n del Problema lineal 33
obteniendo el:
Corolario II.1.10.- Con las misma hipotesis del teorema II.1.8, y ademas
si cond(DA)eps < 21 , se tiene
La condicion del problema  2 D diagonal
inf cond(DA): (II:1:19)

Ejercicios
1.- a) Sea k k de nida en Rn . La bola unitaria cerrada se de ne como

B = x 2 Rn kxk  1 ;

mostrar que la bola unitaria es un conjunto convexo.
b) Sea D un conjunto convexo acotado, en cuyo interior esta 0. Si se supone
que D es equilibrado, es decir si x 2 D implica que x 2 D. Mostrar que
se puede de nir una norma cuya bola unitaria cerrada sea precisamente
D.
2.- >Es la funcion f (x) = jx1 x2 j + jx2 j una norma sobre R2 ? Si lo es, >es
monotona? Dibujar la bola unitaria.
3.- Dar las condiciones para que una norma sea monotona, observando su
bola unitaria cerrada.
4.- Para una matriz A se de ne la norma de Frobenius como
v
u
uX
kAkF = t
n X
n
jaij j2 :
i=1 j =1
a) Mostrar que kAkF es una norma sobre Rnn .
b) Veri car la desigualdad
kAk2  kAkF  pn kAk2 :
5.- Veri car la desigualdad
max ja j  kAk2  n: max
i;j ij
ja j :
i;j ij

6.- Sea A una matriz con det A 6= 0. Mostrar que


A 1 =  min kAxk :
kxk=1

www.elsolucionario.net
34 II Sistemas Lineales
7.- Sea R una matriz triangular inversible. Mostrar que:

jrii j  kRkp ; jrii j 1  R 1 p ; para p = 1; 2; 1:
Deducir que
condp (R)  max jrii j :
i;k jr j kk
8.- Sea
02 1 + 1  0   0
1
B h0 h1   CC
B h1 2 h11 + h12 h12   
A=B CC
0
B
B
 CA
1
@ ... ... ... .
0  1 .. 1
0  0 hn 2
1
2 hn 2 + hn 1

la matriz, que se encuentra en la interpolacion spline. Mostrar:


a) cond1 (A) puede ser arbitrariamente grande.
(Si max hi = min hi ! 1).
b) Existe una matriz diagonal D tal que cond1 (DA)  3.

www.elsolucionario.net
II.2 Metodos Directos

En esta seccion se desarrollara los algoritmos de resolucion directa de


sistemas lineales mas comunes en la actualidad. El problema a resolver es
Ax = b; (II:2:1)
donde A 2 Mn (R), x; b 2 Rn . Por los resultados obtenidos en la teora del
Algebra Lineal, este sistema de ecuaciones lineales tiene una sola solucion,
si y solamente si det A 6= 0. Para mostrar la importancia de contar con
algoritmos cuyo costo en operaciones sea mnimo, vale la pena dar el siguiente
ejemplo de resolucion de este sistema de ecuaciones lineales. El ejemplo
consiste en la utilizacion de la regla de Cramer, que en si misma constituye
uno de los resultados teoricos mas hermosos que se ha obtenido. Para ilustrar
el metodo de Cramer, se debe hacer algunas convenciones sobre la notacion.
Para comenzar una matriz A de n  n se puede escribir como
A = (A1 ; : : : ; An )
donde Ai es la i-esima columna de la matriz A. Dada una matriz A y un
vector b 2 Rn , se denota por
A(j) = (A1 ; : : : ; Aj 1 ; b; Aj+1 ; : : : ; An ;
la matriz obtenida remplazando la j-esima columna por el vector b. Ahora
bien, la solucion del sistema (II.2.1) esta dada por
A (i)
xi = det
det A ;
donde x = (x1 ; : : : ; xn ). Por lo tanto, la resolucion del sistema implica el
calculo de n+1 determinantes. Si para encontrar el valor de los determinantes
se utiliza la siguiente relacion
X Y
n
signo() ai(i) ;
2Sn i=1
donde Sn es el grupo de permutaciones de n elementos, se debe efectuar n!
sumas. Si se desea resolver un sistema de 69 ecuaciones con el mismo numero
de incognitas, suponiendo que cada suma se efectua en 10 9 segundos,
se tardara aproximadamente 6:75  1049 a~nos en llegar a la solucion del

www.elsolucionario.net
36 II Sistemas Lineales
problema. Como conclusion se puede decir que existen metodos cuyo valor
teorico es importante, pero su ejecucion numerica es desastrosa, razon por
la cual es imprescindible implementar algoritmos cuyo costo no sea muy
elevado.
El Algoritmo de Gauss
Uno de los algoritmos mas utilizados, precisamente por su relativo bajo
costo, es el Algoritmo de Eliminacion de Gauss. Considerese el sistema de
ecuaciones dado por
8 a11x1 + a12 x2 +    +a1nxn = b1
>
< a21x1 + a22 x2 +    +a2nxn = b2
> . .. :
: a .. x .
+ an2 x2 +    +annxn = bn
n1 1

El Algoritmo de Gauss consiste en:


Primer paso Si a11 6= 0, li1 = aa11
i1 , para i = 2; : : : ; n.
Se calcula lineai li1  linea1 , para i = 2; : : : ; n.
Si a11 = 0 se intercambia lineas.
Obteniendose el sistema equivalente dado por
8 a11 x1 12 x2 +    + a1n xn
+ a(1) = b(1)
>
< a22 x2 +    + a(1)
1
2n xn = b2
> .. .. :
: . . (1)
n2 x2 +    + ann xn
a(1) = bn
(1)

li1 = a(1)
(1)
22 6= 0,
Paso 2 Si a(1) i2 , para i = 3; : : : ; n.
a22
Se calcula lineai li2  linea2 , para i = 3; : : : ; n.
Si a22 = 0 se intercambia lineas.
Se repite el procedimiento hasta obtener un sistema triangular de ecuaciones
como el siguiente
8 r11x1 +  + r1;n 1 xn 1 + r1n xn = c1
>
< .. ..
. . :
>
: rn 1;n 1 xn 1 + rn 1;n xn = cn 1
rnn xn = cn

www.elsolucionario.net
II.2 Metodos Directos 37
De donde se tiene:
xn = rcn ;
nn
xn 1 = 1r rn 1;n xn ;
c n
n1 ;n 1 (II:2:2)
..
.
x1 = c1 r12 x2 r    r1n xn :
11

Si se utiliza la notacion matricial, se obtiene el siguiente esquema del


algoritmo de Gauss, con las matrices aumentadas:
   
(A; b) A(1) ; b(1) A(2) ; b(2)
0    1 0
    1 0    1
B        C B    C
B
B .. CC ! B 0
B .. CC ! BBB 00    C
0   C
CC
B
@   .     CA B@ 0 . C B
      A @ ...
.. A
.
     0     0 0   
 (n 1) (n 1)
A ;b
0    1
 ! B
B 0    C
B
B 0 0   C C:
@ ... ... . . . . . . CA
0 0  0 
Teorema II.2.1.- Sea det A 6= 0. El algoritmo de Gauss da la descom-
posicion siguiente:
PA = LR; (II:2:3)
donde:
0 r11    r1n 1 01 01
R=@ . . . ... A ; B l21
L=B
1 CC ; (II:2:4)
@ .. . ... A
0 rnn ln1 ln2    1
y P es una matriz de permutacion.
Demostracion.- Supongase, que las permutaciones necesarias han sido
efectuadas al principio, es decir se aplica el Algoritmo de Gauss a la matriz

www.elsolucionario.net
38 II Sistemas Lineales
PA. Para no complicar la notacion se escribe A, en vez de PA. Utilizando
el mismo esquema dado mas arriba, se obtiene:
A ! A(1) !    ! A(n 1)
= R;
donde: 0 1 0 0  01
BB l21 1 0  0C
A =B
(1)
B@ l..31 0.. .1. 0 0C
CC = L1A;
. . . .. A
.
0 1ln1 00 0  0 1
 01
BB 0 1 0  0C
A =B B@ 0.. l..32 10 0C
C = L2A;
... C
(2)

. . A
0 ln2 0  1
por lo tanto
R = Ln 1 Ln 2    L2 L1A:
Lo unico que falta mostrar, es que
L 1 = Ln 1 Ln 2    L2 L1 ;
y para eso, se tiene:
00 01
BB 0 CC
BB ... CC
Li = I Vi ; donde Vi = B B 0 CC :
BB li+1;i 0 CC
B@ .. .. . . . C A
. .
lni 0    0
Se puede veri car facilmente que Vi Vj = 0 para i = 1; : : : ; n; de donde se
obtiene nalemente:
Li 1 = I + Vi ;
L = I + V1 + V2 +    + Vn 1 : 
Muchas veces, es necesario calcular sistemas de la forma:
Ax1 = b1 ;
(II:2:5)
Ax2 = b2 :

www.elsolucionario.net
II.2 Metodos Directos 39
Se calcula una vez la descomposicion LR y se resuelve de la manera siguiente:
Ly = b;
(II:2:6)
Rx = y:
Teorema II.2.2.- La descomposicion LR da el siguiente resultado,
det A = r11 r22    rnn ; (II:2:7)
donde los rii son coe cientes de la diagonal de R.
Demostracion.- Utilizando identidades en los determinantes se tiene
det P det A = det L det R:

El costo de la descomposicion LR.
Para evaluar cuantas operaciones son necesarias para llegar a la descom-
posicion LR de una matriz A 2 Mn (R), se procede de la manera siguiente:
Calculo de los li1 : n 1 divisiones
Para cada la i, es necesario efectuar
A ! A(1) n 1 multiplicaciones mas adiciones, lo
que hace un total de (n 1)2 multipli-
caciones y adiciones.
Por lo tanto, contando el numero de operaciones en cada etapa del algoritmo,
se tiene
# operaciones  (n 1)2 + (n 2)2 +    + 22 + 12
nX1
= i2
Zi=1n
 x2 dx
0

= n3 :
3
(II:2:8)

La resolucion de LRx = b, implica aproximadamente n2 multiplicaciones


2

mas adiciones en la solucion de Ly = b. Igual numero de operaciones se


tiene para la resolucion de Rx = y, lo que hace un total aproximado de n2
operaciones.

www.elsolucionario.net
40 II Sistemas Lineales
La eleccion del pivote
De nicion II.2.3.- Sea A una matriz, se llama pivote de la matriz A al
coe ciente a11 .
Para ilustrar la necesidad en elegir un buen pivote, considerese el
siguiente ejemplo. La precision de los calculos tienen tres cifras signi cativas
en base 10. Sea el sistema de ecuaciones dado por
 10 4x + x = 1
x1 + x2 = 2 : (II:2:9)
1 2

La solucion exacta de este sistema de ecuaciones esta dada por:


x1 = 1; 000100010001000    ;
(II:2:10)
x2 = 0; 999899989998999    :
Ahora bien, aplicando el algoritmo de Gauss con 10 4 como pivote, se tiene:
l21 = aa21 = 0; 100  105 ;
11
La segunda linea del sistema se convierte en
0; 100  105x2 = 0; 100  105;
de donde
x2 = 0; 100  101;
resolviendo x1 se tiene
0; 100  10 3 x1 = 0; 100  101 0; 100  101;
por lo tanto
x1 = 0: (II:2:11)
Ahora, aplquese el algoritmo de Gauss con 1 como pivote, es decir inter-
cambiando la primera ecuacion con la segunda, se tiene:
l21 = aa21 = 0; 100  10 5 ;
11
La segunda linea del sistema se convierte en
0; 100  101x2 = 0; 100  101;
de donde
x2 = 0; 100  101;
resolviendo x1 , se tiene
0; 100  101 x1 = 0; 200  101 0; 100  101;
por lo tanto
x1 = 0:100  101: (II:2:12)

www.elsolucionario.net
II.2 Metodos Directos 41
La explicacion de este fenomeno consiste en que la sustraccion es
una operacion mal condicionada, cuando las cantidades a restar son muy
parecidas; en efecto, considerese el siguiente sistema
a x + a x = b
a21 x1 + a22 x2 = b2 ; (II:2:13)
11 1 12 2 1

al aplicar el algoritmo de Gauss se obtiene:


a(1)
22 = a22 l21 a12 ;
l21 = aa21 b2 = b2 l21 b1 ;
(1)
11
a22 x2 = b(1)
(1)
2 :

Si jl21 j  1 se tiene:
22  l21 a12 ;
a(1) 2  l21 b1 ;
b(1)
x2  ab1 ;
12

x1 = a (b1 a12 x2 )  a1 (b1 b1 ) :


1
11 11

Para solucionar este problema, se realiza una busqueda de pivote parcial,


que consiste en:
Se escoge el pivote ai1 tal que
jai1 j  jaj1 j j = 1; : : : ; n:
Se procede de la misma manera para cada paso del algoritmo
de Gauss.
La Estabilidad del Algoritmo de Gauss
Sea A una matriz cuyo determinante es diferente de 0. Se desea saber cual es
el error cometido por el algoritmo de Gauss para encontrar la descomposicion
A = LR. No se considera las permutaciones, puesto que no se comete error
de redondeo.
Si se aplica el algoritmo de Gauss, se obtiene las matrices L^ y R^ , llamese
A^ = L^ R;
^ la descomposicion exacta de A: ^
Para saber, si el algoritmo es numericamente estable, se utiliza la nocion de
baackward analysis dada en captulo I. Es decir encontrar una constante que
veri que:
ja^ij aij j  C  eps: (II:2:14)
jaij j

www.elsolucionario.net
42 II Sistemas Lineales

Por consiguiente, es necesario estimar la diferencia A A^ elemento por
elemento. Se tiene el siguiente:
Teorema II.2.4.- Wilkinson. Sea det A 6= 0; L^, R^ el resultado numerico de
la descomposicion LR con busqueda de pivote jlij j  1. Entonces
00 0  0 1
BB 1 1  1 CC
B  CC ;
A L^ R^  2a eps BB 11 2
2 3 
2
3 CC (II:2:15)
B@ .. . .. A
. .. .
1 2 3  n 1

a(k) y
donde a = max
i;j;k ij

A(0) ! A(1) !    ! A(n 1) :


Como resultado de este teorema, el algoritmo de Gauss es numericamente
estable, siempre y cuando n no sea demasiado grande. La experiencia
numerica indica que es aconsejable utilizar la descomposicion de Gauss para
sistemas no mayores a 1000 ecuaciones.
Demostracion.- Al efectuar la descomposicion LR, considerando los errores
de redondeo, se tiene el siguiente esquema:
A^(0) ! A^(1) !    ! A^(n 1)
= R^
Sin considerar los errores de redondeo se tiene L1 A = A(1) , de donde
0 1 1
BB ^l21 1 CC
L^ 1 = B ^
B@ l..31 0 1 CC ; es la matriz L1 con los errores de
.
..
. A redondeo.
^ln1 0 1
Por otro lado, se tiene
L^ = L^ 1 1 L^ 2 1    Ln 1 1;
obteniendo
   
A L^ R^ =L^ 1 1 L^ 1 A A^(1) + L^ 1 1L^ 2 1 L^ 2 A^(1) A^(2)
  
+    L1 1 L^ 2 1    Ln 1 1 L^ n 1 A^(n 2) A^(n 1) :

www.elsolucionario.net
II.2 Metodos Directos 43
Ahora bien, los coe cientes de la matriz obtenida en el primer paso, estan
dadas por  
ij = aij ^li1 a1j (1 + 1 ) (1 + 2 ); i  1;
a^(1)
que da como consecuencia
^ 
L1 A A^(1) =^li1 a1j a^ij
ij  
=^li1 a1j aij ^li1 a1j (1 + 1 ) (1 + 2 )
= aij 2 + ^li1 a1j 2 + ^li1 a1j 1 + ^li1 a1j 1 2
= a^(1)ij 2 + ^li1 a1j 1 + ^li1 a1j 1 2 ;
obteniendo as:
(k)
L^ 1A A^(1)  2a eps donde a = max a ; i  2:
i;j;k ij
Bajo forma matricial, el resultado anterior esta dado por
00  01
B C
L^ 1A A^(1)  2a eps B@ 1...    1... CA :
1  1
Continuando con el mismo procedimiento en la demostracion, se obtiene
00 0  01
(1) (2) BB 0 0    0 CC
L2A A  2a eps BB 0. 1.    1. CC ;
^ ^ ^
@ .. .. .. A
0 1  1
resultados similares tambien se obtienen para los demas pasos del algoritmo
de Gauss con lo que se obtiene le resultado deseado. 

El Algoritmo de Cholesky
Un caso particular de sistema de ecuaciones lineales, es donde la matriz A
es:
De nicion II.2.5.- Una matriz A 2 Mn(R) es simetrica y de nida positiva,
si cumple las siguientes dos condiciones:
(II:2:16) At = A;
(II:2:17) xt Ax > 0; 8x 2 Rn ; x 6= 0:

www.elsolucionario.net
44 II Sistemas Lineales
Teorema II.2.6.- Sea A simetrica y de nida positiva, entonces:
a) El algoritmo de Gauss es posible sin busqueda de pivote.
b) La descomposicion A = LR satisface
R = DLt ; con D = diag(r11 ; r22 ;    ; rnn ): (II:2:17)

Demostracion.- Sea A simetrica y de nida positiva, dada por


0 a11    a1n 1
A = @ ... .. A :
.
an1    ann
El coe ciente a11 de la matriz A es diferente de 0, porque la matriz A es
de nida positiva y a11 = et1 Ae1 donde et1 = (1; 0;    ; 0). Despues del primer
paso del algoritmo de Gauss, se obtiene:
0 a11 a12    a1n 1
B 0.
A(1) = B
CC ; li1 = aai1 ;
@ .. C (1) A 11
0
de donde se tiene
c(1) ai1 a1j :
ij = aij li1 a1j = aij a11
Por lo tanto es su ciente mostrar que C (1) es simetrica y de nida positiva.
En efecto, expresando la matriz A como
a 
zt ;
11
z C
se tiene
C (1) = C a1 zz t:
11
Hay que mostrar que

yt C (1) y = yt Cy a11 yt z 2 > 0; 8y 6= 0:
1

Por hipotesis la matriz A es de nida positiva, de donde


a zt
 x 
( x1 yt ) 11
z C y
1
= a11 x21 + x1 z t y + yt zx1 + yt Cy > 0;

www.elsolucionario.net
II.2 Metodos Directos 45
para x1 2 R y y 2 Rn 1 los dos no nulos al mismo tiempo.
t
Planteando x1 = ya11z , se tiene
(yt z )2 2 (z ty)2 + yt Cy > 0;
a11 a11
por consiguiente

yt Cy a1 yt z 2 > 0:
11
La descomposicion LR es unica, si esta existe, en efecto, si
A = L1 R1 = L2 R2 ;
dos descomposiciones de A. Se tiene
L2 1 L1 = R2 R1 1 ;
las matrices del tipo L, como aquellas de tipo R forman subgrupos dentro
el grupo de las matrices inversibles, deduciendose que
L2 1 L1 = I;
por lo tanto L1 = L2 y R1 = R2 . Para demostrar la parte b) del teorema, se
de ne la matriz L1 , como
Lt1 = D 1 R;
donde D = diag(r11 ;    ; rnn ), hay veri car que L1 = L. Las siguientes
identidades se cumplen:
A = LR = LDLt1;
At = L1DLt ;
como A es simetrica y por la unicidad de la descomposicion LR, se deduce
L = L1 . .
De nicion II.2.7.- Sea D una matriz diagonal a coe cientes no negativos,
entonces: p p 
D 21 = diag d11 ;    ; dnn : (II:2:18)

Si se de ne L = LD 21 , se tiene
A = L L t;
que es la descomposicion de Cholesky de la matriz A simetrica y de nida
positiva. Para simpli car notacion, se escribe L, en lugar de L . Entonces los

www.elsolucionario.net
46 II Sistemas Lineales
coe cientes de la matriz L de la descomposicion de Cholesky de A, estan
dados por:
para k = 1; : : : ; n:
q
lkk = akk lk21 lk22    lk;k
2
1;

(II:2:19)
lik = a ik l i1 lk1    li;k 1 lk;k 1
; i = 1; : : : ; k 1:
lkk
El costo en operaciones, despreciando el calculo de las raices cuadradas,
para obtener la descomposicion de Cholesky, esta dado por
X
n Zn
x(n x)dx = n6 :
3
k(n k)  (II:2:20)
k=1 0

La resolucion de la ecuacion Ax = b, donde A es una matriz simetrica y


de nida positiva, se puede efectuar en dos pasos utilizando la descomposicion
de Cholesky:
Ly = b;
Lt x = y;
los cuales necesitan un total aproximado, lo mismo que en el algoritmo de
Gauss,
n2 operaciones.
La estabilidad de la descomposicion de Cholesky esta dada por el
siguiente:
Teorema II.2.8.- Sea A una matriz simetrica y de nida positiva. L^ el
resultado numerico de la descomposicion de Cholesky, entonces
01 1 1  11
BB 1 2 2  2C
A LL  a eps BB 1.
^ ^ t 2 3  3C
CC ; (II:2:21)
@ .. .. .. A
. .
1 2 3  n
donde a = max ja j.
ij ij
Demostracion.- Se demuesta de la misma manera que el teorema II.2.4
referente a la estabilidad de la descomposicion LR.


www.elsolucionario.net
II.2 Metodos Directos 47
Ejercicios
1.- Escribir una subrutina DEC(N,NDIM,A,B,IP,IER) que calcule la des-
composicion LR, tomando en cuenta la busqueda parcial de pivote.
Luego escribir una subrutina SOL(N,NDIM,A,B,IP) que permita resolver
Ax = b utilizando la descomposicion obtenida por DEC.
a) Resolver 05 2 1 3 1 0 9 1
B@ 1 20 3 4 CA x = B@ 28 CA :
0 1 1 30 32
2 8 25 4 11
b) Calcular la inversa de la matriz de Hilbert dada por
1
 n
H = i+j para n = 2; 3; 4; 5:
i;j =1

2.- a) Calcular la descomposicion de Cholesky LLt para la matriz de Hilbert


1
 n
H = i+j ; n = 15:
i;j =1
b) Comparar el resultado numerico con los valores exactos,
p
ljk = 2k(j 1 k )!(
(j 1)!  (j 1)! :
j + k 1)! (II:2:22)
>Cuantas cifras son exactas?
c) Si L^ es el resultado numerico, calcular el residuo
A L^ L^ t;
calcular tambien el residuo A LLt para la matriz L dada por (II.2.22).
3.- Calcular cond1 (An ) para las matrices:
a) de Hilbert  
b) de Vandermonde (aij ) = cji 1 ; i; j = 1    n con ci = ni ,
para n = 1; 2; 3; : : :; 15. Calcular tambien n1 log10 (cond1 (An )) y encon-
trar una formula que aproxime cond1 (An ).
4.- Sea A una matriz-banda, simetrica y de nida positiva, p el grosor de
la banda. Mostrar que, L de la descomposicion de Cholesky es tambien
una matriz-banda. Si n es el orden de la matriz, sabiendo que n  p,
>Cuantas multiplicaciones son necesarias para calcular L?

www.elsolucionario.net
II.3 Metodos Iterativos

En la seccion II.2, se analizo dos metodos para resolver directamente sistemas


de ecuaciones lineales. Un metodo directo de resolucion de un sistema de
ecuaciones debera dar el resultado numerico igual a la solucion exacta, si
no se considerase los errores de redondeo, es decir, si se contase con un
dispositivo de calculo con una precision in nita, desgraciadamente este no
es el caso. Si bien, un metodo directo da una solucion que se aproxima a
la exacta, la principal desventaja de utilizarlos, reside en el hecho en que
cuando se debe resolver grandes sistemas lineales, la propagacion del error
de redondeo es muy grande, desvirtuando su valor; ademas, en muchos casos
no se toma en cuenta muchas de las particularidades que pudiese tener la
matriz del sistema lineal, o nalmente no es necesario obtener una solucion
exacta, si no una aproximacion de esta. Los metodos que seran estudiados
en esta seccion, son iterativos en el sentido en que se utilizan las soluciones
anteriores para obtener la siguiente. Entre los metodos que seran analizados
se tiene: Jacobi, Gauss-Seidel, SOR.
Metodos de Jacobi y Gauss-Seidel
Estos metodos son utilizados para resolver el sistema de ecuaciones, dado
por
u = Au + b: (II:3:1)
El metodo de Jacobi consiste en la utilizacion de la solucion anterior para
calcular la nueva solucion, es decir
u(k+1) = Au(k) + b: (II:3:2)
Obviamente las soluciones obtenidas por el metodo de Jacobi no son exactas,
pero son aproximaciones de estas.
Para la formulacion del metodo de Gauss-Seidel, considerese la matriz
A como
A = L + U; (II:3:3)
donde:
00  01 0 a11 a12    a1n 1
B a21
L=B
0  0C B 0 a22    a2n C
@ .. .. C ; U =B . . . ... C
A:
. ... .A @ ...
an1    an;n 1 0 0    0 ann

www.elsolucionario.net

You might also like