Download - alisis erico
Hans C. M�uller S.C.
Una Introducci�on
al
An�alisis Num�erico
i
Hans C. M�uller S.C.
Una Introducci�on
al
An�alisis Num�erico
Con 55 �guras
ii
Hans C. M�uller Santa Cruz
Departamento de Matem�aticas
Facultad de Ciencias y Tecnolog��a
Universidad Mayor de San Sim�on
Casilla 992, Cochabamba, Bolivia
e-mail [email protected]
Pr�ologo
La Facultad de Ciencias y Tecnolog��a tiene 17 a~nos de vida, per��odo que
ha sido fruct��fero en el �ambito universitario, porque se han creado carreras
tecnol�ogicas, como cient���cas, haciendo �enfasis a una investigaci�on cient���ca
seria como un mecanismo de garantizar una excelencia acad�emica. La
Carrera de Matem�aticas, una de nuestras Carreras de reciente creaci�on, est�a
inscrita dentro este marco.
Ahora bien, la Universidad Mayor de San Sim�on consciente de esta
situaci�on, ha conseguido convenios de cooperaci�on internacional, como es
el caso del Programa MEMI, Programa de Mejoramiento de la Ense~nanza
de la Matem�atica y la Inform�atica. De los objetivos principales de este
programa es fortalecer el �area de las matem�aticas, incentivar la difusi�on de
las diferentes ramas de las matem�aticas en el medio universitario y fuera de
�este. La Universidad y sus autoridades, dentro de sus pol��ticas acad�emicas y
de investigaci�on, han tenido la visi�on de conseguir los servicios de los mejores
profesionales en esta disciplina y Hans M�uller es uno de ellos.
El autor del libro, Hans M�uller Santa Cruz, es un joven matem�atico bo-
liviano que ha regresado a su pa��s para compartir los conocimientos adquiri-
dos en en la Universidad de Ginebra, Suiza. Actualmente es el Coordinador
del Programa Magister en Matem�aticas, programa implementado de manera
conjunta entre la Universidad Mayor de San Sim�on y la Universidad Cat�olica
del Norte, Chile. Ha dictado un curso de Elementos Finitos, destinado a los
docentes en nuestra superior Casa de Estudios; en La Paz, bajo invitaci�on ha
impartido cursos tutoriales en la Academia de Ciencias en temas relaciona-
dos a las matem�aticas aplicadas. El y otros profesionales de su ar�ea, est�an
transformando la manera de hacer matem�aticas en la Facultad de Ciencias
y Tecnolog��a.
Los t�opicos tratados en este libro est�an muy relacionados con los cam-
bios estructurales que ha ocasionado la introducci�on masiva de sistemas in-
form�aticos. En efecto, la utilizaci�on m�asiva del computador ha permitido al
Hombre efectuar c�alculos que en otra �epoca hubiese sido impensable realizar-
los. En la actualidad es muy corriente simular num�ericamente experiencias,
que en laboratorio son muy complicadas, costosas o peligrosas, o simplemente
imposible de experimentarlas. Los problemas de optimizaci�on son abordables
gracias a la utilizaci�on del ordenador y no faltan situaciones en las cuales
el uso de estos dispositivos de c�alculo, no solamente son de gran ayuda,
sino indispensables. El An�alisis Num�erico es la rama de las Matem�aticas,
cuyo campo de acci�on es el estudio y an�alisis de los diferentes algoritmos
iv Pr�ologo
y m�etodos num�ericos que se utilizan para resolver los problemas mediante
computadoras. El libro \Una Intruducci�on al An�alisis Num�erico" presenta
los temas b�asicos del An�alisis Num�erico de una manera rigurosa, permitiendo
que el lector pueda adquirir los conocimientos matem�aticos necesarios para
profundizar en t�opicos m�as especializados o simplemente pueda concebir e
implementar m�etodos num�ericos de una manera correcta y �optima.
Finalmente, mi esperanza es que este libro sea el inicio de una larga
serie de otras publicaciones de alto nivel que ofrezca el autor y su unidad
acad�emica.
Cochabamba, septiembre de 1996
Ing. Alberto Rodr��guez M�endez
Rector de la Universidad Mayor de San Sim�on
Prefacio
Este libro nace ante el vacio existente de una bibliograf��a en espa~nol que
trate los temas capitales del An�alisis Num�erico. El nombre que lleva, \Una
Introducci�on al An�alisis Num�erico", se debe esencialmente al car�acter que
deseo que tenga este libro.
El An�alisis Num�erico es una disciplina de las Matem�aticas en gran
crecimiento gracias a la utilizaci�on masiva de medios inform�aticos. D��a que
pasa es m�as corriente el tratamiento num�erico en las Ciencias, como en
la Tecnolog��a; el modelaje, la simulaci�on num�erica son moneda corriente.
Ahora bien, toda persona que pretenda tener como herramienta de tra-
bajo, los m�etodos num�ericos, debe conocer los t�opicos introductorios del
An�alisis Num�erico que son: Sistemas Lineales, Interpolaci�on, Resoluci�on de
Ecuaciones no Lineales, C�alculo de Valores Propios y Soluci�on Num�erica de
Ecuaciones Diferenciales, porque tarde o temprano se topar�a con alguno de
estos temas.
Siguiendo la l��nea trazada por este libro, �este contiene siete cap��tulos: el
primero de car�acter introductorio, donde se da los conceptos b�asicos de error
y estabilidad, seguido de un ejemplo mostrando que la aritm�etica del punto
otante no es un impedimento para efectuar c�alculos de precisi�on arbitraria;
el segundo cap��tulo trata sobre los problemas lineales mas comunes y
los m�etodos de soluci�on de estos; el tercer cap��tulo aborda el tema de
interpolaci�on num�erica y extrapolaci�on, introduciendo el estudio de los
splines c�ubicos; el cap��tulo IV analiza los problemas no lineales y los m�etodos
mas e�cientes de resoluci�on de estos; en el cap��tulo V se estudia el problema
de valores propios y la implementaci�on de m�etodos num�ericos para el c�alculo
de valores propios; el cap��tulo sexto trata de la integraci�on num�erica y la
transformada r�apida de Fourier y �nalmente el cap��tulo VII estudia los
problemas diferenciales y los m�etodos num�ericos de resoluci�on mas usuales
de estos problemas.
Pr�acticamente el contenido de este libro ven los estudiantes de segundo
a~no de las Carreras de M�atematicas e Inform�atica de la Universidad de
Ginebra, Suiza, Universidad en la cual he sido formado. El pre-requisito
para un buen aprovechamiento de este libro es conocer bien los principios
b�asicos del An�alisis Real y Complejo, como tambi�en tener una buena base
de Algebra Lineal. Por consiguiente, este libro est�a destinado a estudiantes
universitarios que siguen la asignatura de An�alisis Num�erico, como as�� mismo
toda persona interesada en An�alisis Num�erico que tenga los pre-requisitos
y que desea cimentar sus conocimientos en esta disciplina. Este libro puede
vi Prefacio
ser utilizado como texto base o bien como complemento bibliogr�a�co.
Debo agredecer a mis profesores de la Universidad de Ginebra, E. Hairer
y G. Wanner cuyos cursos han servido de base para la elaboraci�on de este
libro. Por otro lado, sin el apoyo en material de trabajo del Programa
MEMI, Programa de Mejoramiento de la Ense~nanza de las Matem�aticas e
Inform�atica, de la Universidad Mayor de San Sim�on este libro no habr��a
existido. As�� mismo agradezco a mi familia, mis colegas y amigos que
seguieron con inter�s la elaboraci�on de este libro.
El libro ha sido transcrito en TEX y las gr�a�cas realidas en las sub-
rutinas gr�a�cas FORTRAN que G. Wanner me las cedi�o muy gentilmente. La
transcripci�on, como la ejecuci�on de los programas en sido realizados sobre
una WorkStation HP-9000.
Posiblemente este libro contenga muchos errores, me gustar��a que los
hagan conocer, para que en una segunda edici�on estos sean corregidos.
Octubre, 1995 Hans C. M�uller S.C.
Contenido
I. Preliminares
I.1 Algoritmos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 2
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 6
I.2 Estabilidad : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 8
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 14
I.3 Un ejemplo: C�alculo de PI : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 15
II. Sistemas Lineales
II.1 Condici�on del Problema Lineal : : : : : : : : : : : : : : : : : : : : : : : : : : 25
Normas de Vectores y Matrices : : : : : : : : : : : : : : : : : : : : : : : : : : : : 25
La Condici�on de una Matriz : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 29
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 33
II.2 M�etodos Directos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 35
El Algoritmo de Gauss : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 36
El Algoritmo de Cholesky : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 43
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 47
II.3 M�etodos Iterativos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 48
M�etodos de Jacobi y Gauss-Seidel : : : : : : : : : : : : : : : : : : : : : : : : : 48
El Teorema de Perron-Frobenius : : : : : : : : : : : : : : : : : : : : : : : : : : : 52
M�etodo de Sobrerelajaci�on SOR : : : : : : : : : : : : : : : : : : : : : : : : : : : 56
Estudio de un Problema Modelo : : : : : : : : : : : : : : : : : : : : : : : : : : : 59
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 64
II.4 M�etodos Minimizantes : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 66
M�etodo del Gradiente : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 68
M�etodo del Gradiente Conjugado : : : : : : : : : : : : : : : : : : : : : : : : : : 69
Polinomios de Chebichef : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 73
M�etodo del Gradiente Conjugado Precondicionado : : : : : : : : : 75
Resultados Num�ericos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 78
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 81
II.5 M��nimos Cuadrados : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 83
La descomposici�on QR : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 87
La Pseudo-Inversa de una Matriz : : : : : : : : : : : : : : : : : : : : : : : : : : 92
Error del M�etodo de los M��nimos Cuadrados : : : : : : : : : : : : : : : 96
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 101
viii Contenido
III. Interpolaci�on
III.1 Interpolaci�on de Lagrange : : : : : : : : : : : : : : : : : : : : : : : : : : : : 104
Bases Te�oricas : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 104
Construcci�on del Polinomio de Interpolaci�on : : : : : : : : : : : : : : 106
El Error de Interpolaci�on : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 111
Polinomios de Chebichef : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 113
Estudio de los Errores de Redondeo : : : : : : : : : : : : : : : : : : : : : : 115
Convergencia de la Interpolaci�on : : : : : : : : : : : : : : : : : : : : : : : : : 119
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 129
III.2 Splines C�ubicos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 131
Construcci�on del Spline Interpolante : : : : : : : : : : : : : : : : : : : : : : 133
El Error de la Aproximaci�on Spline : : : : : : : : : : : : : : : : : : : : : : : 136
Aplicaci�on de Spline : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 142
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 143
III.3 Extrapolaci�on : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 145
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 150
IV. Ecuaciones No Lineales
IV.1 Ecuaciones Polinomiales : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 152
Ecuaciones Resolubles por Radicales : : : : : : : : : : : : : : : : : : : : : : 152
Ecuaciones No Resolubles por Radicales : : : : : : : : : : : : : : : : : : 155
Localizaci�on de Ceros : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 155
M�etodo de Newton : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 157
Sucesiones de Sturm : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 159
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 161
IV.2 M�etodos Iterativos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 163
Posici�on del Problema : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 163
M�etodo de la Falsa Posici�on : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 165
Sistema de Ecuaciones : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 168
Un M�etodo Iterativo Simple : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 169
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 173
IV.3 M�etodo de Newton : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 174
El Teorema de Newton-Misovski : : : : : : : : : : : : : : : : : : : : : : : : : : 179
M�etodo de Newton Simpli�cado : : : : : : : : : : : : : : : : : : : : : : : : : : 184
M�etodo de Newton con Relajaci�on : : : : : : : : : : : : : : : : : : : : : : : : 193
Aproximaci�on de Broyden : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 197
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 199
IV.4 M�etodo de Gauss Newton : : : : : : : : : : : : : : : : : : : : : : : : : : : : 203
Convergencia del M�etodo de Gauss-Newton : : : : : : : : : : : : : : : 204
Modi�caciones del M�etodo de Gauss-Newton : : : : : : : : : : : : : 207
El M�etodo de Levenber-Marquandt : : : : : : : : : : : : : : : : : : : : : : : 210
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 211
Contenido ix
V. C�alculo de Valores PropiosV.1 Teor��a Cl�asica y Condici�on del Problema : : : : : : : : : : 214
La Condici�on del Problema a Valores Propios : : : : : : : : : : : : : 217
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 221
V.2 Determinaci�on de Valores Propios : : : : : : : : : : : : : : : : : : : 223
El M�etodo de la Potencia : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 223
Formas Tridiagonales y Formas de Hessenberg : : : : : : : : : : : : 227
Teorema de Sturm y el Algoritmo de la Bisecci�on : : : : : : : : : 229
Generalizaci�on del M�etodo de la Potencia : : : : : : : : : : : : : : : : : 233
El M�etodo QR : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 237
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 241
VI. Integraci�on Num�erica
VI.1 Bases Te�oricas : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 244
F�ormulas de Cuadratura : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 248
El Orden de una F�ormula de Cuadratura : : : : : : : : : : : : : : : : : 249
Estimaci�on del Error : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 250
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 256
VI.2 Cuadraturas de Orden Elevado : : : : : : : : : : : : : : : : : : : : : : 258
Polinomios Ortogonales : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 259
Los Polinomios de Legendre : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 263
Las F�ormulas de Cuadratura de Gauss : : : : : : : : : : : : : : : : : : : 264
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 267
VI.3 Implementaci�on Num�erica : : : : : : : : : : : : : : : : : : : : : : : : : : : : 269
Tratamiento de Singularidades : : : : : : : : : : : : : : : : : : : : : : : : : : : 273
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 282
VI.4 Transformaci�on de Fourier : : : : : : : : : : : : : : : : : : : : : : : : : : : : 284
Estudio del Error : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 287
Interpolaci�on Trigonom�etrica : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 288
Transformaci�on R�apida de Fourier FFT : : : : : : : : : : : : : : : : : : 290
Aplicaciones de FFT : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 292
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 293
VII. Ecuaciones Diferenciales
VII.1 Generalidades : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 296
Teoremas de Existencia y Unicidad : : : : : : : : : : : : : : : : : : : : : : : 297
Problemas con Valores en la Frontera : : : : : : : : : : : : : : : : : : : : : 300
Diferenciabilidad respecto a los Valores Iniciales : : : : : : : : : : 300
Simple Shooting : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 303
Shooting M�ultiple : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 307
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 311
x Contenido
VII.2 M�etodo de Euler : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 313
Efectos de los Errores de Redondeo : : : : : : : : : : : : : : : : : : : : : : : 317
Estabilidad del M�etodo de Euler : : : : : : : : : : : : : : : : : : : : : : : : : 319
M�etodo de Euler Imp��cito : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 321
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 322
VII.3 M�etodos de Runge-Kutta : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 323
Construcci�on de un M�etodo de Orden 4 : : : : : : : : : : : : : : : : : : 327
M�etodos Encajonados : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 330
Soluciones Continuas : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 333
Convergencia de los M�etodos de Runge-Kutta : : : : : : : : : : : : 335
Experiencias Num�ericas : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 338
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 340
VII.3 M�etodos Multipasos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 341
M�etodos de Adams Expl��citos : : : : : : : : : : : : : : : : : : : : : : : : : : : : 341
M�etodos de Adams Impl��citos : : : : : : : : : : : : : : : : : : : : : : : : : : : : 343
M�etodos Predictor-Corrector : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 344
M�etodos BDF : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 345
Estudio del Error Local : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 346
Estabilidad : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 348
Convergencia de los M�etodos Multipaso : : : : : : : : : : : : : : : : : : 350
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 353
Bibliograf��a : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 355
Indice de S��mbolos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 359
Indice Alfab�etico : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 361
Cap��tulo I
Preliminares
Con la utilizaci�on masiva de sistemas inform�aticos en la resoluci�on de
problemas a todo nivel, el An�alisis Num�erico ha tenido un gran desarrollo en
las �ultimas d�ecadas, como una rama integrante de las Matem�aticas. En este
primer cap��tulo se expondr�a las nociones de base que sustentan el An�alisis
Num�erico, para ser utilizadas en los cap��tulos posteriores.
La primera secci�on estar�a dedicada a estudiar los algoritmos como
una composici�on de operaciones elementales, partiendo de un dispositivo
ideal de c�alculo. Se analizar�a las nociones de e�ciencia y error de un
algoritmo.
En la segunda secci�on se analizar�a el problema algor��tmico a partir
de los dispositivos materiales con que se cuenta en la actualidad, es decir
ordenadores o computadoras. En esta secci�on se estudiar�a la representaci�on
en punto otante de un n�umero real y su redondeo en la computadora. Se
introducir�a la noci�on de precisi�on de una computadora y la relaci�on de �esta
con el concepto de estabilidad, en sus diferentes versiones, de un algoritmo.
En la tercera y �ultima secci�on de este cap��tulo, se ver�a que las li-
mitaciones impuestas por la representaci�on en punto otante, no es una res-
tricci�on para calcular con la precisi�on que se requiera. Prueba de esto, � ser�a
calculado, como un ejemplo ilustrativo, con 10000 decimales de precisi�on.
I.1 Algoritmos
En esta secci�on se supondr�a que se cuenta con un dispositivo ideal de c�alculo,
es decir una computadora de precisi�on exacta, situaci�on que no sucede en la
realidad. El cuerpo de base ser�a R, a menos que se especi�que lo contrario.
Este dispositivo est�a provisto de ciertas operaciones cuya acci�on se efectua
en un tiempo �nito, por ejemplo es capaz de realizar las 4 operaciones
aritm�eticas elementales, m�as algunas como la radicaci�on, la exponenciaci�on
y las otras funciones elementales que se estudian en un curso de C�alculo I.
Por consiguiente, se tiene la primera de�nici�on.
De�nici�on I.1.1.- Una operaci�on elemental es una operaci�on matem�atica
o funci�on cuya acci�on se la efectua en un tiempo �nito y que adem�as el
dispositivo ideal la puede realizar.
Inicialmente se supondr�a que las cuatro operaciones aritm�eticas
como: la adici�on, la multiplicaci�on, la sustracci�on y la divisi�on son posibles
en este dispositivo de c�alculo. De esta manera es posible evaluar toda
funci�on polinomial, toda funci�on racional, en una cantidad �nita de pasos o
composici�on de operaciones elementales.
De�nici�on I.1.2.- Un algoritmo es una sucesi�on �nita de operaciones
elementales. Si se denota por fi una operaci�on elemental, un algoritmo es la
composici�on de n operaciones elementales, es decir
f = fn � fn�1 � � � � � f2 � f1: (I:1:1)
Por otro lado, el dispositivo de c�alculo con el que se cuenta tiene la
�nalidad de evaluar la o las soluciones de un problema matem�atico, siempre
que sea posible hacerlo. Ahora bien, lo que cuenta en este estudio es el
resultado, de donde la:
De�nici�on I.1.3.- Un problema es darse un dato x 2 Rn y obtener un
resultado P(x) 2 R.
En consecuencia, son problemas todas las funciones cuyo dominio
es un espacio vectorial real de dimensi�on �nita, cuya imagen est�a incluida
en la recta real. Una funci�on cuya imagen est�a incluida en un espacio de
dimensi�on m�as grande que 1, puede ser interpretada como un conjunto de
problemas, donde cada problema es la funci�on proyecci�on correspondiente.
Las ecuaciones pueden ser vistas como problemas, pero antes aclarando cual
de las soluciones se est�a tomando.
I.1 Algoritmos 3
Es necesario recalcar que problema y algoritmo son conceptos dife-
rentes, aunque de alguna manera ligados. Consid�erese el problema siguiente,
P(x) = anxn + an�1x
n�1 + � � �+ a1x+ a0: (I:1:2)
P(x) puede ser obtenido de muchas maneras, en particular utilzando los 2
siguientes algoritmos: El primero consiste en evaluar el polinomio (I.1.2) tal
como est�a de�nido, con la convenci�on que:
x1 = x;
xn = x � xn�1; para n � 2:
(I:1:3)
La segunda manera de evaluar el polinomio consiste en utilizar el algoritmo
de H�orner, el cual est�a dado por:
q0(x) = an;
q1(x) = q0(x)x + an�1;
q2(x) = q1(x)x + an�2;
...
qn(x) = qn�1(x)x + a0:
(I:1:4)
Como puede observarse ambos algoritmos eval�uan el polinomio P(x), sinembargo en el primero se requiere: 1 + � � � + n � 1 multiplicaciones para
evaluar las potencias, n multiplicaciones para evaluar los t�erminos de la
forma aixi y �nalmente n adiciones, lo cual hace un total de
n(n+ 3)
2operaciones elementales. (I:1:5)
El algoritmo de H�orner requiere a cada paso de una multiplicaci�on y una
adici�on lo cual es igual a
2n operaciones elementales. (I:2:6)
Por lo tanto, puede observarse claramente que el algoritmo de H�orner es
m�as e�ciente que el primero, pues la implementaci�on de �este efectua menos
operaciones elementales.
El concepto de e�ciencia de un algoritmo est�a ligado por consi-
guiente al costo en operaciones elementales que se requiere para ejecutar
un algoritmo. Ahora bien, en la realidad una computadora requiere menos
tiempo para evaluar una adici�on que para una multiplicaci�on. Cada ope-
raci�on elemental toma cierto tiempo en efectuarse, que en general depende
de la computadora y el lenguaje en el que est�a escrito el programa. Es
4 I Preliminares
por eso, que es m�as conveniente medir la e�ciencia en t�erminos de tiempo
ejecutado, en lugar del n�umero de operaciones elementales ejecutadas. Con
lo argumentado se puede formular una primera de�nici�on de e�ciencia.
De�nici�on I.1.4.- El costo del algoritmo fn � � � � � fn, est�a dado por
C = m1 +m2 + : : :+mn; (I:1:7)
donde mi es el tiempo de ejecuci�on de fi. Si C1 y C2 son los costos en tiempo
de dos algoritmos que resuelven el mismo problema, se dir�a que el primer
algoritmo es m�as e�ciente que el segundo si C1 � C2.
Tal como se dijo al inicio de esta secci�on, el dispositivo ideal con
el que se cuenta, puede efectuar una cantidad �nita de operaciones elemen-
tales. Suponiendo nuevamente, que solamente se cuenta con las cuatro ope-
raciones aritm�eticas, las �unicas funciones que pueden evaluarse utilizando
un algoritmo son las funciones polinomiales y racionales. Ahora bien, existe
una cantidad ilimitada de funciones y se puede mostrar que no existe ning�un
algoritmo que sea la composici�on de adiciones, multiplicaciones, sustrac-
ciones o divisiones, que permita calcular una raiz cuadrada; evaluar funciones
trigonom�etricas, exponenciales o logar��tmicas. Sin embargo, existen proce-
dimientos matem�aticos que permiten aproximar estas funciones de manera
arbitraria. Los m�as com�unmente utilizados: son las series de Taylor, las frac-
ciones continuas y algunos m�etodos iterativos. Todos estos m�etodos est�an
sustentados en las nociones de l��mite, de continuidad, derivabilidad dados
en los cursos de C�alculo y An�alisis.
A continuaci�on se ver�a un ejemplo ilustrativo, donde se introducir�a
la noci�on del error de truncaci�on. Consid�erese la funci�on exponencial, cuyo
desarrollo en serie de Taylor est�a dada por
ex =
1Xk=0
xk
k!: (I:1:8)
Es evidente que ex no puede evaluarse en un n�umero �nito de pasos, para
un x dado, sin embargo en lugar de evaluar ex, uno se puede contentar
evaluando una cantidad �nita de t�erminos de la serie de Taylor, es decir
p(x) =
nXk=0
xk
k!; (I:1:9)
para un n �jado de antemano. La diferencia entre ex y p(x) es el error
de truncaci�on de ex respecto a p(x). Este error de truncaci�on es del orden
O(xn+1) cuando x tiende a 0. El nombre de truncaci�on proviene del hecho
que para evaluar ex se ha despreciado una parte de la serie. Por consiguiente,
el error de truncaci�on puede de�nirse como:
I.1 Algoritmos 5
De�nici�on I.1.5.- Sean P(x), P 0(x) dos problemas. El error de truncaci�onde P(x), respecto de P 0(x) est�a dado por
P(x)�P 0(x): (I:1:10)
El nombre que tiene este error, como se dijo m�as arriba, es debido
a que la la serie de Taylor es truncada a un n�umero �nito de t�erminos.
No obstante, existe una gran diversidad de m�etodos que aproximan a la
soluci�on del problema utilizando otro tipo de argumentos, en este caso es
m�as conveniente utilizar el nombre de error de aproximaci�on o error del
m�etodo; de todas formas es cuesti�on de gusto.
El concepto de e�ciencia ha sido de�nido para aquellos problemas
donde se puede encontrar la soluci�on mediante un algoritmo. Para aquellos
problemas, donde no es posible encontrar un algoritmo que de la soluci�on y
suponiendo que es posible aproximar la soluci�on de manera arbitraria me-
diante un m�etodo algor��tmico, la e�ciencia est�a ligada al costo en opera-
ciones, como tambi�en al error del m�etodo. En esta situaci�on la e�ciencia es
un concepto m�as subjetivo que depende de alguna manera del usuario, pues
existen problemas donde el error de aproximaci�on debe ser lo m�as peque~no
posible, y otros problemas donde la exactitud no es un requisito primordial.
Ejemplos
1.- Consid�erese el problema, determinar �. Utilizando la identidad
arctan 1 =�
4
y que la serie de Taylor en el origen est�a dada por
arctanx =
1Xk=0
(�1)k2k + 1
x2k+1
; (I:1:11)
se puede obtener un m�etodo que aproxime �, pero el problema de este
m�etodo es su convergencia demasiado lenta; es mas, para x = 1 la serie
(I.1.11) no es absolutamente convergente.
Otro m�etodo que permitir��a aproximar �, consiste en utilizar el hecho
que
arccos(1=2) =�
3y desarrollando arccos en serie de Taylor, se obtiene un m�etodo cuya
convergencia es mucho m�as r�apida.
2.- Consid�erese el problema, determinarp2. La primera manera de determi-
narp2 es tomar un intervalo cuya extremidad inferior tenga un cuadrado
inferior a 2 y la extremidad superior tenga un cuadrado m�as grande a 2.
Se subdivide el intervalo en dos subintervalos de igual longitud, se elige
aquel cuyas extremidades al cuadrado contengan 2. En la tabla siguiente
se da algunas de las iteraciones de este m�etodo.
6 I Preliminares
Iteraci�on Ext. Inferior Ext. Superior
0 1.0 1.5
1 1.25 1.5
2 1.375 1.5
3 1.375 1.4375
4 1.40625 1.4375
5 1.40625 1.421875
16 1.41420745849609 1.41421508789063
17 1.41421127319336 1.41421508789063
18 1.41421318054199 1.41421508789063
19 1.41421318054199 1.41421413421631
20 1.41421318054199 1.41421365737915
La segunda posibilidad es utilizar la sucesi�on de�nida recursivamente
por:a0 = 1;
an+1 =1
2an +
1
an
:
Esta sucesi�on es convergente y se deja al lector la demostraci�on para
que veri�que que el l��mite esp2. En la tabla siguiente se tiene los seis
primeros t�erminos de la sucesi�on. Efectuando unas cuantas iteraciones
se obtiene:Iteraci�on an
0 1.0
1 1.5
2 1.41666666666667
3 1.41421568627451
4 1.41421356237469
5 1.4142135623731
Puede observarse inmediatamente, que el segundo m�etodo para determinarp2 es m�as e�ciente que el primer algoritmo.
Ejercicios
1.- Sup�ongase que, el dispositivo de c�alculo, con el que se cuenta, puede
efectuar la divisi�on con resto; es decir, para a; b enteros no negativos,
con b 6= 0, el dispositivo calcula p; q satisfaciendo:
a = pb+ r y 0 � r < b:
a) Implementar un algoritmo que calcule el maximo com�un divisor de a
y b.
b) Utilizando el inciso precedente, implementar otro algoritmo que
permita calcular m;n 2 Z, tales que
mcd(a; b) = ma+ nb:
I.1 Algoritmos 7
c) Estudiar la situaci�on m�as desfavorable, aqu�ella donde el costo en
operaciones es el m�as alto. Deducir una estimaci�on de la e�ciencia del
algoritmo.
2.- Suponiendo que, el dispositivo de c�alculo puede efectuar la divisi�on con
resto, con la particularidad siguiente:
a = pb+ r y � jbj2< r � jbj
2:
a) Mostrar que el algoritmo implementado en el ejercicio 1a), puede
implementarse para esta nueva divisi�on con resto.
b) Veri�car que, el nuevo algoritmo es m�as e�ciente que aqu�el con di-
visi�on con resto normal. Encontrar una estimaci�on de costo del algoritmo.
3.- Para el polinomio p(x) = a0 + a1x+ � � �+ anxn, el algoritmo de H�orner
(I.1.9) est�a de�nido por:
bn = an;
bi = ai + x0bi+1; i = n� 1; : : : ; 1; 0:
Se plantea q(x) = b1 + xb2 + � � �+ xn�1
bn.
a) Mostrar que p0(x0) = q(x0). Veri�car que p(x) = b0 + (x� x0)q(x).
b) Generalizar el algoritmo de H�orner, de tal forma que se pueda calcular
p(x0) y p0(x0) al mismo tiempo.
4.- Una regla y comp�as constituyen un dispositivo de c�alculo. Sup�ongase
que se conocen dos puntos O y P tales que OP sea de longitud 1.
a) Mostrar que, adem�as de las 4 operaciones aritm�eticas elementales, la
radicaci�on puede obtenerse a partir de un n�umero �nito de manipula-
ciones de regla y comp�as.
b) Construirp1 +p10.
c) Intentar construir 3p2. >Es posible?
I.2 Estabilidad
En esta secci�on, a diferencia de la precedente, se analizar�a el problema de los
algoritmos y m�etodos num�ericos desde el punto de vista de un dispositivo
material real, m�as conocido como computadora. Para comenzar existen
esencialmente dos tipos de n�umeros en la aritm�etica de un ordenador: el tipo
entero cuya aritm�etica es igual a la de los num�eros enteros, con la diferencia
que el tipo entero de un ordenador es un conjunto �nito, motivo por el cual
se tiene que tener cuidado con los over ows en las operaciones aritm�eticas; el
segundo tipo de n�umero es el real, en sus diferentes versiones, la idea de este
tipo de n�umero es la representaci�on de un n�umero real en punto otante, es
decir todo n�umero real no nulo x se puede escribir de manera �unica como
x = a � 10b; donde jaj < 1; b 2 Z; (I:2:1)
a se llama mantisa y b el exponente. Los n�umeros reales solo tienen una
representaci�on parcial en el tipo real de un ordenador por limitaciones f��sicas
del dispositivo, por consiguiente un n�umero real estar�a en una clase de
equivalencia de tipo de n�umero real. Esta representaci�on de n�umero real
est�a dada por la precisi�on de la computadora.
Cuando se trabaja sobre un computador, se tiene a disposici�on
un n�umero �nito de cifras, por ejemplo l, para la mantisa, Si �a denota el
redondeado de a, se trabaja en realidad con
arr(x) = �a � 10b (I:2:2)
en lugar de x. De esta manera, el n�umerop2 = 1:414213562 : : : est�a
representado por
arr(p2) = 0:141421356 � 101;
si se calcula con l = 8 cifras en base 10.
Como se dijo m�as arriba, el redondeo est�a determinado por la
precisi�on de la computadora. Esta precisi�on est�a dada por un n�umero dado
por la:
De�nici�on I.2.1.- Se denota por eps, el n�umero positivo m�as peque~no tal
que
arr(1 + eps) > 1: (I:2:3)
Este n�umero eps llamado precisi�on de la computadora est�a dado por
los siguientes hechos: si los c�alculos se hacen en base 10 y con l cifras en la
I.2 Estabilidad 9
mantisa, se tiene
arr(0: 10 : : : 0| {z }l
49 : : : � 101) = 1;
arr(0: 10 : : : 0| {z }l
50 : : : � 101) = : 10 : : :1| {z }l
�101 > 1;
deduciendose, por consiguiente
eps = 5:10�l; (I:2:4)
si se realiza el mismo c�alculo en base 2, como todas las computadoras lo
hacen, se obtiene
eps = 2�l: (I:2:5)
Para el FORTRAN sobre una HP-9000, se tiene:
REAL�4; eps = 2�24 � 5:96 � 10�8;REAL�8; eps = 2�55 � 1:39 � 10�17;REAL�16; eps = 2�113� 9:63 � 10�35:
Ahora bien, un n�umero real y su representaci�on en punto otante
en una computadora est�an relacionados por el:
Teorema I.2.2.- Para x 6= 0, se tiene
jarr(x) � xjjxj � eps: (I:2:6)
Demostraci�on.- Sea x = a � 10b y arr(x) = �a � 10b. Si se redondea a l cifrassigni�cativas se tiene
j�a� aj � 5 � 10�l�1;
de donde
jarr(x) � xjjxj =
j�a� aj � 10b
jaj � 10b� 5:10�l�1
10�1= 5 � 10�l = eps
por que jaj � 1=10: �
La estimaci�on dada por (I.2.6) puede ser escrita bajo la forma
arr(x) = x(1 + �); donde j�j � eps: (I:2:7)
Como se ver�a m�as adelante, la relaci�on (I.2.7) es la base fundamental para
todo estudio de los errores de redondeo.
10 I Preliminares
Cuando se trabaja en un computador, se tiene que ser cuidadoso en
la soluci�on de los problemas, pues ya no se resuelve con los datos exactos, si
no con los datos redondeados. Consid�erese la ecuaci�on de segundo grado
x2 � 2
p2x+ 2 = 0;
cuya soluci�on x =p2 es un cero de multiplicidad 2. Resolviendo en simple
precisi�on, la computadora da un mensaje de error, debido a que
arr(p2) = 0:141421 � 10;
arr(arr(p2)2 � 2) = �0:119209 � 10�6:
Como puede observarse, la manipulaci�on de ciertos problemas utilizando la
aritm�etica del punto otante puede ocasionar grandes di�cultades, como en
el ejemplo anterior. Es por eso necesario introducir el concepto de condici�on
de un problema, el cual est�a dado en la:
De�nici�on I.2.3.- Sea P(x) un problema dado por P : Rn ! R. La
condici�on � del problema P es el n�umero mas peque~no positivo �, tal que
j�xi � xijjxij
� eps ) jP(�x)�P(x)jjP(x)j � � eps: (I:2:8)
Se dice que el problema P es bien condicionado si � no es demasiado grande,
sino el problema es mal condicionado.
En la de�nici�on, eps representa un n�umero peque~no. Si eps es la
precisi�on de la computadora entonces �xi puede ser interpretado como el
redondeo de xi. Por otro lado, es necesario resaltar que � depende solamente
del problema, de x y no as�� del algoritmo con el que se calcula P(x). Paracomprender m�as sobre la condici�on de un problema se analizar�a los siguientes
dos ejemplos.
Ejemplos
1.- Multiplicaci�on de dos n�umeros reales. Sean x1 y x2 reales, consid�erese el
problema calcular P(x1; x2) = x1 � x2. Para los dos valores perturbados
�x1 = x1(1 + �1); �x2 = x2(1 + �2); j�ij � eps; (I:2:9)
se obtiene
�x1 � �x2 � x1 � x2x1 � x2
= (1 + �1)(1 + �2)� 1 = �1 + �2 + �1 � �2:
Puesto que eps es un n�umero peque~no, el producto �1: ��2 es despreciablerespecto a j�1j+ j�2j, de donde���� �x1 � �x2 � x1 � x2
x1 � x2
���� � 2 � eps: (I:2:10)
I.2 Estabilidad 11
Por consiguiente, � = 2. El problema es bien condicionado.
2.- Adici�on de numeros reales. Para el problema P(x1; x2) = x1 + x2, por
analog��a al ejemplo precedente, se obtiene���� (�x1 + �x2)� (x1 + x2)
x1 + x2
���� = ����x1�1 � x2�2
x1 + x2
���� � jx1j+ jx1jjx1 + x2jeps: (I:2:11)
Si x1 y x2 son de signos iguales, se tiene � = 1, de donde el problema es
bien condicionado.
Pero, si x1 � �x2, la condici�on � =jx1j+ jx1jjx1 + x2j
se convierte en
una cantidad muy grande. Motivo por el cual el problema est�a mal
condicionado. Para mejor ilustrar el efecto de condici�on muy grande,
consid�erese el siguiente ejemplo num�erico.
x1 =1
51; x2 = �
1
52; para el cual � � 2=50
(1=50)2= 100:
Realizando el c�alculo con 3 cifras signi�cativas en base 10, se obtiene
�x1 = :196 � 10�1, �x2 = �:192 � 10�1 y �x1 + �x2 = :400 � 10�1. Como las
dos primeras cifras son las mismas para �x1 y x2, la adici�on las ha hecho
desaparecer y no hay m�as que una cifra que es signi�cativa. El resultado
exacto es 1=(51 � 52) = 0:377 � 10�3.Respecto a la de�nici�on de condici�on, se debe observar dos situa-
ciones. La primera, si uno de los xi = 0, entonces se tiene �xi = 0; la segunda
sucede cuando P(x) = 0, la condici�on se la calcula pasando al l��mite.
Una vez de�nida la condici�on de un problema, el siguiente paso es
ver la incidencia que tienen los errores de redondeo en la implementaci�on de
un algoritmo para resolver un problema dado. Tal como se dijo en la secci�on
precedente, un algoritmo es una sucesi�on �nita de operaciones elementales,
es decir
P(x) = fn(fn�1(: : : f2(f1(x)) : : :)): (I:2:12)
La ampli�caci�on del error, efectuando la operaci�on fi, est�a dada por la
condici�on �(fi). Por consiguiente:
Proposici�on I.2.4.- El algoritmo que resuelve el problema dado por
(I.2.12), tiene la estimaci�on siguiente
�(P) � �(f1) � �(f2) � � ��(fn): (I:2:13)
Demostraci�on.- Por inducci�on sobre n. Para n = 1, el resultado es trivial.
Sup�ongase, que es cierto para n, por lo tanto, si el problema es de la forma
P(x) = fn+1(fn(fn�1(: : : f2(f1(x)) : : :)));
12 I Preliminares
puede escribirse como
P(x) = fn+1(P 0(x));
utilizando la de�nici�on de condici�on se tiene
jP 0(x)�P 0(�x)jjP 0(x)j � �(P 0)eps
) jfn+1(P 0(x)) � fn+1(P 0(�x))jjfn+1(P 0(x))j
� �(fn+1)�(P 0)eps:
Finalmente utilizando la hip�otesis de inducci�on, se tiene (I.2.13). �
De�nici�on I.2.5.- Un algoritmo es num�ericamente estable, en el sentido de
forward analysis, si
�(f1) � �(f2) � � ��(fn) � Const � �(P) (I:2:14)
donde Const no es demasiado grande.
La f�ormula (I.2.14) expresa el hecho de que la in uencia de los
errores de redondeo durante el c�alculo de P(x) no es mucho m�as grande
que la in uencia de los errores en los datos, lo que en realidad es inevitable.
Ejemplo
Sea x = 104 y consid�erese el problema de calcular 1=(x(1 + x)). Se
examinar�a los dos algoritmos siguientes: El primero de�nido por
x% &x x(x+ 1) �! 1
x(x + 1):
& %x+ 1
Las operaciones efectuadas son muy bien condicionadas, por consiguien-
te, este algoritmo es num�ericamente estable.
El segundo algoritmo de�nido por
1=x% &
x
1
x
� 1
x+ 1=
1
x(x + 1):
& %x+ 1 �! 1=(x+ 1)
En este algoritmo, solamente las tres primeras operaciones son bien
condicionadas. Sin embargo la �ultima operaci�on, la sustracci�on, es muy
I.2 Estabilidad 13
mal condicionada, porque 1=x � 1=(x + 1). Entonces, este algoritmo es
num�ericamente inestable.
La veri�caci�on, si un algoritmo es estable en el sentido de forward
analysis, sobre todo si el n�umero de operaciones es elevado, es a menudo
muy compleja y di�cil. Por esta razon, Wilkinson introduj�o otra de�nici�on
de la estabilidad de un algoritmo.
De�nici�on I.2.6.- Un algoritmo para resolver el problema P(x) es num�eri-camente estable en el sentido de backward analysis si el resultado num�erico �y
puede ser interpretado como un resultado exacto para los datos perturbados
�x, es decir �y = P(�x), y si
j�xi � xijjxij
� Const � eps; (I:2:15)
donde Const no es demasiado grande y eps es la precisi�on de la computadora.
De la de�nici�on I.2.6 y (I.2.15) se deduce que, en el estudio de este tipo
de estabilidad no se requiere conocer de antemano la condici�on del problema.
Ejemplo
Consid�erese el problema de calcular el producto escalar x1 � x2 + x3 � x4.Para calcular �este, se utiliza el algoritmo
x1 � x2% &(x1; x2; x3; x4) x1 � x2 + x3 � x4:
& %x1 � x2
(I:2:16)
El resultado num�erico bajo la in uencia de los errores de redondeo es�x1(1 + �1) � x2(1 + �2)(1 + �1) + x3(1 + �3) � x4(1 + �4)(1 + �2)
�(1 + �3);
donde j�ij ; j�j j � eps. Este resultado es igual a �x1 � �x2 + �x3 � �x4, si seplantea
�x1 = x1(1 + �1)(1 + �1);
�x2 = x2(1 + �2)(1 + �3);
�x3 = x3(1 + �3)(1 + �2);
�x4 = x4(1 + �4)(1 + �3):
Despreciando los productos de la forma �i � �j , la relaci�on (I.2.15) es
satisfecha con Const = 2. Por lo tanto, el algoritmo (I.2.16) siempre es
num�ericamente estable en el sentido de backward analysis.
El ejemplo precedente muestra que un algoritmo puede ser estable,
incluso si el problema est�a mal condicionado. En consecuencia, es necesario
bien distinguir las nociones de estabilidad y condici�on.
14 I Preliminares
Ejercicios
1.- >Cual es la condici�on de la sustracci�on de dos n�umeros?
2.- Determinar la condici�on del problema P(x1; x2) = x1=x2 con x2 6= 0.
3.- Hallar la condici�on del c�alculo del producto escalar
hx; yi =nXi=1
xiyi:
4.- Mostrar que el sistema lineal(ax+ by = 1
cx+ dy = 0; con ad 6= bc
es num�ericamente estable en el sentido de backward analysis.
5.- Las raices del polinomio x2 � 2px� q = 0 son:
�1 = p+pp2 + q; �2 = p�
pp2 + q:
Mostrar que para p > 0, grande, y q � 0, muy peque~no, este algoritmo
es num�ericamente inestable. Utilizando la relaci�on �1�2 = q, encontrar
un algoritmo que es num�ericamente estable en el sentido de backward
analysis.
I.3 Un ejemplo: C�alculo de Pi
En las secci�on precedente se ha visto que el dispositivo material que efectua
los c�alculos num�ericos tiene en general dos tipos de n�umeros: los enteros
que se asemejan mucho a los enteros matem�aticos y el tipo real que es
una representaci�on del n�umero real. Tal como se mostr�o, ambos tipos de
n�umero presentan ciertas particularidades, por ejemplo son en cantidad
�nita, para el tipo real existe el redondeo de los n�umeros. Por consiguiente
si se utiliza el tipo real para determinar �, se tendr�a una precisi�on de
8 decimales; para doble precisi�on se obtendra 16 decimales de precisi�on;
para cuadruple precisi�on, que algunos lenguajes de programaci�on cuentan,
se obtendr�a 32 decimales de precisi�on. Por lo tanto, la precisi�on para obtener
� est�a determinada por el lenguaje de programaci�on y en algunos casos por
el tipo de computadora con que se cuenta.
En esta secci�on se pretende mostrar que estas limitaciones no constituyen
necesariamente un impedimento para determinar un n�umero, en particular
�, con la precisi�on que se desee.
Una de las maneras m�as usuales de determinar � es utilizar el desarrollo
en serie de Taylor en el origen de arctanx, el cual est�a dado por
arctanx =
1Xk=0
(�1)k2k + 1
x2k+1
: (1:3:1)
De (I.3.1) se deduce, para x = 1, que
� = 4
1Xk=0
(�1)k2k + 1
: (I:3:2)
Como se recalc�o en la secci�on I.2, utilizar la serie (I.3.2) no es conveniente,
por que la convergencia de esta serie es muy lenta. Utilizando la relaci�on
tan(� + �) =tan�+ tan�
1� tan� tan�;
una veri�caci�on inmediata conduce a
�
4= 12 arctan
1
18+ 8 arctan
1
57� 5 arctan
1
239: (I:3:3)
Remplazando (I.3.1) en (I.3.3), da como resultado
16 I Preliminares
� = 48
1Xk=0
(�1)k2k + 1
(1
18)2k+1
| {z }A
+32
1Xk=0
(�1)k2k + 1
(1
57)2k+1
| {z }B
� 201Xk=0
(�1)k2k + 1
(1
239)2k+1
| {z }C
: (I:3:4)
Ahora bien, se desea obtener una representaci�on de � en notaci�on decimal
con N decimales de precisi�on. Si cada serie del lado derecho de (I.3.4) es
calculada con una precisi�on de 10�(N+1) se tiene largamente la precisi�on
deseada. Denotando por A, el valor calculado de A; B, el valor calculado de
B y C , el valor calculado de C, se tiene:
A = 48
MAXk=0
(�1)k2k + 1
(1
18)2k+1
;
B = 32
MBXk=0
(�1)k2k + 1
(1
57)2k+1
;
C = 20
MCXk=0
(�1)k2k + 1
(1
239)2k+1
:
De donde:
���A�A
��� = 48
�����1X
k=MA+1
(�1)k2k + 1
(1
18)2k+1
����� � 48(1=18)2MA+3
1� (1=18)2;
���B �B
��� = 32
�����1X
k=MB+1
(�1)k2k + 1
(1
57)2k+1
����� � 32(1=57)2MB+3
1� (1=57)2;
���C � C
��� = 20
�����1X
k=MC+1
(�1)k2k + 1
(1
239)2k+1
����� � 20(1=239)2MC+3
1� (1=239)2:
Por hip�otesis, se tiene por ejemplo que���A� A
��� � 10�(N+1), por lo tanto
para asegurar esta precisi�on es su�ciente que
48(1=18)2MA+3
1� (1=18)2� 10�(N+1)
;
remplazando el signo � por =, se tiene
48(1=18)2MA+3
1� (1=18)2= 10�(N+1)
; (I:3:5)
I.3 Un ejemplo: C�alculo de Pi 17
obteniendo de esta manera
log10(48)� (2MA + 3) log10(18)� log10(1� (1=18)2) = �(N + 1):
Despejando MA, se obtiene
MA =N + 1 + log10(48)� 3 log10(18) + (1=18)2
2 log10(18): (I:3:6)
Del mismo modo se llega a:
MB =N + 1 + log10(32)� 3 log10(57) + (1=57)2
2 log10(57); (I:3:7)
MC =N + 1 + log10(20)� 3 log10(239) + (1=239)2
2 log10(239): (I:3:8)
Una vez determinada la cantidad de t�erminos en cada serie para calcular
A, B y C, es necesario de�nir una representaci�on de los n�umeros reales y
su respectiva aritm�etica que permita calcular A, B y C con la precisi�on
requerida.
Sea b > 1, entonces todo n�umero positivo x se escribe de manera �unica
como
x =
1Xk=0
ak
1
bk; (I:3:9)
donde 0 � ak < b para k � 1. Suponiendo que b = 10m, para obtener una
representaci�on de x con N decimales de precisi�on, es su�ciente conocer akpara 0 � k � N=m+ 2. Se suma 2 a la cota anterior por seguridad. Por lo
tanto, para todo n�umero positivo x,el redondeado x con N cifras decimales
de precisi�on puede escribirse como
x =
N=m+2Xk=0
�ak=10mk
; (I:3:10)
con 0 � �ak < 10m para k � 1. Comparando (I.3.9) con (I.3.10) se tiene
que ak = �ak para 0 � k � N=m + 1 y jak � �akj � 1 para k = N=m + 2,
deduciendose de esta manera la:
Proposici�on I.3.1.- Sea x un n�umero no negativo y �x su representaci�on
dada por (I.3.10), entonces
jx� xj � 10�(N+2m): (I:3:11)
18 I Preliminares
Con los elementos presentados, se est�a en la capacidad de formular un
algoritmo que permita calcular A, B, y C; por razones obvias el algoritmo
ser�a el mismo. Por consiguiente, es su�ciente dar el m�etodo que permita
calcular A con la precisi�on requerida. De la f�ormula (I.3.4) se puede observar
que las operaciones efectuadas son adiciones o sustracciones, divisiones por
expresiones de la forma (2k+1) y divisiones por 18 o 182. La aritm�etica ser�a
consiguientemente de�nida en tres pasos o �etapas.
El primer paso ser�a de�nir la division por un entero p. Sea x un real
positivo, su redondeo se escribe como en (I.3.10), por consiguiente x=q
redondeado se escribe
bxq
=
N=m+2Xk=0
bk=10mk
; (I:3:12)
donde los bk se los de�ne de manera recursiva, utilizando la divisi�on
euclidiana, as��:
a0 = b0q + r0;
a1 + r0 � 10m = b1q + r1;
...
aN=m+2 + rN=m+1 � 10m = bN=m+2 + rN=m+2:
(I:3:13)
El segundo paso ser�a de�nir la adici�on y la sustracci�on para dos reales
positivos x y y. Si se denota los redondeados por x y y, sus representaciones
en punto �jo est�an dadas por:
x =
N=m+2Xk=0
ak=10mk
; y =
N=m+2Xk=0
bk=10mk
:
La suma redondeada se escribe por lo tanto
[x� y =
N=m+2Xk=0
ck=10mk
; (I:3:14)
donde los ck est�an de�nidos recursivamente, utilizando la divisi�on eu-
clidiana, por:
cN=m+2 + dN=m+210m = aN=m+2 � bN=m+2;
cN=m+1 + dN=m+110m = aN=m+1 � bN=m+1 + dN=m+2;
...
c0 = a0 � b0 + d1:
(I:3:15)
El tercer paso ser�a de�nir la multiplicaci�on de un real positivo con un
entero q. Sea el productovskip-3pt
cqx =
N=m+2Xk=0
bk=10mk
; (I:3:16)
I.3 Un ejemplo: C�alculo de Pi 19
donde x est�a dado por (I.3.10), los coe�cientes bk est�an de�nidos recursiva-
mente, utilizando la divisi�on euclidiana, de la manera siguiente:
qaN=m+2 = bN=m+2 + dN=m+210m;
qaN=m+1 + dN=m+2 = bN=m+1 + dN=m+110m;
...
b0 = qa0 + d1:
(I:3:17)
Habiendo de�nido las operaciones requeridas para calcular � con la
precisi�on requerida, se puede de�nir el algoritmo que calcular�a A, y por
consiguiente �.
Algoritmo
1.- Se de�ne x := 1=18, a = x, k = 0.
2.- Hacer para k = 1 hasta k =MA:
x := x=182;
y := x=(2k + 1);
a; = a+ (�1)ky:
3.- a := 48 � a.Finalmente, se debe hacer un an�alisis de la propagaci�on de errores de
redondeo, cometidos en el c�alculo de A, para asegurar que el resultado que
de la computadora corresponde con lo esperado. Este estudio se lo efectuar�a
en tres partes. Sea x2k+1 el resultado realizado por el algoritmo al calcular
x2k+1 para x = 1=18. Utilizando la proposici�on I.3.1, se tiene,
x = x+ �; j�j � 10�N�2m : (I:3:18)
deduciendose inmediatamente:
x3 = (x+ �)=182 + �;
x5 = x
3=182 + �;
...
(I:3:19)
Utilizando desigualdades triangulares y considerando series geom�etricas, se
obtiene ��x2k+1 � x
2k+1�� � 1
1� (1=18)210�N�2m: (I:3:20)
La segunda operaci�on, que aparece en el algoritmo, es la divisi�on por los
enteros de la forma 2k+1. Por el mismo procedimiento que antes, se llega a��� \x2k+1
=(2k + 1)� x2k+1
=(2k + 1)��� � 2 � 10�N�2m: (I:3:21)
20 I Preliminares
Por ultimo para obtener A, se tiene una suma de MA + 1 t�erminos y un
producto por 48. En cada suma se comete un error menor a 2 � 10�N�2m, dedonde se tiene como estimaci�on del error acumulado���A�A
��� � 192(MA + 1)10�N�2m (I:3:22)
Ahora bien, si 192(MA+1) es m�as peque~no que 102m�1, entonces el objetivo
es satisfecho largamente.
Como ilustraci�on de lo expuesto, se ha calculado � con 10000 decimales
de precisi�on, utilizando una HP-9000.
� con 10000 decimales3.1415926535 8979323846 2643383279 5028841971 6939937510 E-000505820974944 5923078164 0628620899 8628034825 3421170679 E-001008214808651 3282306647 0938446095 5058223172 5359408128 E-001504811174502 8410270193 8521105559 6446229489 5493038196 E-002004428810975 6659334461 2847564823 3786783165 2712019091 E-002504564856692 3460348610 4543266482 1339360726 0249141273 E-003007245870066 0631558817 4881520920 9628292540 9171536436 E-003507892590360 0113305305 4882046652 1384146951 9415116094 E-004003305727036 5759591953 0921861173 8193261179 3105118548 E-004500744623799 6274956735 1885752724 8912279381 8301194912 E-005009833673362 4406566430 8602139494 6395224737 1907021798 E-005506094370277 0539217176 2931767523 8467481846 7669405132 E-006000005681271 4526356082 7785771342 7577896091 7363717872 E-006501468440901 2249534301 4654958537 1050792279 6892589235 E-007004201995611 2129021960 8640344181 5981362977 4771309960 E-007505187072113 4999999837 2978049951 0597317328 1609631859 E-008005024459455 3469083026 4252230825 3344685035 2619311881 E-008507101000313 7838752886 5875332083 8142061717 7669147303 E-009005982534904 2875546873 1159562863 8823537875 9375195778 E-009501857780532 1712268066 1300192787 6611195909 2164201989 E-010003809525720 1065485863 2788659361 5338182796 8230301952 E-010500353018529 6899577362 2599413891 2497217752 8347913151 E-011005574857242 4541506959 5082953311 6861727855 8890750983 E-011508175463746 4939319255 0604009277 0167113900 9848824012 E-012008583616035 6370766010 4710181942 9555961989 4676783744 E-012509448255379 7747268471 0404753464 6208046684 2590694912 E-013009331367702 8989152104 7521620569 6602405803 8150193511 E-013502533824300 3558764024 7496473263 9141992726 0426992279 E-014006782354781 6360093417 2164121992 4586315030 2861829745 E-014505570674983 8505494588 5869269956 9092721079 7509302955 E-015003211653449 8720275596 0236480665 4991198818 3479775356 E-015506369807426 5425278625 5181841757 4672890977 7727938000 E-016008164706001 6145249192 1732172147 7235014144 1973568548 E-016501613611573 5255213347 5741849468 4385233239 0739414333 E-017004547762416 8625189835 6948556209 9219222184 2725502542 E-017505688767179 0494601653 4668049886 2723279178 6085784383 E-018008279679766 8145410095 3883786360 9506800642 2512520511 E-018507392984896 0841284886 2694560424 1965285022 2106611863 E-019000674427862 2039194945 0471237137 8696095636 4371917287 E-019504677646575 7396241389 0865832645 9958133904 7802759009 E-020009465764078 9512694683 9835259570 9825822620 5224894077 E-020502671947826 8482601476 9909026401 3639443745 5305068203 E-021004962524517 4939965143 1429809190 6592509372 2169646151 E-021505709858387 4105978859 5977297549 8930161753 9284681382 E-022006868386894 2774155991 8559252459 5395943104 9972524680 E-022508459872736 4469584865 3836736222 6260991246 0805124388 E-023004390451244 1365497627 8079771569 1435997700 1296160894 E-023504169486855 5848406353 4220722258 2848864815 8456028506 E-024000168427394 5226746767 8895252138 5225499546 6672782398 E-024506456596116 3548862305 7745649803 5593634568 1743241125 E-025001507606947 9451096596 0940252288 7971089314 5669136867 E-025502287489405 6010150330 8617928680 9208747609 1782493858 E-026009009714909 6759852613 6554978189 3129784821 6829989487 E-026502265880485 7564014270 4775551323 7964145152 3746234364 E-02700
I.3 Un ejemplo: C�alculo de Pi 21
5428584447 9526586782 1051141354 7357395231 1342716610 E-027502135969536 2314429524 8493718711 0145765403 5902799344 E-028000374200731 0578539062 1983874478 0847848968 3321445713 E-028508687519435 0643021845 3191048481 0053706146 8067491927 E-029008191197939 9520614196 6342875444 0643745123 7181921799 E-029509839101591 9561814675 1426912397 4894090718 6494231961 E-030005679452080 9514655022 5231603881 9301420937 6213785595 E-030506638937787 0830390697 9207734672 2182562599 6615014215 E-031000306803844 7734549202 6054146659 2520149744 2850732518 E-031506660021324 3408819071 0486331734 6496514539 0579626856 E-032001005508106 6587969981 6357473638 4052571459 1028970641 E-032504011097120 6280439039 7595156771 5770042033 7869936007 E-033002305587631 7635942187 3125147120 5329281918 2618612586 E-033507321579198 4148488291 6447060957 5270695722 0917567116 E-034007229109816 9091528017 3506712748 5832228718 3520935396 E-034505725121083 5791513698 8209144421 0067510334 6711031412 E-035006711136990 8658516398 3150197016 5151168517 1437657618 E-035503515565088 4909989859 9823873455 2833163550 7647918535 E-036008932261854 8963213293 3089857064 2046752590 7091548141 E-036506549859461 6371802709 8199430992 4488957571 2828905923 E-037002332609729 9712084433 5732654893 8239119325 9746366730 E-037505836041428 1388303203 8249037589 8524374417 0291327656 E-038001809377344 4030707469 2112019130 2033038019 7621101100 E-038504492932151 6084244485 9637669838 9522868478 3123552658 E-039002131449576 8572624334 4189303968 6426243410 7732269780 E-039502807318915 4411010446 8232527162 0105265227 2111660396 E-040006655730925 4711055785 3763466820 6531098965 2691862056 E-040504769312570 5863566201 8558100729 3606598764 8611791045 E-041003348850346 1136576867 5324944166 8039626579 7877185560 E-041508455296541 2665408530 6143444318 5867697514 5661406800 E-042007002378776 5913440171 2749470420 5622305389 9456131407 E-042501127000407 8547332699 3908145466 4645880797 2708266830 E-043006343285878 5698305235 8089330657 5740679545 7163775254 E-043502021149557 6158140025 0126228594 1302164715 5097925923 E-044000990796547 3761255176 5675135751 7829666454 7791745011 E-044502996148903 0463994713 2962107340 4375189573 5961458901 E-045009389713111 7904297828 5647503203 1986915140 2870808599 E-045500480109412 1472213179 4764777262 2414254854 5403321571 E-046008530614228 8137585043 0633217518 2979866223 7172159160 E-046507716692547 4873898665 4949450114 6540628433 6639379003 E-047009769265672 1463853067 3609657120 9180763832 7166416274 E-047508888007869 2560290228 4721040317 2118608204 1900042296 E-048006171196377 9213375751 1495950156 6049631862 9472654736 E-048504252308177 0367515906 7350235072 8354056704 0386743513 E-049006222247715 8915049530 9844489333 0963408780 7693259939 E-049507805419341 4473774418 4263129860 8099888687 4132604721 E-050005695162396 5864573021 6315981931 9516735381 2974167729 E-050504786724229 2465436680 0980676928 2382806899 6400482435 E-051004037014163 1496589794 0924323789 6907069779 4223625082 E-051502168895738 3798623001 5937764716 5122893578 6015881617 E-052005578297352 3344604281 5126272037 3431465319 7777416031 E-052509906655418 7639792933 4419521541 3418994854 4473456738 E-053003162499341 9131814809 2777710386 3877343177 2075456545 E-053503220777092 1201905166 0962804909 2636019759 8828161332 E-054003166636528 6193266863 3606273567 6303544776 2803504507 E-054507723554710 5859548702 7908143562 4014517180 6246436267 E-055009456127531 8134078330 3362542327 8394497538 2437205835 E-055503114771199 2606381334 6776879695 9703098339 1307710987 E-056000408591337 4641442822 7726346594 7047458784 7787201927 E-056507152807317 6790770715 7213444730 6057007334 9243693113 E-057008350493163 1284042512 1925651798 0694113528 0131470130 E-057504781643788 5185290928 5452011658 3934196562 1349143415 E-058009562586586 5570552690 4965209858 0338507224 2648293972 E-058508584783163 0577775606 8887644624 8246857926 0395352773 E-059004803048029 0058760758 2510474709 1643961362 6760449256 E-059502742042083 2085661190 6254543372 1315359584 5068772460 E-060002901618766 7952406163 4252257719 5429162991 9306455377 E-060509914037340 4328752628 8896399587 9475729174 6426357455 E-061002540790914 5135711136 9410911939 3251910760 2082520261 E-061508798531887 7058429725 9167781314 9699009019 2116971737 E-062002784768472 6860849003 3770242429 1651300500 5168323364 E-062503503895170 2989392233 4517220138 1280696501 1784408745 E-063001960121228 5993716231 3017114448 4640903890 6449544400 E-06350
22 I Preliminares
6198690754 8516026327 5052983491 8740786680 8818338510 E-064002283345085 0486082503 9302133219 7155184306 3545500766 E-064508282949304 1377655279 3975175461 3953984683 3936383047 E-065004611996653 8581538420 5685338621 8672523340 2830871123 E-065502827892125 0771262946 3229563989 8989358211 6745627010 E-066002183564622 0134967151 8819097303 8119800497 3407239610 E-066503685406643 1939509790 1906996395 5245300545 0580685501 E-067009567302292 1913933918 5680344903 9820595510 0226353536 E-067501920419947 4553859381 0234395544 9597783779 0237421617 E-068002711172364 3435439478 2218185286 2408514006 6604433258 E-068508856986705 4315470696 5747458550 3323233421 0730154594 E-069000516553790 6866273337 9958511562 5784322988 2737231989 E-069508757141595 7811196358 3300594087 3068121602 8764962867 E-070004460477464 9159950549 7374256269 0104903778 1986835938 E-070501465741268 0492564879 8556145372 3478673303 9046883834 E-071003634655379 4986419270 5638729317 4872332083 7601123029 E-071509113679386 2708943879 9362016295 1541337142 4892830722 E-072000126901475 4668476535 7616477379 4675200490 7571555278 E-072501965362132 3926406160 1363581559 0742202020 3187277605 E-073002772190055 6148425551 8792530343 5139844253 2234157623 E-073503610642506 3904975008 6562710953 5919465897 5141310348 E-074002276930624 7435363256 9160781547 8181152843 6679570611 E-074500861533150 4452127473 9245449454 2368288606 1340841486 E-075003776700961 2071512491 4043027253 8607648236 3414334623 E-075505189757664 5216413767 9690314950 1910857598 4423919862 E-076009164219399 4907236234 6468441173 9403265918 4044378051 E-076503338945257 4239950829 6591228508 5558215725 0310712570 E-077001266830240 2929525220 1187267675 6220415420 5161841634 E-077508475651699 9811614101 0029960783 8690929160 3028840026 E-078009104140792 8862150784 2451670908 7000699282 1206604183 E-078507180653556 7252532567 5328612910 4248776182 5829765157 E-079009598470356 2226293486 0034158722 9805349896 5022629174 E-079508788202734 2092222453 3985626476 6914905562 8425039127 E-080005771028402 7998066365 8254889264 8802545661 0172967026 E-080506407655904 2909945681 5065265305 3718294127 0336931378 E-081005178609040 7086671149 6558343434 7693385781 7113864558 E-081507367812301 4587687126 6034891390 9562009939 3610310291 E-082006161528813 8437909904 2317473363 9480457593 1493140529 E-082507634757481 1935670911 0137751721 0080315590 2485309066 E-083009203767192 2033229094 3346768514 2214477379 3937517034 E-083504366199104 0337511173 5471918550 4644902636 5512816228 E-084008244625759 1633303910 7225383742 1821408835 0865739177 E-084501509682887 4782656995 9957449066 1758344137 5223970968 E-085003408005355 9849175417 3818839994 4697486762 6551658276 E-085505848358845 3142775687 9002909517 0283529716 3445621296 E-086004043523117 6006651012 4120065975 5851276178 5838292041 E-086509748442360 8007193045 7618932349 2292796501 9875187212 E-087007267507981 2554709589 0455635792 1221033346 6974992356 E-087503025494780 2490114195 2123828153 0911407907 3860251522 E-088007429958180 7247162591 6685451333 1239480494 7079119153 E-088502673430282 4418604142 6363954800 0448002670 4962482017 E-089009289647669 7583183271 3142517029 6923488962 7668440323 E-089502609275249 6035799646 9256504936 8183609003 2380929345 E-090009588970695 3653494060 3402166544 3755890045 6328822505 E-090504525564056 4482465151 8754711962 1844396582 5337543885 E-091006909411303 1509526179 3780029741 2076651479 3942590298 E-091509695946995 5657612186 5619673378 6236256125 2163208628 E-092006922210327 4889218654 3648022967 8070576561 5144632046 E-092509279068212 0738837781 4233562823 6089632080 6822246801 E-093002248261177 1858963814 0918390367 3672220888 3215137556 E-093500037279839 4004152970 0287830766 7094447456 0134556417 E-094002543709069 7939612257 1429894671 5435784687 8861444581 E-094502314593571 9849225284 7160504922 1242470141 2147805734 E-095005510500801 9086996033 0276347870 8108175450 1193071412 E-095502339086639 3833952942 5786905076 4310063835 1983438934 E-096001596131854 3475464955 6978103829 3097164651 4384070070 E-096507360411237 3599843452 2516105070 2705623526 6012764848 E-097003084076118 3013052793 2054274628 6540360367 4532865105 E-097507065874882 2569815793 6789766974 2205750596 8344086973 E-098005020141020 6723585020 0724522563 2651341055 9240190274 E-098502162484391 4035998953 5394590944 0704691209 1409387001 E-099002645600162 3742880210 9276457931 0657922955 2498872758 E-099504610126483 6999892256 9596881592 0560010165 5256375678 E-10000
Cap��tulo II
Sistemas Lineales
Una gran cantidad de problemas implica la resoluci�on de sistemas lineales
de la forma
Ax = b;
donde
A =
0@ a11 � � � a1n...
...
an1 � � � ann
1A; b =
0@ b1
...
bn
1Acon coe�cientes reales o complejos. Por esta necesidad es importante la cons-
trucci�on de algoritmos que permitan su resoluci�on en un tiempo razonable y
con el menor error posible. Cada problema tiene su particularidad, motivo
por el cual no existe un m�etodo general mediante el cual se pueda resolver e�-
cazmente todos los problemas. Es verdad que existen m�etodos casi generales,
que con peque~nas modi�caciones pueden servir para encontrar la soluci�on
de un problema particular. A lo largo de este cap��tulo se expondr�an estos
m�etodos, dando criterios de estabilidad y estimaciones de error.
En la primera secci�on se tratar�a la condici�on del problema lineal, para
este efecto ser�a necesario introducir elementos de la teor��a de normas en
las matrices, para luego introducir las nociones relativas a la condici�on del
problema lineal.
En la segunda secci�on se abordar�a los m�etodos de resoluci�on como son:
el Algoritmo de Eliminaci�on de Gauss, la Descomposici�on de Cholesky y
algunas modi�caciones de estos m�etodos. En esta secci�on se estudiar�a la
implementaci�on de tales m�etodos, como tambi�en la estabilidad de estos.
La tercera secci�on tratar�a, la teor��a e implementaci�on de los m�etodos ite-
rativos lineales como: Jacobi, Gauss-Seidel y SOR. As�� mismo se analizar�an
algunos problemas tipos y se har�an comparaciones de tales metodos.
En la cuarta secci�on, se ver�a los m�etodos de tipo gradiente cuyo enfoque
es diferente a los m�etodos de las dos secciones precedentes, en efecto, son
m�etodos que encuentran la soluci�on a partir de problemas de minimizaci�on.
Se resolver�an ejemplos tipos y se comparar�a la e�ciencia de �estos con otros
m�etodos.
24 II Sistemas Lineales
La �ultima secci�on describir�a el M�etodo de los M��nimos Cuadrados, como
una generalizaci�on de lo anteriormente expuesto, introduciendo como coro-
lario la noci�on de Pseudo-Inversa. As�� mismo se analizar�a la implementaci�on
del m�etodo QR, incluyendo una estimaci�on del error de tal m�etodo.
II.1 Condici�on del Problema lineal
Normas de Vectores y Matrices
La noci�on de norma y espacio normado es un instrumento matem�atico muy
util en el estudio de las magnitudes que se manipulan, como tambi�en un
instrumento en el estudio de la convergencia y los l��mites. Se empezar�a
de�niendo el concepto de norma en espacios Rn , para luego de�nir en el
�algebra de las matrices a coe�cientes reales.
De�nici�on II.1.1.- Una norma sobre Rn es una aplicaci�on
k k : Rn �! R;
con las siguientes propiedades:
kxk � 0; kxk = 0 () x = 0;i)
k�xk = j�j kxk ; donde � 2 R;ii)
kx+ yk =� kxk+ kyk :iii)
La primera condici�on implica que una norma siempre es positiva y es
nula siempre y cuando el vector sea el vector nulo. La segunda propiedad es
la homogeneidad de la norma y la tercera condici�on es m�as conocida como
desigualdad del tri�angulo. Las normas m�as usuales en Rn son las siguientes:
kxk1 =nXi=1
jxij ; norma ciudad-bloque;
kxk2 =
nXi=1
jxij2! 1
2
; norma euclidiana;
kxkp =
nXi=1
jxij2! 1
p
; p > 1;
kxk1= max
i=1;:::;njxij ; norma de la convergencia uniforme:
Estas normas, que son las usualmente utilizadas, tienen algunas propiedades
en com�un. La m�as importante es que, si se aumenta en valor absoluto una
de las componentes, la norma se incrementa. Es necesario formalizar este
hecho, motivo por el cual, se tiene la:
26 II Sistemas Lineales
De�nici�on II.1.2.- Si x = (x1; : : : ; xn) 2 Rn , se de�ne el valor absoluto dex como jxj = (jx1j ; : : : ; jxnj). Se dice que jxj � jyj, si jxij � jyij para todo
i = 1; : : : ; n. Una norma k k sobre Rn se dice que es:
(a) Mon�otona, si jxj � jyj implica que kxk � kyk para todo
x; y 2 Rn .(b) Absoluta, si kxk = kjxjk para todo x 2 Rn .
Proposici�on II.1.3.- Una norma k k sobre Rn es mon�otona, si y solamente
si es absoluta.
Demostraci�on.- Si la norma k k es mon�otona, sea x 2 Rn , llamenos y = jxj.Como jxj � jyj, y jyj � jxj se tiene inmediatamente, porque la norma es
mon�otona, que kxk = kyk.Si la normak k es absoluta, sea x 2 Rn , consid�erese
�x = (x1; : : : ; xk�1; �xk; xk+1; : : : ; xn), con � 2 [0; 1]. Utilizando el hecho
que la norma sea absoluta, desigualdad del tri�angulo y efectuando c�alculos
algebraicos se tiene:
k�xk = 12(1� �)(x1; : : : ; xk�1;�xk; xk+1; : : : ; xn) +
1
2(1� �)x + �x
� 1
2(1� �) k(x1; : : : ; xk�1;�xk; xk+1; : : : ; xn)k+
1
2(1� �) kxk+ �x
=1
2(1� �) kxk+ 1
2(1� �) kxk+ � kxk = kxk :
Ahora bien, si x = (x1; : : : ; xk ; : : : ; xn) y y = (x1; : : : ; xk1 ; yk; xk+1; : : : ; xn),
con jykj � jxkj, utilizando la desigualdad anterior se tiene kxk � kyk. Parademostrar que jxj � jyj implica que kxk � kyk, se repite el anterior paso n
veces, es decir una vez por cada componente. �
Una matriz de ordenm�n puede ser vista como un vector que pertenece
al espacio Rmn , de esta manera de�nir la norma de una matriz como la de
un vector, pero se perder��a as�� muchas de las propiedades que tiene una
aplicaci�on lineal. Es por eso la:
De�nici�on II.1.4.- Sea A una matriz de m� n, se de�ne su norma como
kAk = supx6=0
kAxkkxk = sup
kxk=1
kAxk : (II:1:1)
La de�nici�on de la norma de una matriz depende evidentemente de las
normas elegidas para kxk y kAxk. Sin embargo puede ser veri�cado sin
ning�un problema, que la norma de una matriz, veri�ca las condiciones de
norma de un vector. La demostraci�on es una simple veri�caci�on de estas
condiciones, utilizando la de�nici�on de supremo. Adem�as si las norma de los
espacios Rn y Rm son mon�otonas o absolutas, es facil veri�car que la norma
II.1 Condici�on del Problema lineal 27
de matriz inducida por �estas, es todav��a mon�otona; es su�ciente utilizar
la de�nici�on para probar esta a�rmaci�on. Por otro lado kAk es el n�umeropositivo m�as peque~no � que satisface kAxk � � kxk, por lo tanto
kAxk � kAk kxk ; 8x 2 Rn : (II:1:2)
Una norma sobre el espacio de matrices veri�ca las siguientes propiedades,
dada por la:
Proposici�on II.1.5.- Cualquier norma sobre el espacio de las matrices
Mm(R) satisface las propiedades adicionales siguientes:
kIk = 1; (II:1:3)
kABk � kAk kBk : (II:1:4)
Demostraci�on.- La relaci�on (II.1.3) de la proposici�on es consecuencia
inmediata de la de�nici�on de la norma de una matriz.
La relaci�on (II.1.4) es consecuencia de las observaciones hechas despu�es de
la de�nici�on, en efecto
kABxk � kAk kBxk � kAk kBk kxk ;kABxkkxk � kAk kBk ;
kABk � kAk kBk :�
Se ha dado las propiedades esenciales de la norma de matrices, pero es
necesario conocer algunas de �estas por su utilizaci�on frecuente. Utilizando
la misma notaci�on que en las normas de los vectores de�nidas al inicio de
la secci�on, se puede utilizar la misma notaci�on en los ��ndices de las normas
de las matrices, con la convenci�on que las normas de los vectores tienen los
mismos ��ndices.
Teorema II.1.6.- Sea A una matriz de n�m, entonces:
kAk1 = maxj=1;:::;m
nXi=1
jaij j ; (II:1:5)
kAk2 =pvalor propio m�as grande de At
A; (II:1:6)
kAk1= max
i=1;:::;n
mXj=1
jaij j : (II:1:7)
28 II Sistemas Lineales
Demostraci�on.- Se comenzar�a por kAk1, se tiene:
kAxk1 =nXi=1
������mXj=1
aijxj
������ �nXi=1
mXj=1
jaij j jxj j
�mXj=1
nXi=1
jaij j!jxj j �
max
j=1;:::;m
nXi=1
jaij j!kxk1 ;
por lo tanto kAk1 � maxj=1;:::;m
nXi=1
jaij j :
Se mostrar�a, que la igualdad se cumple, en efecto, sea jo tal que:nXi=1
jaijo j = maxj=1;:::;m
nXi=1
jaij j ; y �x tal que �xjo = 1; xi = 0 si i 6= jo;
de esta manera kA�xk =
0B@ a1jo
...
amjo
1CA 1
=
nXi=1
jaijo j k�xk1 :
Para la k k2 se tiene:
kAxk22 = hAx;Axi = xtAtAx;
ahora bien AtA es una matriz sim�etrica de�nida positiva, de donde los
valores propios son reales no negativos, adem�as es posible formar una base de
vectores propios ortonormales. Sea fe1; : : : ; emg una base de vectores propios
ortonormales, entonces x =
mXi=1
�iei y Ax =
mXi=1
�i�iei, donde los �i � 0 son
los valores propios de A. Por lo tanto, se tiene
kAxk22 =mXi=1
�2i�
2i � max
i=1;:::;m�i
mXi=1
�2i = max
i=1;:::;m�i kxk2 :
Para obtener la igualdad, es su�ciente tomar x = ejo , donde �jo es el
autovalor m�as grande.
Para la k k1
se tiene:
kAxk1= max
i=1;:::;n
������mXj=1
aijxj
������ � maxi=1;:::;n
0@ mXj=1
jaij j jxj j
1A� max
i=1:::;n
0@ mXj=1
jaij j maxj=1;:::;m
jxj j
1A �0@ maxi=1;:::;n
mXj=1
jaij j
1A kxk1;
as�� kAk1� max
j=1;:::;m
mXj=1
jaij j :
II.1 Condici�on del Problema lineal 29
Para obtener la igualdad es su�ciente tomar x = 1, donde 1 = (1; : : : ; 1)t.
�
La Condici�on de una Matriz
La resoluci�on de un sistema lineal de ecuaciones debe hacer meditar sobre
muchos aspectos relacionados, como ser la existencia de la soluci�on, si el
problema a resolver est�a bien condicionado, conocer una estimaci�on del error
cometido en la soluci�on num�erica, etc. Se tiene inicialmente el sistema de
ecuaciones
Ax = b; donde A 2Mn(R), y b 2 Rn ; (II:1:8)
el problema es encontrar x 2 R que sea soluci�on del sistema (II.1.8), esta
situaci�on puede escribirse formalmente como
P(A; b) = x:
De esta manera la condici�on del problema est�a dada por��P(A; b)�P( �A;�b)��jP(A; b)j � cond � eps; (II:1:9)
donde:
�aij = aij(1 + �ij); j�ij j � eps; (II:1:10)
�bi = bi(1 + �i); j�ij � eps: (II:1:100)
Si se plantea P( �A;�b) = �x, se tienekx� �xkkxk � cond � eps. Por otro lado,
considerando que solamente normas mon�onotas son utilizadas, se tiene: 0@ a11�11 � � � a1n�n1
......
...
an1�n1 � � � ann�nn
1A � eps kAk ;
de esta manera �A�A
� eps kAk y �b� b
� eps kbk : (II:1:11)
Suponiendo que la matriz sea inversible, se puede enunciar el siguiente
teorema, pero antes una de�nici�on es necesaria.
De�nici�on II.1.7.- La condici�on de una matriz A inversible se de�ne como
cond(A) = kAk A�1 : (II:1:12)
30 II Sistemas Lineales
Teorema II.1.8.- Sea A una matriz con detA 6= 0, sup�ongase que �A�A
� kAk �A, �b� b
� kbk �b. Si �Acond(A) < 1, entonces
k�x� xkkxk � cond(A)
1� �Acond(A)(�A + �b): (II:1:13)
Si adem�as se tiene �Acond(A) <1
2 , entonces la condici�on del problema
resolver Ax = b es � 2cond(A).
Demostraci�on.- Se tiene Ax = b y �A�x = �
b, de donde:
Ax� �A�x = b� �
b y Ax�A�x + �Ax� �
A�x = b� �b;
A(x � �x) = ( �A�A)�x+ (b� �b); x� �x = A
�1( �A�A)�x +A�1(b� �
b);
introduciendo las desigualdades en las normas se obtiene:
kx� �xk � A�1 �
A�A
k�xk+ A�1 �b� b
� A�1 (kAk �A (kxk+ k�x� xk) + kbk �b)
� A�1 kAk (�A (kxk+ k�x� xk) + kxk �b) ;
de esta manerak�x� xkkxk � cond(A)
1� �Acond(A)(�A + �b): �
Como la condici�on del problema lineal est�a ��ntimamente ligada a la
condici�on de la matriz, es importante conocer algunas de sus propiedades,
dadas por la:
Proposici�on II.1.9.- La condici�on de una matriz satisface las siguientes
propiedades:
cond(A) � 1; (II:1:14)
cond(I) = 1; (II:1:15)
cond(�A) = cond(A); � 2 R: (II:1:16)
Demostraci�on.- Veri�caci�on inmediata. �
Ejemplos
1.- Q ortogonal, es decir QtQ = I , la condici�on respecto a la norma k k2
esta dada por
cond2(Q) = 1: (II:1:17)
2.- Sea la matriz A dada por
A =1
h
0BBBBB@4 1 0 � � � 0
1 4 1 � � � 0...
. . .. . .
......
... � � � 1 4 1
� � � � � � 1 4
1CCCCCA ;
II.1 Condici�on del Problema lineal 31
entonces kAk1= 6
h
, adem�as A = 4
h
(I +N) donde
N =
0BBB@0 1
4 0 � � � 01
4 0 1
4 � � � 0
.... . .
. . . � � �...
0 � � � 0 1
4 0
1CCCA ; kNk1=
1
2< 1:
Se deduce que
A�1 =
h
4(I +N)�1 =
h
4(I �N +N
2 �N3 + � � �);
A�1 1� h
4(1 + kNk+
N
2 + � � �)
� h
4
�1
1� kNk
�� h
2;
entonces cond1(A) � 3, por lo tanto, la matriz es bien condicionada.
3.- El siguiente ejemplo muestra la existencia de una matriz mal condi-
cionada.
Sea H la matriz de n� n, llamada matriz de Hilbert, de�nida por
hij =1
i+ j � 1; i; j = 1; : : : ; n:
H es una matriz sim�etrica de�nida positiva, motivo por el cual la
condici�on respecto a la norma euclidiana est�a dada por
cond2H =�max
�min;
donde los � son valores propios de H . Se puede mostrar que
cond2H � cen: (II:1:18)
Se puede observar claramente que las matrices de Hilbert son mal
condicionadas, inclusive para n bastante peque~no.
4.- Finalmente, este ejemplo muestra la existencia de otra matriz mal
condicionada, como ser las matrices de Vandermonde. Sea V la matriz
de n� n de�nida por
V =
0BB@1 1 � � � 1
c1 c2 � � � cn
...... � � �
...
cn�11 c
n�12 � � � c
n�1n
1CCA ;
32 II Sistemas Lineales
donde los ci son diferentes. Se puede mostrar que la cond2V � bn,
donde b > 1.
Ahora bien, la estimaci�onk�x�xk
kxk � 2cond(A)eps puede ser demasiada
pesimista, para ver esto, consid�erese el siguiente ejemplo,�1 1
0 108
��x
y
�=
�2
1
�:
Si se llama A a la matriz del sistema, se tiene kAk2 = 108 y A�1 � 1. El
sistema con los errores de redondeo incorporados, est�a dado por:�1 + �1 1 + �2
0 108(1 + �3)
�=
��x
�y
�= ( 2(1 + �4) 1 + �5 ) ;
�y = 1081 + �5
1 + �3
' 10�8(1 + �5 � �3);
de dondejy � �yjjyj � 2eps:
Calculando �x; se tiene
�x =2(1 + �4)� (1 + �2)�y
1 + �1
=2� 10�8 + 2�4 � 10�8(�2 + �5 � �3)
1 + �1
=x+ 2�1 � 10�8(�2 + �5 � �3)
1 + �1
' x(1 + 4eps);
por lo tanto,jx� �xjjxj � 4eps:
El problema es bien condicionado, aunque la matriz A tenga una gran
condici�on. Si se multiplica el sistema de ecuaciones por una matriz diagonal
D se obtiene, el nuevo problema dado por
DAx = Db;
por el teorema II.1.8, se tiene
kx� �xkkxk � 2cond(DA)eps; si cond(DA)eps <
1
2:
En el ejemplo anterior, se plantea
D =
�1 0
0 10�8
�; as�� DA =
�1 1
0 1
�;
II.1 Condici�on del Problema lineal 33
obteniendo el:
Corolario II.1.10.- Con las misma hip�otesis del teorema II.1.8, y adem�as
si cond(DA)eps < 1
2 , se tiene
La condici�on del problema � 2 infD diagonal
cond(DA): (II:1:19)
Ejercicios
1.- a) Sea k k de�nida en Rn . La bola unitaria cerrada se de�ne como
�B =
�x 2 Rn
�� kxk � 1;
mostrar que la bola unitaria es un conjunto convexo.
b) SeaD un conjunto convexo acotado, en cuyo interior est�a 0. Si se supone
que D es equilibrado, es decir si x 2 D implica que �x 2 D. Mostrar que
se puede de�nir una norma cuya bola unitaria cerrada sea precisamente
D.
2.- >Es la funci�on f(x) = jx1 � x2j + jx2j una norma sobre R2? Si lo es, >es
mon�otona? Dibujar la bola unitaria.
3.- Dar las condiciones para que una norma sea mon�otona, observando su
bola unitaria cerrada.
4.- Para una matriz A se de�ne la norma de Frobenius como
kAkF =
vuut nXi=1
nXj=1
jaij j2:
a) Mostrar que kAkF es una norma sobre Rn�n .
b) Veri�car la desigualdad
kAk2 � kAkF �pn kAk2 :
5.- Veri�car la desigualdad
maxi;jjaij j � kAk2 � n:max
i;jjaij j :
6.- Sea A una matriz con detA 6= 0. Mostrar que
A�1 = � min
kxk=1kAxk
�:
34 II Sistemas Lineales
7.- Sea R una matriz triangular inversible. Mostrar que:
jriij � kRkp ; jriij�1 � R�1 p; para p = 1; 2;1:
Deducir que
condp(R) � maxi;k
jriijjrkk j
:
8.- Sea
A =
0BBBBB@2�
1
h0+ 1
h1
�0 � � � � � � 0
1
h12�
1
h1+ 1
h2
�1
h2� � � 0
0. . .
. . .. . .
...
0 � � � 0 1
hn�22�
1
hn�2+ 1
hn�1
�
1CCCCCAla matriz, que se encuentra en la interpolaci�on spline. Mostrar:
a) cond1(A) puede ser arbitrariamente grande.
(Si maxhi=minhi �!1).
b) Existe una matriz diagonal D tal que cond1(DA) � 3.
II.2 M�etodos Directos
En esta secci�on se desarrollar�a los algoritmos de resoluci�on directa de
sistemas lineales m�as comunes en la actualidad. El problema a resolver es
Ax = b; (II:2:1)
donde A 2 Mn(R), x; b 2 Rn . Por los resultados obtenidos en la teor��a del
Algebra Lineal, este sistema de ecuaciones lineales tiene una sola soluci�on,
si y solamente si detA 6= 0. Para mostrar la importancia de contar con
algoritmos cuyo costo en operaciones sea m��nimo, vale la pena dar el siguiente
ejemplo de resoluci�on de este sistema de ecuaciones lineales. El ejemplo
consiste en la utilizaci�on de la regla de Cramer, que en si misma constituye
uno de los resultados te�oricos m�as hermosos que se ha obtenido. Para ilustrar
el m�etodo de Cramer, se debe hacer algunas convenciones sobre la notaci�on.
Para comenzar una matriz A de n� n se puede escribir como
A = (A1; : : : ; An)
donde Ai es la i-esima columna de la matriz A. Dada una matriz A y un
vector b 2 Rn , se denota por
A(j) = (A1; : : : ; Aj�1; b; Aj+1; : : : ; An;
la matriz obtenida remplazando la j-esima columna por el vector b. Ahora
bien, la soluci�on del sistema (II.2.1) est�a dada por
xi =detA(i)
detA;
donde x = (x1; : : : ; xn). Por lo tanto, la resoluci�on del sistema implica el
c�alculo de n+1 determinantes. Si para encontrar el valor de los determinantes
se utiliza la siguiente relaci�on
X�2Sn
signo(�)
nYi=1
ai�(i);
donde Sn es el grupo de permutaciones de n elementos, se debe efectuar n!
sumas. Si se desea resolver un sistema de 69 ecuaciones con el mismo n�umero
de incognitas, suponiendo que cada suma se efectua en 10�9 segundos,
se tardar��a aproximadamente 6:75 � 1049 a~nos en llegar a la soluci�on del
36 II Sistemas Lineales
problema. Como conclusi�on se puede decir que existen m�etodos cuyo valor
te�orico es importante, pero su ejecuci�on num�erica es desastrosa, raz�on por
la cual es imprescindible implementar algoritmos cuyo costo no sea muy
elevado.
El Algoritmo de Gauss
Uno de los algoritmos m�as utilizados, precisamente por su relativo bajo
costo, es el Algoritmo de Eliminaci�on de Gauss. Consid�erese el sistema de
ecuaciones dado por
8>><>>:a11x1 + a12x2 + � � � +a1nxn = b1
a21x1 + a22x2 + � � � +a2nxn = b2
......
an1x1 + an2x2 + � � � +annxn = bn
:
El Algoritmo de Gauss consiste en:
Primer paso Si a11 6= 0, li1 =ai1a11
, para i = 2; : : : ; n.
Se calcula lineai � li1 � linea1, para i = 2; : : : ; n.
Si a11 = 0 se intercambia lineas.
Obteniendose el sistema equivalente dado por
8>><>>:a11x1 + a12x2 + � � � + a1nxn = b1
a
(1)22 x2 + � � � + a
(1)2n xn = b
(1)2
......
a
(1)n2 x2 + � � � + a
(1)nnxn = b
(1)n
:
Paso 2 Si a(1)22 6= 0, li1 =
a
(1)i2
a
(1)22
, para i = 3; : : : ; n.
Se calcula lineai � li2 � linea2, para i = 3; : : : ; n.
Si a22 = 0 se intercambia lineas.
Se repite el procedimiento hasta obtener un sistema triangular de ecuaciones
como el siguiente
8>><>>:r11x1 + � � � + r1;n�1xn�1 + r1nxn = c1
......
rn�1;n�1xn�1 + rn�1;nxn = cn�1
rnnxn = cn
:
II.2 M�etodos Directos 37
De donde se tiene:
xn =cn
rnn
;
xn�1 =cn�1 � rn�1;nxn
rn1;n�1
;
...
x1 =c1 � r12x2 � � � � � r1nxn
r11
:
(II:2:2)
Si se utiliza la notaci�on matricial, se obtiene el siguiente esquema del
algoritmo de Gauss, con las matrices aumentadas:
(A; b)0BBBB@� � � � � � �� � � � � � �
...
� � � � � � �� � � � � � �
1CCCCA!
�A(1); b
(1)�
0BBBB@� � � � � � �0 � � � � � �
...
0 � � � � � �0 � � � � � �
1CCCCA!
�A(2); b
(2)�
0BBBB@� � � � � � �0 � � � � � �0 0 � � � � �...
...
0 0 � � � � �
1CCCCA
� � � �!
�A(n�1)
; b(n�1)
�0BBBB@� � � � � � �0 � � � � � �0 0 � � � � �...
.... . .
. . .
0 0 � � � 0 �
1CCCCA :
Teorema II.2.1.- Sea detA 6= 0. El algoritmo de Gauss da la descom-
posici�on siguiente:
PA = LR; (II:2:3)
donde:
R =
0@ r11 � � � r1n
. . ....
0 rnn
1A; L =
0BB@1 0
l21 1...
. . .
ln1 ln2 � � � 1
1CCA ; (II:2:4)
y P es una matriz de permutaci�on.
Demostraci�on.- Sup�ongase, que las permutaciones necesarias han sido
efectuadas al principio, es decir se aplica el Algoritmo de Gauss a la matriz
38 II Sistemas Lineales
PA. Para no complicar la notaci�on se escribe A, en vez de PA. Utilizando
el mismo esquema dado m�as arriba, se obtiene:
A �! A(1) �! � � � �! A
(n�1) = R;
donde:
A(1) =
0BBBB@1 0 0 � � � 0
�l21 1 0 � � � 0
�l31 0 1 0 � � � 0...
.... . .
. . .
�ln1 0 � � � 0 1
1CCCCA = L1A;
A(2) =
0BBBB@1 0 0 � � � 0
0 1 0 � � � 0
0 �l32 1 0 � � � 0...
.... . .
0 �ln2 0 � � � 1
1CCCCA = L2A;
por lo tanto
R = Ln�1Ln�2 � � �L2L1A:
Lo �unico que falta mostrar, es que
L�1 = Ln�1Ln�2 � � �L2L1;
y para eso, se tiene:
Li = I � Vi; donde Vi =
0BBBBBBBBB@
0 0
0. . .
0
li+1;i 0...
.... . .
lni 0 � � � 0
1CCCCCCCCCA:
Se puede veri�car facilmente que ViVj = 0 para i = 1; : : : ; n; de donde se
obtiene �nalemente:
L�1i = I + Vi;
L = I + V1 + V2 + � � �+ Vn�1: �
Muchas veces, es necesario calcular sistemas de la forma:
Ax1 = b1;
Ax2 = b2:(II:2:5)
II.2 M�etodos Directos 39
Se calcula una vez la descomposici�onLR y se resuelve de la manera siguiente:
Ly = b;
Rx = y:
(II:2:6)
Teorema II.2.2.- La descomposici�on LR da el siguiente resultado,
detA = �r11r22 � � � rnn; (II:2:7)
donde los rii son coe�cientes de la diagonal de R.
Demostraci�on.- Utilizando identidades en los determinantes se tiene
detP detA = detL detR:
�
El costo de la descomposici�on LR.
Para evaluar cuantas operaciones son necesarias para llegar a la descom-
posici�on LR de una matriz A 2Mn(R), se procede de la manera siguiente:
A �! A(1)
C�alculo de los li1: n� 1 divisiones
Para cada �la i, es necesario efectuar
n�1 multiplicaciones mas adiciones, loque hace un total de (n � 1)2 multipli-
caciones y adiciones.
Por lo tanto, contando el n�umero de operaciones en cada �etapa del algoritmo,
se tiene
# operaciones � (n� 1)2 + (n� 2)2 + � � �+ 22 + 12
=
n�1Xi=1
i2
�Z n
0
x2dx
=n3
3: (II:2:8)
La resoluci�on de LRx = b, implica aproximadamente n2
2 multiplicaciones
m�as adiciones en la soluci�on de Ly = b. Igual n�umero de operaciones se
tiene para la resoluci�on de Rx = y, lo que hace un total aproximado de n2
operaciones.
40 II Sistemas Lineales
La elecci�on del pivote
De�nici�on II.2.3.- Sea A una matriz, se llama pivote de la matriz A al
coe�ciente a11.
Para ilustrar la necesidad en elegir un buen pivote, consid�erese el
siguiente ejemplo. La precisi�on de los c�alculos tienen tres cifras signi�cativas
en base 10. Sea el sistema de ecuaciones dado por�10�4x1 + x2 = 1
x1 + x2 = 2: (II:2:9)
La soluci�on exacta de este sistema de ecuaciones est�a dada por:
x1 = 1; 000100010001000 � � � ;x2 = 0; 999899989998999 � � � :
(II:2:10)
Ahora bien, aplicando el algoritmo de Gauss con 10�4 como pivote, se tiene:
l21 =a21
a11
= 0; 100 � 105;
La segunda linea del sistema se convierte en
�0; 100 � 105x2 = �0; 100 � 105;de donde
x2 = 0; 100 � 101;resolviendo x1 se tiene
0; 100 � 10�3x1 = 0; 100 � 101 � 0; 100 � 101;por lo tanto
x1 = 0: (II:2:11)
Ahora, apl��quese el algoritmo de Gauss con 1 como pivote, es decir inter-
cambiando la primera ecuaci�on con la segunda, se tiene:
l21 =a21
a11
= 0; 100 � 10�5;
La segunda linea del sistema se convierte en
�0; 100 � 101x2 = 0; 100 � 101;de donde
x2 = 0; 100 � 101;resolviendo x1, se tiene
0; 100 � 101x1 = 0; 200 � 101 � 0; 100 � 101;por lo tanto
x1 = 0:100 � 101: (II:2:12)
II.2 M�etodos Directos 41
La explicaci�on de este fen�omeno consiste en que la sustracci�on es
una operaci�on mal condicionada, cuando las cantidades a restar son muy
parecidas; en efecto, consid�erese el siguiente sistema�a11x1 + a12x2 = b1
a21x1 + a22x2 = b2; (II:2:13)
al aplicar el algoritmo de Gauss se obtiene:
l21 =a21
a11
a
(1)22 = a22 � l21a12;
b
(1)2 = b2 � l21b1;
a
(1)22 x2 = b
(1)2 :
Si jl21j � 1 se tiene:
a
(1)22 � �l21a12; b
(1)2 � �l21b1;
x2 �b1
a12
;
x1 =1
a11
(b1 � a12x2) �1
a11
(b1 � b1) :
Para solucionar este problema, se realiza una b�usqueda de pivote parcial,
que consiste en:
Se escoge el pivote ai1 tal que
jai1j � jaj1j j = 1; : : : ; n:
Se procede de la misma manera para cada paso del algoritmo
de Gauss.
La Estabilidad del Algoritmo de Gauss
Sea A una matriz cuyo determinante es diferente de 0. Se desea saber cual es
el error cometido por el algoritmo de Gauss para encontrar la descomposici�on
A = LR. No se considera las permutaciones, puesto que no se comete error
de redondeo.
Si se aplica el algoritmo de Gauss, se obtiene las matrices L y R, ll�amese
A = LR; la descomposici�on exacta de A:
Para saber, si el algoritmo es num�ericamente estable, se utiliza la noci�on de
baackward analysis dada en cap��tulo I. Es decir encontrar una constante que
veri�que:jaij � aij jjaij j
� C � eps: (II:2:14)
42 II Sistemas Lineales
Por consiguiente, es necesario estimar la diferencia���A� A
��� elemento por
elemento. Se tiene el siguiente:
Teorema II.2.4.- Wilkinson. Sea detA 6= 0; L, R el resultado num�erico de
la descomposici�on LR con b�usqueda de pivote jlij j � 1. Entonces
���A� LR
��� � 2a eps
0BBBBBB@
0 0 � � � 0
1 1 � � � 1
1 2 � � � 2
1 2 3 � � � 3...
......
1 2 3 � � � n� 1
1CCCCCCA ; (II:2:15)
donde a = maxi;j;k
���a(k)ij
��� yA(0) �! A
(1) �! � � � �! A(n�1)
:
Como resultado de este teorema, el algoritmo de Gauss es num�ericamente
estable, siempre y cuando n no sea demasiado grande. La experiencia
num�erica indica que es aconsejable utilizar la descomposici�on de Gauss para
sistemas no mayores a 1000 ecuaciones.
Demostraci�on.-Al efectuar la descomposici�onLR, considerando los errores
de redondeo, se tiene el siguiente esquema:
A(0) �! A
(1) �! � � � �! A(n�1) = R
Sin considerar los errores de redondeo se tiene L1A = A(1), de donde
L1 =
0BBBB@1
�l21 1
�l31 0 1...
...
�ln1 0 1
1CCCCA ;es la matriz L1 con los errores de
redondeo.
Por otro lado, se tiene
L = L�11 L
�12 � � �L�1n�1;
obteniendo
A� LR =L�11
�L1A� A
(1)�+ L
�11 L
�12
�L2A
(1) � A(2)�
+ � � ��L�11 L
�12 � � �L�1n�1
��Ln�1A
(n�2) � A(n�1)
�:
II.2 M�etodos Directos 43
Ahora bien, los coe�cientes de la matriz obtenida en el primer paso, est�an
dadas por
a
(1)ij =
�aij � li1a1j(1 + �1)
�(1 + �2); i � 1;
que da como consecuencia�L1A� A
(1)�ij=li1a1j � aij
=li1a1j ��aij � li1a1j(1 + �1)
�(1 + �2)
=� aij�2 + li1a1j�2 + li1a1j�1 + li1a1j�1�2
=� a
(1)
ij �2 + li1a1j�1 + li1a1j�1�2;
obteniendo as��:���L1A� A(1)��� � 2a eps donde a = max
i;j;k
���a(k)ij
��� ; i � 2:
Bajo forma matricial, el resultado anterior est�a dado por
���L1A� A(1)��� � 2a eps
0BB@0 � � � 0
1 � � � 1...
...
1 � � � 1
1CCA :
Continuando con el mismo procedimiento en la demostraci�on, se obtiene
���L2A(1) � A
(2)��� � 2a eps
0BBBB@0 0 � � � 0
0 0 � � � 0
0 1 � � � 1...
......
0 1 � � � 1
1CCCCA ;
resultados similares tambien se obtienen para los dem�as pasos del algoritmo
de Gauss con lo que se obtiene le resultado deseado. �
El Algoritmo de Cholesky
Un caso particular de sistema de ecuaciones lineales, es donde la matriz A
es:
De�nici�on II.2.5.- Una matriz A 2Mn(R) es sim�etrica y de�nida positiva,
si cumple las siguientes dos condiciones:
At = A;(II:2:16)
xtAx > 0; 8x 2 Rn ; x 6= 0:(II:2:17)
44 II Sistemas Lineales
Teorema II.2.6.- Sea A sim�etrica y de�nida positiva, entonces:
a) El algoritmo de Gauss es posible sin b�usqueda de pivote.
b) La descomposici�on A = LR satisface
R = DLt; con D = diag(r11; r22; � � � ; rnn): (II:2:17)
Demostraci�on.- Sea A sim�etrica y de�nida positiva, dada por
A =
0@ a11 � � � a1n...
...
an1 � � � ann
1A:
El coe�ciente a11 de la matriz A es diferente de 0, porque la matriz A es
de�nida positiva y a11 = et1Ae1 donde e
t1 = (1; 0; � � � ; 0). Despu�es del primer
paso del algoritmo de Gauss, se obtiene:
A(1) =
0BB@a11 a12 � � � a1n
0...
0
C(1)
1CCA ; li1 =ai1
a11
;
de donde se tiene
c
(1)ij = aij � li1a1j = aij �
ai1a1j
a11
:
Por lo tanto es su�ciente mostrar que C(1) es sim�etrica y de�nida positiva.
En efecto, expresando la matriz A como�a11 z
t
z C
�;
se tiene
C(1) = C � 1
a11
zzt:
Hay que mostrar que
ytC(1)y = y
tCy � 1
a11
�ytz
�2> 0; 8y 6= 0:
Por hip�otesis la matriz A es de�nida positiva, de donde
(x1 yt )
�a11 z
t
z C
��x1
y
�= a11x
21 + x1z
ty + y
tzx1 + y
tCy > 0;
II.2 M�etodos Directos 45
para x1 2 R y y 2 Rn�1 los dos no nulos al mismo tiempo.
Planteando x1 = �ytz
a11, se tiene
(ytz)2
a11
� 2 (zty)2
a11
+ ytCy > 0;
por consiguiente
ytCy � 1
a11
�ytz
�2> 0:
La descomposici�on LR es �unica, si �esta existe, en efecto, si
A = L1R1 = L2R2;
dos descomposiciones de A. Se tiene
L�12 L1 = R2R
�11 ;
las matrices del tipo L, como aqu�ellas de tipo R forman subgrupos dentro
el grupo de las matrices inversibles, deduciendose que
L�12 L1 = I;
por lo tanto L1 = L2 y R1 = R2. Para demostrar la parte b) del teorema, se
de�ne la matriz L1, como
Lt1 = D
�1R;
donde D = diag(r11; � � � ; rnn), hay veri�car que L1 = L. Las siguientes
identidades se cumplen:
A = LR = LDLt1;
At = L1DL
t;
como A es sim�etrica y por la unicidad de la descomposici�on LR, se deduce
L = L1. �.
De�nici�on II.2.7.- Sea D una matriz diagonal a coe�cientes no negativos,
entonces:
D
12 = diag
�pd11; � � � ;
pdnn
�: (II:2:18)
Si se de�ne �L = LD
12 , se tiene
A = �L�Lt;
que es la descomposici�on de Cholesky de la matriz A sim�etrica y de�nida
positiva. Para simpli�car notaci�on, se escribe L, en lugar de �L. Entonces los
46 II Sistemas Lineales
coe�cientes de la matriz L de la descomposici�on de Cholesky de A, est�an
dados por:
para k = 1; : : : ; n:
lkk =qakk � l
2k1 � l
2k2 � � � � � l
2k;k�1;
lik =aik � li1lk1 � � � � � li;k�1lk;k�1
lkk
; i = 1; : : : ; k � 1:
(II:2:19)
El costo en operaciones, despreciando el c�alculo de las raices cuadradas,
para obtener la descomposici�on de Cholesky, est�a dado por
nXk=1
k(n� k) �Z n
0
x(n� x)dx =n3
6: (II:2:20)
La resoluci�on de la ecuaci�on Ax = b, donde A es una matriz sim�etrica y
de�nida positiva, se puede efectuar en dos pasos utilizando la descomposici�on
de Cholesky:Ly = b;
Ltx = y;
los cuales necesitan un total aproximado, lo mismo que en el algoritmo de
Gauss,
n2 operaciones.
La estabilidad de la descomposici�on de Cholesky est�a dada por el
siguiente:
Teorema II.2.8.- Sea A una matriz sim�etrica y de�nida positiva. L el
resultado num�erico de la descomposici�on de Cholesky, entonces
���A� LLt��� � a eps
0BBBB@1 1 1 � � � 1
1 2 2 � � � 2
1 2 3 � � � 3...
......
1 2 3 � � � n
1CCCCA ; (II:2:21)
donde a = maxijjaij j.
Demostraci�on.- Se demuesta de la misma manera que el teorema II.2.4
referente a la estabilidad de la descomposici�on LR.
�
II.2 M�etodos Directos 47
Ejercicios
1.- Escribir una subrutina DEC(N,NDIM,A,B,IP,IER) que calcule la des-
composici�on LR, tomando en cuenta la b�usqueda parcial de pivote.
Luego escribir una subrutina SOL(N,NDIM,A,B,IP) que permita resolver
Ax = b utilizando la descomposicion obtenida por DEC.
a) Resolver 0B@5 2 �1 3
1 20 3 4
0 1 1 30
2 8 �25 4
1CAx =
0B@9
28
32
�11
1CA :
b) Calcular la inversa de la matriz de Hilbert dada por
H =
�1
i+ j
�ni;j=1
para n = 2; 3; 4; 5:
2.- a) Calcular la descomposici�on de CholeskyLLt para la matriz de Hilbert
H =
�1
i+ j
�ni;j=1
; n = 15:
b) Comparar el resultado num�erico con los valores exactos,
ljk =
p2k � 1 � (j � 1)! � (j � 1)!
(j � k)!(j + k � 1)!: (II:2:22)
>Cu�antas cifras son exactas?
c) Si L es el resultado num�erico, calcular el residuo
A� LLt;
calcular tambi�en el residuo A�LLt para la matriz L dada por (II.2.22).
3.- Calcular cond1(An) para las matrices:
a) de Hilbert
b) de Vandermonde (aij) =�c
j�1i
�; i; j = 1 � � �n con ci =
in,
para n = 1; 2; 3; : : : ; 15. Calcular tambi�en 1nlog10(cond1(An)) y encon-
trar una f�ormula que aproxime cond1(An).
4.- Sea A una matriz-banda, sim�etrica y de�nida positiva, p el grosor de
la banda. Mostrar que, L de la descomposici�on de Cholesky es tambi�en
una matriz-banda. Si n es el orden de la matriz, sabiendo que n � p,
>Cuantas multiplicaciones son necesarias para calcular L?
II.3 M�etodos Iterativos
En la secci�on II.2, se analiz�o dos m�etodos para resolver directamente sistemas
de ecuaciones lineales. Un m�etodo directo de resoluci�on de un sistema de
ecuaciones deber��a dar el resultado num�erico igual a la soluci�on exacta, si
no se considerase los errores de redondeo, es decir, si se contase con un
dispositivo de c�alculo con una precisi�on in�nita, desgraciadamente �este no
es el caso. Si bien, un m�etodo directo da una soluci�on que se aproxima a
la exacta, la principal desventaja de utilizarlos, reside en el hecho en que
cuando se debe resolver grandes sistemas lineales, la propagaci�on del error
de redondeo es muy grande, desvirtuando su valor; adem�as, en muchos casos
no se toma en cuenta muchas de las particularidades que pudiese tener la
matriz del sistema lineal, o �nalmente no es necesario obtener una soluci�on
exacta, si no una aproximaci�on de �esta. Los m�etodos que ser�an estudiados
en esta secci�on, son iterativos en el sentido en que se utilizan las soluciones
anteriores para obtener la siguiente. Entre los m�etodos que ser�an analizados
se tiene: Jacobi, Gauss-Seidel, SOR.
M�etodos de Jacobi y Gauss-Seidel
Estos m�etodos son utilizados para resolver el sistema de ecuaciones, dado
por
u = Au+ b: (II:3:1)
El m�etodo de Jacobi consiste en la utilizaci�on de la soluci�on anterior para
calcular la nueva soluci�on, es decir
u(k+1) = Au
(k) + b: (II:3:2)
Obviamente las soluciones obtenidas por el m�etodo de Jacobi no son exactas,
pero son aproximaciones de �estas.
Para la formulaci�on del m�etodo de Gauss-Seidel, consid�erese la matriz
A como
A = L+ U; (II:3:3)
donde:
L =
0BB@0 � � � 0
a21 0 � � � 0...
. . ....
an1 � � � an;n�1 0
1CCA ; U =
0BB@a11 a12 � � � a1n
0 a22 � � � a2n
.... . .
...
0 � � � 0 ann
1CCA :
II.3 M�etodos Iterativos 49
El m�etodo de Gauss-Seidel est�a dado por:
u(k+1) = Lu
(k+1) + Uu(k) + b; (II:3:4)
cuya formulaci�on equivalente es
u(k+1) = (I � L)
�1Uu
(k) + (I � L)�1
b: (II:3:5)
Una vez formulados estos m�etodos, es importante, saber que condiciones
tiene que cumplir la matriz A, para que estos sean convergentes. Si se denota
por u� la soluci�on exacta de (II.3.1), se de�ne
e(k) = u
(k) � u�; (IV:3:6)
el error cometido en la k-esima iteraci�on. Por consiguiente, e(k) son los
resultados obtenidos en las iteraciones de uno de los m�etodos de�nidos m�as
arriba del problema
e = Ae; (IV:3:7)
de donde el m�etodo ser�a convergente, siempre y cuando
limn!1
e(n) = 0: (IV:3:8)
Existe una clase de matrices, para las cuales estos m�etodos son conver-
gentes. Una de sus caracter��sticas est�a dada por la:
De�nici�on II.3.1.- Una matriz A es irreducible si para cada (i; j), existe
una sucesi�on l0 = i; l1; � � � ; lm = j tal que
alk;lk+16= 0:
Gr�a�camente se puede visualizar mediante la noci�on de grafo dirigido,
en Grimaldi se puede encontrar una explicaci�on bastante detallada sobre
las aplicaciones de la teor��a de grafos. Consid�erese el grafo G compuesto del
conjunto de v�ertices V y el conjunto de aristas A, de�nido por:i) V = f1; 2; : : : ; ng,ii) (i; j) 2 A () aij 6= 0.
Para comprender esta de�nici�on, consid�erese los dos siguientes ejemplos,
sean:
A =
0BB@0 1
21
2 0
1 0 0 0
0 0 0 1
20 0 1
2 0
1CCA1 2
3 4
GA
50 II Sistemas Lineales
B =
0B@0 1 0 0
1 0 1 0
0 1 0 1
0 0 1 0
1CA1 2
3 4
GB
Se puede observar facilmente, que la matriz A no es irreducible, mientras
que la matriz B si es irreducible.
Con la de�nici�on anterior se puede formular el siguiente teorema que da
una condici�on su�ciente, para que los m�etodos de Jacobi, como de Gauss-
Seidel, sean convergentes.
Teorema II.3.2.- Sea A una matriz no-negativa (aij � 0), con las siguientes
propiedades:
i)
nXj=1
aij � 1; i = 1; : : : ; n;
ii) Existe io, tal que
nXj=1
aioj < 1;
iii) A es irreducible;
entonces los m�etodos de Jacobi y Gauus-Seidel convergen hacia una soluci�on
�unica, adem�as existe � < 1, tal que e(k) 1
� C�k�1
e(0) 1
: (II:3:9)
Demostraci�on.- Se mostrar�a para el m�etodo de Jacobi. Se tiene
e(k+1) = Ae
(k);
sea � = max���e(0)i
���, de donde���e(1)i
��� �Xj
aij
���e(0)j
���| {z }��
� �;
con desigualdad estricta para i = io.
II.3 M�etodos Iterativos 51
Puesto que la matriz A es irreducible, entonces los coe�cientes de An
son todos no nulos, en efecto
(An)ij =Xk1
� � �Xkn�1| {z }
n�1 veces
aik1ak1k2 � � � akn�1j
tiene un t�ermino no nulo. Adem�as para l �jo, se tieneXk
(A2)lk =Xk
Xj
aljajk
=Xj
alj
Xk
ajk
!�Xj
alj � 1:
Por inducci�on matem�atica, se deduce la desigualdad anterior para todas las
potencias de A, e inclusoXk
(An+1)lk =Xk
Xj
alj(An)jk
=Xj
alj
Xk
(An)jk
!<
Xj
alj � 1:
Por otro lado, utilizando la desigualdad (II.1.2), se tiene: Ae(0) 1
� kAk1
e(0) 1
� �; e(k) 1
= Ae(k�1)
1
� �:
Estas desigualdades se vuelven estrictas para No bastante grande, por
ejemplo No = n+ 1, por lo tanto e(No) 1
� �
e(0) 1
;
planteando
� =
0@ e(No) 1 e(0) 1
1A1
No
;
52 II Sistemas Lineales
se tiene que � < 1, de donde la convergencia. El mismo procedimiento se
sigue para mostrar el m�etodo de Gauss-Seidel. �
El Teorema de Perron-Frobenius
Indudablemente por las consecuencias que implica el teorema de Perron-
Frobenius, es que vale la pena estudiarlo como un tema aparte. Es un
teorema cuya demostraci�on ha llevado mucho esfuerzo de parte de muchos
matem�aticos. Se enunciar�a este teorema sin dar una demostraci�on rigurosa,
sino los pasos de �esta.
Teorema II.3.3.- Sea A una matriz no negativa irreducible, entonces:
i) Existe un vector propio u, con ui > 0 respecto a un valor propio
r > 0.
ii) Todos los otros valores propios � de A son j�j < r. Sola
excepci�on posible � = re
i2�
n valor propio simple.
iii) r depende de manera estrictamente mon�otona de todos los
elementos de A.
Demostraci�on.- Se comenzar�a por el punto i). Sea u 2 Rn , tal que ui > 0;
entonces
v = Au;
de�niendo
ri =v1
ui
;
si los ri son todos iguales, el punto i) est�a demostrado; sino es posible variar
el vector u de manera que
[rmin; rmax]| {z }nuevo
�6=[rmin; rmax]| {z }antiguo
;
obteniendo una sucesi�on de intervalos estrictamente encajonados, siendo el
l��mite r.
No hay otro vector propio con ui > 0. Sea el cono
K = f(u1; : : : ; un)jui � 0g :
Como la matriz A es no negativa, se tiene
A(K) � K:
No es posible tener:
Au = �u; u 2 K;Av = �v; v 2 K;
�con � 6= �:
II.3 M�etodos Iterativos 53
En efecto, sup�ongase que � < � y sea w = �u + tv, tal que t sea lo m�as
peque~no posible, de manera que w 2 K, entonces
Aw = ��u+ t�v 62 K;
por consiguiente, no puede haber m�as de un valor propio cuyo vector propio
est�e en el interior del cono.
Adem�as, r es un valor propio simple, ya que si no lo fuera, una peque~na
perturbaci�on en la matriz A llevar��a al caso de los valores propios simples,
caso que ha sido ya estudiado m�as arriba.
Por otro lado, no hay vectores propios en el borde del cono K. Efectiva-mente, sea u 2 @K, vector propio. Por hip�otesis, algunos de las componentesde u son nulos, pero al menos una de las componentes es diferente de 0. De
donde
u+Au+ � � �+Anu = (1 + �+ � � �+ �
n)u:
Como A es irreducible, existe No � n con
aNo
ij > 0; 8i; j;
por lo tanto
(Anu)j > 0; 8j;
conduciendo a una contradicci�on.
ii) Sean � otro valor propio de A, v su vector propio respectivo, sup�ongase
que � 2 R, se de�ne
w = u+ tv;
donde u 2 K vector propio, t sea lo m�as grande posible de manera que w 2 K,ver la �gura IV.3.1.
u
v
w Κ
Figura IV.3.1. Demostraci�on, Teorema Perron-Frobenius.
54 II Sistemas Lineales
Si j�j > r, Aw sale de K, lo que es imposible.Para � complejo se tiene
Av = (� + i�)v;
donde � = � + i�, v = v1 + iv2 siendo los vj a coe�cientes reales. Por lo
tanto:Av1 = �v1 � �v2;
Av2 = �v1 + �v2;
el mismo an�alisis que para el caso real, da el mismo resultado.
iii) La monoton��a de r se muestra, despu�es de hacer un an�alisis sobre el
polinomio caracter��stico. �
Las consecuencias del teorema de Perron-Frobenius son muchas, entre las
cuales, la de mayor utilidad para el tema expuesto, reside sobre el teorema
II.3.2. En efecto, como la matriz A es no negativa e irreducible existe una
valor propio r > 0 m�as grande en modulo que los otros. Si la suma de las
lineas de la matriz A fuese igual a 1 se tendr��a que r = 1, pero existe una
�la cuya suma es inferior a 1, de donde por el punto iii) del teorema de
Perron-Frobenius, se tiene r < 1. Por consiguiente, todos los valores propios
en valor absoluto son inferiores a 1, dando la consiguiente convergencia de
los m�etodos de Jacobi y Gauss-Seidel.
Continuando el estudio de los m�etodos de Jacobi y Gauss-Seidel se tiene
otro resultado importante como el:
Teorema II.3.4.- Sea � el valor propio de A mas grande en m�odulo y � el
valor propio m�as grande en m�odulo de
(I � L)�1
U: (II:3:10)
Si � < 1, entonces � < �, para toda matriz A irreducible no negativa.
Demostraci�on.- Se tiene
(I � L)�1
= I + L+ L2 + � � �+ L
m;
de donde (I � L)�1
U es una matriz no negativa.
Sup�ongase que x es vector propio respecto a �, por consiguiente
(I � L)�1
Ux = �x;
Ux = �x� L�x;
(�L+ U) = �x;
por el teorema de Perron-Frobenius, � � 0; si � = 0 no hay nada que
demostrar, si no �L+
U
�
�x = x:
II.3 M�etodos Iterativos 55
Utilizando nuevamente el teorema de Perron-Frobenius, es necesario que
� < 1, por que de lo contrario algunos coe�cientes de L + U
�ser�an mas
peque~nos que de L+ U y por lo tanto 1 < �
Nuevamente por el teorema de Perron-Frobenius, se tiene que el valor
propio maximal de �L+ U es estrictamente menor al valor propio maximal
de L+ U . �
Como consecuencia de este teorema se tiene que el m�etodo de Gauss-
Seidel converge m�as r�apidamente a la soluci�on que el m�etodo de Jacobi, si la
matrizA es no negativa, irreducible y con valor propio maximal m�as peque~no
que 1.
Una propiedad muy importante de algunas matrices, est�a dada por la:
De�nici�on II.3.5.- Una matriz A = L + U , como en (II.3.3), posee la
property A de Young, si los valores propios de la matriz de�nida por
�L+1
�
U =
�1�U
�L
�(II:3:11)
son independientes de �.
Ejemplos
1.- La matriz A de�nida por
A =
�0 B
C 0
�;
donde B y C son matrices cuadradas del mismo orden. A posee la
property A. En efecto, si
�x
y
�es un vector propio de A se tiene:
�B
C
��x
y
�= �
�x
y
�;�
1�B
�C
��x
�y
�= �
�x
�y
�:
2.- La matriz tridiagonal con coe�cientes diagonales nulos, dada por0BB@0 a
b 0 c
d 0 e
. . .. . .
1CCA
56 II Sistemas Lineales
posee la property A. Pues, se tiene:0BB@0 a
b 0 c
d 0 e
. . .. . .
1CCA0BB@x
y
z
...
1CCA = �
0BB@x
y
z
...
1CCA ;
0BBB@0 1
�a
�b 0 1�c
�d 0 1�e
. . .. . .
1CCCA0BB@
x
�y
�2z
...
1CCA = �
0BB@x
�y
�2z
...
1CCA :
Teorema II.3.6.- Sea A una matriz no negativa, irreducible, con valor
propio maximal � < 1 y con la property A, entonces
� = �2; (II:3:12)
donde � es le valor propio m�as grande de la matriz inducida por el m�etodo
de Gauss-Seidel.
Demostraci�on.- Sea x el vector propio respecto a �, de donde
(�L+ U)x = �x;
dividiendo esta expresi�on porp� y aplicando la property A, se tiene�
p�L+
1p�
U
�x =p�x;
de dondep� es el valor propio maximal de A. �
Si la matriz A es irreducible, no negativa, con valor propio maximal
menor a 1 y adem�as con la property A, se tiene:
| M�etodo de Gauss-Seidel converge 2 veces m�as rapido que el de Jacobi.
| M�etodo de Gauss-Seidel ocupa la mitad de sitio de memoria.
| M�etodo de Gauss-Seidel ocupa la mitad de plaza de c�alculo.
| Pero Jacobi puede ser paralelizado, en cambio Gauss-Seidel no.
M�etodo de Sobrerelajaci�on SOR
Las siglas SOR signi�can en ingl�es Successive over relaxations. Es una
modi�caci�on del m�etodo de Gauss-Seidel. Consiste en utilizar un factor de
sobrerelajaci�on !. Primero se efectua una iteraci�on de Gauss-Seidel para
luego corregir con !, en s��ntesis el m�etodo SOR est�a dado por:
u(k+ 1
2) = Lu
(k+1) + Uu(k) + b;
u(k+1) = u
(k) + !
�u(k+ 1
2) � u
(k)�;
! > 1:
(II:3:13)
II.3 M�etodos Iterativos 57
Haciendo el c�alculo de u, componente por componente, se tiene:
uauxi =Xj<i
aiju(k+1)j +
Xj�i
aiju(k)j + bi;
u
(k+1)
i = u
(k)i + !
�uauxi � u
(k)i
�:
(II:3:14)
Para ver la velocidad de convergencia de este m�etodo, es necesario hacer un
estudio sobre la convergencia. Una iteraci�on de SOR puede ser escrita como
u(k+1) = u
(k) + !Lu(k+1) + (!U � !I)u(k) + !b;
es deciru(k+1) = !Lu
(k+1) + (!U + (1� !)I)u(k) + !b;
por lo tantou(k+1) = (I � !L)
�1h(!U + (1� !)I)u(k) + !b
i: (II:3:15)
Sea � un valor propio de u(k+1) = (I � !L)�1
(!U + (1� !)I) y x el
vector propio asociado, entonces:
(I � !L)�1
(!U + (1� !)I)x = �x;
(!U + (1� !)I)x = � (I � !L)x;
!Ux+ (1� !)x = �x� �!Lx;
!Ux = (�� 1 + !)x� �!Lx;
(�L+ U)x =�� 1 + !
!
x;
dividiendo porp� se obtiene�
p�L+
1p�
U
�x =
�� 1 + !
!
p�
x;
de donde, se ha mostrado el siguiente:
Teorema II.3.7.- Sea A una matriz irreducible, no negativa y con la
property A. Si � es un valor propio de la matriz obtenida por SOR, entonces
� =�� 1 + !
!
p�
(II:3:16)
es valor propio de la matriz A.
El problema ahora, es determinar !, de manera que los valores propios
� sean lo m�as peque~nos posibles. Se tiene:
�� 1 + ! = �!
p�;
(�+ (! � 1))2= �
2!2�;
(II:3:17)
58 II Sistemas Lineales
dando la ecuaci�on de segundo grado
�2 +
�2(! � 1)� �
2!2��+ (! � 1)2 = 0: (II:3:18)
Si �1; �2, las dos raices de esta ecuaci�on, son complejas; entonces ambas son
conjugadas, de donde
j�j = j! � 1j :Por lo tanto, condici�on necesaria para la convergencia es
�1 < ! < 2: (II:3:19)
Si �1; �2 son raices reales de (II.3.18), se tiene que uno de los raices es m�as
grande que la otra, a menos que �1 = �2. Esto sucede cuando la par�abola
�!
p� corta tangencialmente con la recta � � 1 + !. Ver �gura II.3.2, por
consiguiente, el discriminante de la ecuaci�on (II.3.18) es nulo, es decir:�2(! � 1)� �
2!2�2
= 4(! � 1)2;
�2!2 = 4(! � 1);
�2!2 � 4! + 4 = 0:
De donde, se ha demostrado el:
Teorema II.3.8.- El ! optimal est�a dado por
w =2
1 +p1� �
2; (II:3:20)
y el radio espectral de la matriz SOR correspondiente es
�max = w � 1 =1�p1� �
2
1 +p1� �
2: (II:3:21)
λ
λ
λ
µµµ
1
2
3
12
µ raices conjugadas.
Figura IV.3.2 Determinaci�on de w optimal.
II.3 M�etodos Iterativos 59
Estudio de un problema modelo
Una de las aplicaciones m�as importantes de la utilizaci�on de m�etodos iter-
ativos para resolver sistemas lineales, consiste en la resoluci�on num�erica de
ecuaciones con derivadas parciales de tipo el��ptico. Consid�erese el siguiente
problema tipo:
�4u = f; sobre = [0; 1]� [0; 1];
f j@ = 0:(II:3:22)
Utilizando el m�etodo de diferencias �nitas, se discretiza la ecuaci�on de
derivadas parciales con un esquema de diferencias centradas. El cuadrado
es dividido en una malla uniforme de tama~no
h =1
n+ 1; (II:3:23)
se plantea:
xi = ih; i = 0; : : : ; n+ 1;
yj = jh; j = 0; : : : ; n+ 1;(II:3:24)
denotando
uij = u(xi; yj); fij = f(xi; yj): (II:3:25)
Discretizando la ecuaci�on para esta malla, se obtiene las siguientes ecua-
ciones:
�ui;j+1 + ui;j�1 + ui+1;j + ui�1;j � 4ui;j
h2
= fij ;
(i = 1; : : : ; n;
j = 1; : : : ; n;
u0j = 0; j = 0; : : : ; n+ 1;
un+1;j = 0; j = 0; : : : ; n+ 1;
ui0 = 0; i = 0; : : : ; n+ 1;
ui;n+1 = 0; i = 0; : : : ; n+ 1:
Cambiando la forma de las ecuaciones, se tiene
uij =1
4
�ui;j+1 + ui;j�1 + ui+1;j + ui�1;j + h
2fij
�;
(i = 1; : : : ; n;
j = 1; : : : ; n;
que en notaci�on matricial, tiene la forma
u = Au+1
4h2f; (II:3:26)
60 II Sistemas Lineales
donde:
u = (u11; : : : ; u1n; u21; : : : ; u2n; : : : ; un1; : : : ; unn)t;
f = (f11; : : : ; f1n; f21; : : : ; f2n; : : : ; fn1; : : : ; fnn)t;
A =1
4
0BBBB@B I
I B I
. . .. . .
. . .
I B I
I B
1CCCCA ;
B =
0B@ 0 1
1. . .
. . .. . . 0
1CA ; I =
0@ 1. . .
1
1A:
De�nici�on II.3.9.- El producto tensorial de dos matrices P de orden n�my Q de orden l � k se de�ne como la matriz
P Q =
0B@ p11Q � � � p1mQ
......
pn1Q � � � pnmQ
1CA ; (II:3:27)
de orden nl�mk.
Por lo tanto, la matriz A del problema se escribe como
A =1
4(B I + I B) :
Para hacer estimaciones del costo de operaciones, al encontrar la soluci�on
con un error �jado de antemano, es necesario determinar la condici�on de
la matriz A, como as�� mismo el radio espectral de A para determinar la
velocidad de convergencia de los m�etodos de Jacobi, Gauss-Seidel y SOR.
Para tal efecto, se tiene la:
Proposici�on II.3.10.- El producto tensorial de matrices veri�ca la siguiente
propiedad
(B C) (D E) = BD CE: (II:3:28)
Demostraci�on.- Se deja como ejercicio �
Sean, yk y �k el vector y el escalar respectivamente, de�nidos por:
yk =
�sin(
ki�
n+ 1)
�ni=1
;
�k = 2 cos(k�
n+ 1);
(II:3:29)
II.3 M�etodos Iterativos 61
puede veri�carse como ejercicio que yk es un vector propio de B asociado al
valor propio �k. Se tiene, utilizando (II.3.28)
A(yk yl) =1
4((B I)(yk yl) + (I B)(yk yl))
=1
4(�k + �l)(yk yl);
de donde se ha demostrado el:
Teorema II.3.11.- Los valores propios de A est�an dados por:
1
4(�k + �l) =
1
2
�cos(
k�
n+ 1) + cos(
l�
n+ 1)
�: (II:3:30)
La matriz B es tridiagonal con los coe�cientes de la diagonal nulos,
por consiguiente tiene la property A, veri�car el segundo ejemplo sobre esta
propiedad. Como la matriz A es igual a la suma de dos productos tensoriales
entre B y I , �esta tambi�en veri�ca la property A. Conociendo los valores
propios de A, se est�a en la posibilidad de aplicar los teoremas relativos a la
convergencia de los m�etodos de Jacobi, Gauss-Seidel y SOR.
Utilizando el anterior teorema, se tiene que el valor propio maximal de
A es igual a
�max = cos(�
n+ 1): (II:3:31)
Recordando el m�etodo de Jacobi se tiene:
u(k+1) = Au
(k) + f;
U� = AU
� + f;
e(k) = u
� � u(k);
e(k+1) = Ae
(k);
donde u� es la soluci�on exacta del problema lineal, e(k) el error en k-esima
iteraci�on.
Existe una base de vectores propios de la matriz A, para la cual el primer
vector est�a asociado a �max, de donde se tiene
e
(k+1)i = �ie
(k)i ; i = 1; : : : ; n2;
donde e(k)i es la i-esima componente respecto a la base. Por consiguiente
e
(N)1 = �
Ni e
(0)i ;
62 II Sistemas Lineales
obteniendose as�� el n�umero de iteraciones necesarias para conseguir una
precisi�on relativa de 10�m. Por las siguientes relaciones:
�n1 � 10�m;
N ln�max � �m ln 10;
N ln�1� �
2
2(n+ 1)2�� �m ln 10;
�N �2
2(n+ 1)2� �m � 2:3;
por lo tanto
N =2m � 2:3
�2
(n+ 1)2 � 1
2mn
2: (II:3:32)
Ahora bien, una iteraci�on equivale m�as o menos 4n2 operaciones, de donde
el trabajo necesario es 2mn4 operaciones.
Considerando, que el m�etodo de Gauss-Seidel se realiza en la mitad de
operaciones respecto al de Jacobi, y por el teorema II.3.6, el n�umero de
iteraciones para llegar a una precisi�on relativa de 10�m es la mitad de Jacobi.
Las siguiente tabla indica el n�umero de operaciones, tiempo para diferentes
precisiones requeridas.
Tabla II.3.1. Valores para el m�etodo de Jacobi.
n Precisi�on # operaciones Tiempo de C�alculo
10 10�2 105 0:1sec
100 10�4 109 103sec � 20min
1000 10�6 1013 107sec � 7; 7a~nos
Para el m�etodo de Gauss-Seidel los valores, se obtienen de la tabla II.3.1,
dividiendo por 4 los valores para n�umero de operaciones y tiempo de c�alculo.
En este tipo de problema es donde se ve la verdadera potencia del m�etodo
SOR, respecto a los m�etodos de Jacobi y Gauss-Seidel. Para estimar el
tiempo de c�alculo, como el n�umero de operaciones es necesario estimar !
optimal, como tambi�en �max del teorema II.3.8. Utilizando desarrollos de
Taylor para la raiz cuadrada, como para el cociente, se obtiene:
umax � 1� 2�
n+ 1;
!op � 2
�1� �
n+ 1
�:
(II:3:33)
II.3 M�etodos Iterativos 63
Por lo tanto, el n�umero de iteraciones para obtener una precisi�on relativa de
10�m es approximadamente igual a
N � 0:4mn: (II:3:34)
Para una precisi�on de 10�6 se tiene la siguiente tabla:
Tabla II.3.2. Valores para el m�etodo SOR.
n # Operaciones Tiempo de C�alculo !op
10 104 10�2sec 1; 42
100 107 10sec 1; 93
1000 1010 104sec � 3horas 1; 9937
Para el problema con
f =
(1; sobre [1=4; 3=4]� [1=4; 3=4] ;
�1; sino;(II:3:34)
se obtiene utilizando SOR, los valores de u gra�cados en �gura II.3.3.
Figura II.3.3. Gr�a�ca de la soluci�on del problema (II.3.34).
64 II Sistemas Lineales
Ejercicios
1.- Para resolver iterativamente el problema Ax = b, se considera la
iteraci�on
Mx(k+1) = Nx
k + b; con A =M �N:
Determinar M y N para los m�etodos de Jacobi y Gauss-Seidel.
Programar los dos m�etodos y aplicarlos al problema
0B@4 �1 0 �1�1 4 �1 0
0 �1 4 �1�1 0 �1 4
1CAx =
0B@3
�37
1
1CA ;
la soluci�on exacta es x� = ( 1 0 2 1 ). Estudiar la velocidad de
convergencia x(k+1) � x
�
x(k) � x�
para los dos m�etodos.
2.- (Estudio de la demostraci�on del Teorema de Perron-Frobenius). Sea
A =
0B@0 1=2
1=2 0 1=2
1=2 0 1=2
1 0
1CA :
Para un vector positivo u dado, se calcula v = Au y se de�ne ri = vi=ui.
Para el vector u = (1; 1; 1; 1)t se obtiene de esta manera r1 = 1=2,
r2 = r3 = r4 = 1.
Modi�car este vector con peque~nas perturbaciones, para llegar a
1
2< ri < 1 para todo i:
3.- (Un teorema de la teor��a de grafos). Se da un grafo conexo de n nudos
y se de�ne una matriz A por
aij =1 si i 6= j y el nudo i est�a ligado al nudo j;
0 si i = j o el nudo i no est�a ligado al nudo j;
II.3 M�etodos Iterativos 65
Ejemplo:
6 3
45
2
1
() A =
0BBBBB@1
1 1
1 1 1
1 1
1
1
1CCCCCADemostrar: Sea r el valor propio maximal de A, entonces se tiene siempre
r >
p3;
excepto en los casos:
r=1; para un grafo;
r=p2; para un grafo;
r=(1 +p5=2); para un grafo;
r=p3; para dos grafos.
4.- Demostrar que la matriz bloque
A =
0@ 0 B
C 0 D
E 0
1Averi�ca la property A.
5.- (Producto de Kronecker). Sea B = (bij) una matriz de n�n y C = (cij)
una matriz m�m. Se de�ne A = B C, una matriz nm� nm, por
A = B C =
0@ b11C � � � b1nC
......
bn1C � � � bnnC
1A:
a) Mostrar: si x es un vector propio de dimensi�on n e y es un vector de
dimensi�on m, entonces
(Bx) (Cy) = (B C)(x y)
donde x y est�a de�nido similarmente.
b) Deducir que: si
x es vector propio de B; con valor propio �;
y es vector propio de C; con valor propio �;
entonces
x y es vector propio de B C; con valor propio � � �:
II.4 M�etodos Minimizantes
Otra clase de m�etodos com�unmente utilizados en la resoluci�on de grandes
sistemas lineales, son los m�etodos de tipo gradiente que consisten en la
resoluci�on un problema de minimizaci�on equivalente. Esta clase de m�etodos
se aplica a la resoluci�on de
Ax = b; (II:4:1)
donde A es una matriz sim�etrica de�nida positiva.
La equivalencia con el problema de minimizaci�on, est�a dada por la
siguiente:
Proposici�on II.4.1.- SiA es sim�etrica y de�nida positiva, los dos problemas
siguientes son equivalentes:
f(x) =1
2xtAx� x
tb+ c! min; (II:4:2)
Ax = b: (II:4:2)
Demostraci�on.- El primer problema puede ser escrito como
1
2
Xi;j
xiaijxj �Xj
xjbj + c! min : (II:4:4)
El procedimiento para encontrar el m��nimo, consiste en derivar f , de donde
@f
@xk
=1
2
Xj
akjxj +1
2
Xi
xiaik � bk = 0:
Puesto que A es sim�etrica, se tieneXj
akjxj � bk = 0:
Si x es soluci�on de (II.4.2), se tiene que x es soluci�on del problema (II.4.3).
Ahora bien, si x es soluci�on de (II.4.3), es un punto cr��tico de la funci�on
f , pero como A es de�nida positiva, se tiene que f posee x como un m��nimo.
�
II.4 M�etodos Minimizantes 67
M�etodo del Gradiente
El gradiente de f , utilizando la demostraci�on de la anterior proposici�on,
est�a dado por
rf(x) = Ax� b: (II:4:5)
Sea xo un punto de partida, se tiene:
f(x) = f(xo) + hrf(xo); x� xoi+1
2(x � xo)
tA(x� xo);
= f(xo) + kx� x0k krf(xo)k cos � +1
2(x� xo)
tA(x � xo);
donde � es el �angulo entre rf(xo) y x � x0. Como se busca que f(x) sea
m��nimo,rf(xo) y x�xo deben tener la misma direcci�on y el mismo sentido.Sup�ongase que se ha encontrado este x, que se lo denota por x1, se
puede plantear para k � 0, obteniendo as��, el m�etodo del gradiente
xk+1 = x
k � �kgk; (II:4:6)
donde gk = rf(xk). El problema, por consiguiente, es determinar �k
teniendo en cuenta las observaciones anteriores, se de�ne la funci�on G(�)
por
G(�) =1
2(xk � �g
k)tA(xk � �gk)� (xk � �g
k)tb; (II:4:7)
de donde, el m��nimo de G est�a en �k, dado por
�k =gktgk
gktAg
k: (II:4:8)
Una ilustraci�on de las iteraciones del m�etodo del gradiente est�a dada en la
�gura II.4.1.
x
x
x
x
o
1
2
3ó
Figura II.4.1 Ilustraci�on m�etodo del gradiente.
68 II Sistemas Lineales
Planteando hk = Ag
k, se tiene la versi�on algor��tmica del m�etodo del
gradiente:
1 x := xo;
2 g := Ax� b;
3 Si jgj � TOL, entonces FIN;
4 h := Ag;
5 � :=hg; gihg; hi ;
6 x := x� �g;
7 retornar al paso 2.
La velocidad de convergencia del m�etodo del gradiente, est�a dada por
el teorema siguiente, que ser�a enunciado sin demostraci�on.
Teorema II.4.2.- Sean, A sim�etrica y de�nida positiva, �max el valor propio
m�as grande, �min el valor propio m�as peque~no de A, por lo tanto
� =�max
�min
= cond2A;
entonces xk � x
� � ��� 1
�+ 1
�k x0 � x
� ; (II:4:9)
donde x� es la soluci�on exacta.
Adem�as, se tiene el:
Teorema II.4.3.- Existe, x0 tal que
xk � x
� = ��� 1
�+ 1
�k x0 � x
� : (II:4:10)
Demostraci�on.- En un referencial con un origen adecuado y una base de
vectores propios de A, el problema (II.4.2) puede formularse como
1
2xt �Ax� c! min;
es decir�Ax = 0; (II:4:11)
donde �A = diag(�min; : : : ; �max). Dividiendo (II.4.11) por �max, se obtiene
el sistema equivalente
Ax =
0@ 1. . .
�
1Ax = 0: (II:4:12)
II.4 M�etodos Minimizantes 69
Por lo tanto, se puede suponer que A tiene la forma de A. Planteando
x0i = 0; para i = 2; : : : ; n� 1;
el problema se reduce a resolver�1 0
0 �
��x
y
�=
�0
0
�: (II:4:13)
El siguiente paso, es encontrar (x0; y0)t, que al aplicar el m�etodo del
gradiente, se tenga �x1
y1
�=
�qx
0
�qy0�:
Ahora bien, una iteraci�on del m�etodo del gradiente da:
g0 =
�x0
�y0
�;�
x1
y1
�=
�x0
y0
�� �
�x0
�y0
�=
�(1� �)x0
(1� ��)y0)
�;
de donde:q = 1� �;
�q = 1� �� ;
despejando q, se obtiene
q =�� 1
�+ 1:
Puesto que la oscilaci�on encontrada no depende del punto inicial, las itera-
ciones siguientes presentar�an el mismo fen�omeno. Con lo que se ha mostrado
el teorema. �
M�etodo del Gradiente Conjugado
La �ultima demostraci�on muestra que en determinadas ocasiones el m�etodo
del gradiente conduce a una oscilaci�on en torno a la soluci�on, haciendo
que la convergencia no sea tan r�apida como se espera, pudiendo mejorar
esta situaci�on, tomando aparte de la direcci�on del gradiente otra direcci�on
alternativa. El m�etodo del gradiente conjugado consiste en tomar tambi�en
la direcci�on conjugada al gradiente. Para poder enunciar tal m�etodo es
necesario dar los elementos te�oricos para su comprensi�on.
Proposici�on II.4.4.- Sea f(x) = 1
2xtAx � x
tb, donde A es una matriz
sim�etrica y de�nida positiva. Sea d una direcci�on, entonces los m��nimos de
f(x) sobre las rectas paralelas a d se encuentran en el hiperplano
dt(Ax � b) = 0: (II:4:14)
70 II Sistemas Lineales
Demostraci�on.- Si x pertenece a una recta de direcci�on d, es de la forma
x = a+ �d; donde � 2 R:
Se de�ne la funci�on g, como g(t) = f(a+ td), por lo tanto esta funci�on tiene
un m��nimo en t0, si
g0(to) = d
tf0(a+ t
od) = 0;
es decir, si se cumple
dt (A(a+ t
od)� b) = 0:
�
De�nici�on II.4.5.- Dos direcciones d1 y d2 son conjugadas respecto a A si
d1tAd
2 = 0: (II:4:15)
Con lo enunciado anteriormente, se puede formular el m�etodo del gradiente
conjugado.
Sea x0 un punto de partida, el gradiente inicial est�a dado por
g0 = Ax
0 � b;
se de�ne
d0 = �g0:
Sup�ongase, que se ha efectuado k iteraciones, es decir, se conoce dk, gk y xk;
entonces se de�ne:
�k =�dk; g
k�
dk; Ad
k� ;
xk+1 = x
k + �kdk;
gk+1 = Ax
k+1 � b = gk + �kAd
k;
dk+1 = �gk+1 + �kd
k:
(II:4:16)
Para determinar �k, se impone la condici�on que dk+1 y dk sean conjugados,
por consiguiente
gk+1t
Adk = �kd
ktAd
k;
de donde
� =
gk+1
; Adk�
dk; Ad
k� : (II:4:17)
II.4 M�etodos Minimizantes 71
La versi�on algor��tmica est�a dada por:
1 x := punto de partida;
2 g := Ax� b;
3 d := �g;4 h := Ad;
5 � :=hd; gihd; hi ;
6 x := x+ �d;
7 g := g + �h;
8 si jgj � 10�6, entonces �n algoritmo;
9 �; =hg; hihd; hi ;
10 d := �g + �d;
11 Retornar al paso 4.
Teorema II.4.6.- Con el algoritmo del Gradiente Conjugado se tiene:dk; Ad
l�= 0; l < k;
gk; g
l�= 0; l < k:
(II:4:18)
Demostraci�on.- Por inducci�on sobre k.
Para k = 1 se tiened0; Ad
1�= 0 por construcci�on del m�etodo,
g1; g
0�=g0; g
0���0Ag
0; g
0�
= 0:
Sup�ongase cierto para k, por la construcci�on de gk+1, se tienegk+1
; dk�= 0,
entonces: gk+1
; gk�=gk+1
; dk�| {z }
0
+�k�1gk+1
; dk�1�
= �k�1
gk; d
k�1�| {z }
0
+�k�k�1Ad
k; d
k�1�| {z }
0 hip. ind
;
gk+1
; gl�=gk; g
l�| {z }
0
+�kAd
k; d
l�
= 0;
dk+1
; Adl�= c1
gk+1
; Adl�+ c2
dk; Ad
l�| {z }
0 hip. ind
= c1
gk+1
; gl�= 0:
72 II Sistemas Lineales
En el ejercicio 4, se tiene otras f�ormulas para �k; �k �
De�nici�on II.4.7.- Se de�ne la norma natural del problema por
kxkA =pxtAx: (II:4:19)
Teorema II.4.8.- El error del m�etodo del Gradiente Conjugado, despu�es
de l iteraciones satisface x� � x
l A�M
x� � x
0 A; (II:4:20)
donde
M = inf�i2R
sup
� v.p. A
��1 + �1�+ �2�2 + � � �+ �l�
l��!
: (II:4:21)
Corolario II.4.9.- Si A tiene solamente l valores propios diferentes, en-
tonces el m�etodo del Gradiente Conjugado da la soluci�on exacta despu�es de
l iteraciones.
Demostraci�on del teorema.- Se puede suponer por traslaci�on, que b = 0,
de donde la soluci�on exacta es x� = 0, por lo tanto el error cometidos es
el = x
l. Se tiene d0 = �g0, de�niendo E1 por:
E1 =�x = x
0 + �1d0
=�x = x
0 + 1Ax0
=�x = (I + 1A)x
0:
x1 es el punto de E1 que minimiza f(x) =
1
2xtAx:
E2 =�xjx = x
0 + �1d0 + �2d
1
=�xjx = (I + 1A+ 2A
2)x0:
x2 minimiza f(x) en E2. Continuando se llega a
El =�xjx = (I + 1A+ � � �+ lA
l)x0;
xl minimiza f(x) en El.
Sean v1; : : : ; vn vectores propios normalizados de A, por lo tanto forman
una base. Por consiguiente:
x0 =
nXi=1
�ivi;
x0tAx
0 =Xi;j
�ivtiAvj�j
=Xi
�2i �i
= x0 A:
II.4 M�etodos Minimizantes 73
Por otro lado, se tiene
xk = (I + 1A+ � � �+ lA
l)
nXi=1
�ivi
=
nXi=1
�i(1 + 1�i + � � �+ l�li)vi;
xlAx
l =
nXi=1
�2i �i(1 + 1�i + � � �+ l�
li);
de donde xl 2A� max
�1;:::;�n
��1 + 1�i + � � �+ l�li
��2 x0 2A:
�
Polinomios de Chebichef
Sup�ongase, que se conoce los valores propios de la matriz A sim�etrica y
de�nida positiva, es decir:
0 < �min � �i � �max:
El polinomio que minimiza el polinomio del teorema II.4.8 tiene la propiedad
siguiente:
| es igual a � en �min,
| admite los valores ��;+� como valores maximos en el int�ervalo
[�min; �max] exactamente l + 1 veces,
| es igual a �� en �max.
La raz�on puede apreciarse en la �gura II.4.2, para el caso l = 2.
λλ maxmin
ε
−ε
1
Figura II.4.2 Polinomio minimizante para l = 2.
74 II Sistemas Lineales
De�nici�on II.4.10.- El n-simo polinomio de Chebichef, es el polinomio de
grado n, Tn(x) tal que:
Tn(1) = 1,
Tn(�1) = (�1)n,Todos los m��nimos y m�aximos relativos son�1 y pertenecen a (�; 1; 1).
Teorema II.4.11.- Chebichef. Tn(x) est�a dado por
Tn(x) =1
2
��x+
px2 � 1
�n+�x�
px2 � 1
�n�: (II:4:22)
Demostraci�on.- Este teorema ser�a abordado en el Cap��tulo IV, motivo por
el cual la demostraci�on no es necesaria por el momento. Lo �unico que puede
decirse, es que la de�nici�on moderna de los polinomios de Chebichef est�a
dada por
Tn(x) = cosn�; donde x = cos �: (II:4:23)
�
Teorema II.4.12.- La constante M del teorema II.4.8, est�a dada por
M =1
Tl
��max+�min
�max��min
� : (II:4:24)
Demostraci�on.- Se utiliza la transformaci�on af��n dada por
x = �� + �;
donde:
� =2
�max � �min
;
� = ��max + �min
�max � �min
:
por consiguiente tomando 1=M = Tl(�) se tiene el resultado deseado. �
Teorema II.4.13.- Para el m�etodo del Gradiente Conjugado, se tiene la
estimaci�on xl � x
� A� 2
�p�� 1p�+ 1
�l x0 � x
� A; (II:4:25)
donde � = cond2(A), x� la soluci�on exacta.
II.4 M�etodos Minimizantes 75
Demostraci�on.- Para x � 1, se tiene
jTl(x)j �1
2
�x+
px2 � 1
�l;
de donde
M � 2�x+
px2 � 1
�l ; para x � 1; (II:4:26)
particularmente para
x =�max + �min
�max � �min
=�+ 1
�� 1;
remplazando en (II.4.26), se obtiene (II.4.25). �
Con los resultados obtenidos respecto a los errores de convergencia,
tanto para el m�etodo del gradiente, como para el m�etodo del gradiente con-
jugado, se puede estimar el n�umero de iteraciones necesarias para conseguir
una precisi�on relativa de 10�b. Para el m�etodo del gradiente por (II.4.6), se
tiene:
10�b ���� 1
�+ 1
�;
�2:3b � l ln(1� 1=�)� l ln(1 + 1=�);
�2:3b � �2l=�;l � b�: (II:4:27)
Con el mismo procedimiento que para el m�etodo del gradiente, el m�etodo
del gradiente conjugado necesita aproximadamente l iteraciones, de donde
l � b
p�: (II:4:28)
M�etodo del Gradiente Conjugado Precondicionado
El corolario II.4.9 indica claramente, que el m�etodo del Gradiente Conjugado
converge a la soluci�on exacta despues de l iteraciones, siendo l el n�umero de
valores propios diferentes de la matriz A. Se puede mejorar la velocidad de
convergencia, haciendo un cambio de variables en el problema original
f(x) =1
2xtAx� x
tb:
Se de�ne x como
x = Etx;
76 II Sistemas Lineales
donde E es una matriz inversible con ciertas condiciones a cumplir que ser�an
dadas m�as adelante. Para no recargar la notaci�on, se denota
Et�1 = E
�t:
Por consiguiente, el problema se convierte en
f(x) =1
2xtE�1AE
�tx� xE
�1b: (II:4:29)
El problema es encontrar E, de manera EEt � �A, � > 0 con el
menor gasto de operaciones posibles. Si EEt = �A, aplicando el m�etodo del
gradiente conjugado a (II.4.29) se tiene la soluci�on exacta despu�es de una
sola iteraci�on, en este caso, la matriz E es la descomposici�on de Cholesky
de �A. Ahora bien, realizar la descomposici�on de Cholesky signi�ca que se
puede calcular directamente la soluci�on, lo que implica un gran n�umero de
operaciones a ejecutar. La determinaci�on de E se la realiza utilizando dos
m�etodos que ser�an analizados m�as adelante.
El algoritmo del gradiente conjugado para el problema condicionado
est�a dado por:
1 x := punto de partida;
2 g := E�1AE
�tx�E
�1b;
3 d := �g;4 h := E
�1AE
�td;
5 � :=
Dd; g
EDd; h
E ;6 x := x+ � d;
7 g := g + � h;
8 si jgj � 10�6, entonces �n algoritmo;
9 �; =
Dg; h
EDd; h
E ;10 d := �g + �d;
11 Retornar al paso 4.
La implementaci�on del m�etodo del gradiente conjugado al problema
condicionado (II.4.29), tiene dos incovenientes: El primero que se debe
conocer explicitamente la matriz E y el segundo que se efectuan muchas
operaciones con la matriz E.
Planteando C = EEt, se puede formular el algoritmo, comparando
con el m�etodo del gradiente conjugado para el problema condicionado y
utilizando las identidades para �k y �k dadas en el ejercicio 4, uno se
II.4 M�etodos Minimizantes 77
dar�a cuenta de las sutilezas empleadas. Por consiguiente, la formulaci�on
algor��tmica est�a dada por:
1 x := punto de partida;
2 g := Ax� b;
3 � := C�1g;
4 �o := hg; �i;5 d := ��;6 h := Ad;
7 � := �0=hd; hi;8 x := x+ �d;
9 g := g + �h;
10 si jgj � 10�6, entonces �n algoritmo;
11 � := C�1g;
12 �1 := hg; �i;13 �; = �1=�0;
14 d := ��+ �d;
15 �0 := hd; gi;16 Retornar al paso 6.
Esta formulaci�on presenta algunas novedades respecto a la formulaci�on
del m�etodo del gradiente conjugado. La m�as importante es la aparici�on
del vector �. El gasto en memoria es practicamente el mismo, pues se
puede utilizar el mismo lugar de memoria para h y �. Por las observaciones
anteriores la matriz C debe ser lo m�as parecida a la matriz A o a un m�ultiplo
de �esta. Adem�as, se debe resolver la ecuaci�on
C� = g;
motivo por el cual la matriz C debe ser la m�as simple posible. Actualmente
existen dos m�etodos muy utilizados para determinar C, dependiendo sobre
todo de las caracter��sticas de A. Estos son:
1.- Factorizaci�on Incompleta de Cholesky
La descomposici�on de Cholesky incompleta de la matriz A, est�a dada por
EEt. Los coe�cientes de E son nulos en el lugar donde los coe�cientes de A
son nulos; para los otros coe�cientes, los valores est�an dados por las f�ormulas
obtenidas para la descomposici�on de Cholesky dada en la seccion II.2, es
decir:
eii =
vuutaii �
i�1Xj=1
e2ji; (II:4:30a)
eki =
0@aki �
k�1Xj=1
ekjeji
1Aeii
: (II:4:30b)
78 II Sistemas Lineales
Luego se resuelve:
Eg = g;
Et� = g:
2.- SSOR precondicionado (Axelsson, 1973)
La matriz A puede ser descompuesta en tres partes, la diagonal, la parte
inferior y la parte superior. El m�etodo SSOR consiste en de�nir la matriz
E, como una matriz triangular inferior, cuyos coe�cientes de la diagonal
son iguales a la raiz cuadrada de los coe�cientes de la diagonal de A. Los
coe�cientes de la parte inferior de la matriz E son iguales a los coe�cientes
de la parte inferior de la matriz A multiplicados por un factor de relajaci�on
positivo !, es decir:
eii =paii; (II:4:31a)
eki = !aki; ! � 0: (II:4:31b)
Luego se resulve:
Eg = g;
Et� = g:
La determinaci�on del ! optimal se realiza al tanteo, dependiendo del pro-
blema a resolver, pues por el momento no existe un criterio an�alitico para
determinar este valor optimal.
Resultados Num�ericos
El estudio te�orico y la formulaci�on de m�etodos de resoluci�on de sistemas
lineales por si solo constituye un hermoso ejercicio mental. Un m�etodo no es
bueno, hasta que ha sido probado num�ericamente en problemas concretos,
por eso es importante poder comparar la e�ciencia de los diferentes m�etodos
formulados en esta secci�on, en diferentes tipos de problemas.
Al igual que la secci�on II.3, se considerar�a una ecuaci�on a derivadas
parciales de tipo el��ptico, pues este tipo de problema, se presta mucho a la
resoluci�on de grandes sistemas lineales. Sea,
4u = �1; sobre = [0; 1]� [0; 1];
uj@ = 0:(II:4:32)
De la misma manera, que la secci�on precedente, se subdivide el dominio
en una malla uniforme de longitud 1=n+ 1, planteando:
xi = ih
yj = jh
); h =
1
n+ 1; (II:4:33)
II.4 M�etodos Minimizantes 79
se obtiene el sistema de ecuaciones dado por:
ui;j+1 + ui;j�1 + ui+1;j + ui�1;j � 4uij = �h2; i; j = 1; : : : ; n;
ukj = uil = 0; k = 0 o k = n+ 1; l = 0 o l = n+ 1:
Planteando u = (u11; : : : ; u1n; u21; : : : ; u2n; : : : ; un;1 : : : ; unn)t, el sistema
lineal se escribe como
Au = h21; (II:4:34)
donde A = 4I+BIn+IB, con producto tensorial de matrices de�nido
en la anterior secci�on, In la matriz identidad de orden n� n y
B =
0B@ 0 1
1. . .
. . .. . . 0
1CA :
A es una matriz de�nida positiva y sim�etrica de orden n2 � n
2.
El problema (II.4.34) ser�a resuelto tomando valores aleatorios para u1.
Se ver�a el costo en iteraciones para diferentes valores de n. Una vez efectuados
los experimentos num�ericos, las gr�a�cas de las iteraciones del m�etodo del
gradiente conjugado precondicionado SSOR, pueden ser observadas en la
�gura II.4.3.
iter=0 iter=1 iter=2 iter=3
iter=4 iter=5 iter=6 iter=7
iter=8 iter=9 iter=10 iter=18
Figura II.4.3. Soluci�on del problema (II.4.34).
80 II Sistemas Lineales
En la �gura II.4.4 se observa en una gr�a�ca el costo en iteraciones para
alcanzar una precisi�on de 10�6 para los diferentes m�etodos de tipo gradiente.
iter
Gradiante Conjugado SSOR.
101 102100
101
102
103
104
iter
n
Gradiante.
Gradiante Conjugado.
Grad. Conj. Chols. Incom.
Gradiante Conjugado SSOR.
Figura II.4.4. N�umero de iteraciones vs n.
Finalmente la tabla II.4.1, da el n�umero de iteraciones para alcanzar
una precisi�on de 10�6 utilizando el m�etodo del gradiante conjugado pre-
condicionado para diferentes valores de n y el factor de relajaci�on !. En la
�ultima columna se agrega, ! optimal en funci�on de n.
Tabla II.4.1. Determinaci�on de ! optimal.
n n ! 0:6 :65 :7 :75 :8 :85 :9 :95 !op
10 10 9 8 7 8 9 11 12 :75
20 12 12 11 10 9 10 11 14 :8
50 27 24 22 18 17 15 14 16 :9
100 43 35 37 31 27 24 20 18 :95
180 72 59 55 46 40 41 33 27 :95
II.4 M�etodos Minimizantes 81
Ejercicios
1.- Mostrar que una matriz sim�etrica A es de�nida positiva si y solamente
si
det(Ak) > 0 k = 1; 2; : : : ; n donde Ak =
0@ a11 � � � a1k
......
ak1 � � � akk
1Ason los menores principales.
Indicaci�on: Intentar con la descomposici�on de Cholesky.
2.- Calcular el m��nimo de
f(x) =1
50(x1; x2)
�93 24
24 107
��x1
x2
�� 1
5(42; 21)
�x1
x2
�por el m�etodo del gradiente conjugado partiendo del valor inicial x0 = 0.
Hacer un buen gr�a�co de los puntos x0, x1, x2, de los vectores g0, g1,
d0, d1, y de las curvas de nivel de la funci�on f(x).
3.- Aplicar el m�etodo del gradiente conjugado al sistema lineal0@ 2 1 1
1 2 1
1 1 2
1Ax =
0@ 3
2
3
1Apartiendo de x0 = 0. El m�etodo converge en 2 pasos. >Por qu�e?
4.- Mostrar, utilizando las f�ormulas y las relaciones de ortogonalidad del
teorema II.4.6, las expresiones siguientes para �k y �k:
�k =
gk+1
; gk+1�
gk; g
k� ; �k =
gk; g
k�
dk; Ad
k� :
5.- Demostrar que la funci�on de la forma
f(x) = xn + �1x
n�1 + �2xn�2 + � � �+ �n
se separa lo menos posible de cero entre los l��mites x = �1 y x = +1,
est�a dada por
f(x) =Tn(x)
2n:
82 II Sistemas Lineales
6.- Demostrar las relaciones de ortogonalidad
Z +1
�1
Tn(x)Tm(x)p1� x
2dx =
8>><>>:0 si n 6= m;
�
2si n = m 6= 0;
� si n = m = 0:
7.- (Modi�caci�on del m�etodo del gradiante conjugado para matrices no
sim�etricas o no de�nidas positivas). Sea
Ax = b (II:4:35)
un sistema lineal, donde A es una matriz arbitraria inversible. El sistema
AtAx = A
tb (II:4:36)
tiene las mismas soluciones que (II.4.35), pero la matriz C = AtA es
sim�etrica y de�nida positiva. Aplicar el m�etodo del gradiente conjugado
al sistema (II.4.36) y rescribir el algoritmo obtenido de manera que el
producto AtA no aparezca mas. Cual es la desventaja del nuevo algo-
ritmo si, por mala suerte, se aplica al sistema (II.4.35) que inicialmente
era sim�etrico y de�nido positivo.
II.5 M��nimos Cuadrados
Hasta la secci�on precedente, se estudiaron problemas inherentes a la reso-
luci�on de sistemas de ecuaciones lineales donde la soluci�on existe y es �unica.
En esta secci�on se estudiar�an problemas m�as generales, donde la existencia
y unicidad no juegan un rol tan preponderante.
El problema que se estudiar�a consiste b�asicamente en el siguiente. Se
tiene como datos:
(tj ; yj); j = 1; : : : ;m; (m grande); (II:5:1)
donde tj 2 R, yj 2 R; y una funci�on de modelo
y = ' ((t; x1; : : : ; xn)) ; n � m; (II:5:2)
donde t 2 R, y 2 R y xi 2 R.Un ejemplo de funci�on de modelo, es la siguiente funci�on:
' ((t; x1; x2)) = x1 + tx2 + t2x1:
El problema consiste en encontrar x1; : : : ; xn; tales que
' ((t; x1; : : : ; xn)) � yj ; j = 1; : : : ;m: (II:5:3)
* *
** * *
**
t t t1 2 m
*
*
*
Figura II.5.1 Problema de los m��nimos cuadrados.
Sup�ongase que, ' es lineal respecto a los xi, es decir
' ((t; x1; x2)) =
nXi=1
ci(t)xi; (II:5:4)
84 II Sistemas Lineales
de donde el problema se reduce a resolver el siguiente sistema lineal0BB@c1(t1) c2(t1) � � � cn(t1)
c1(t2) c2(t2) � � � cn(t2)...
...
c1(tm) c2(tm) � � � cn(tm)
1CCA| {z }
A
0@ x1
...
xn
1A| {z }
x
�
0BB@y1
y2
...
ym
1CCA| {z }
b
; (II:5:5)
por consiguiente, resolver
Ax � b: (II:5:6)
Planteando:
ej = '(tj ; x)� yj ; j = 1; : : : ;m; (II:5:7)
la soluci�on del problema (II.5.6), mediante el m�etodo de los m��nimos cuadra-
dos, ser�a aqu�ella en la que
mXi=1
emi �! min; (II:5:8)
es decir
kAx� bk �! min : (II:5:9)
La justi�caci�on del m�etodo de los m��nimos cuadrados, est�a dada por
dos interpretaciones. La primera:
Interpretaci�on estad��stica
Las componentes yi del vector b en (II.5.5), pueden ser vistas como
medidas experimentales. Ahora bien, toda medida experimental lleva consigo
un error, por lo tanto es completamente razonable considerar �estas como
variables aleatorias.
Puesto que, la mayor parte de las medidas experimentales siguen leyes
normales, se tiene las dos hip�otesis siguientes, para determinar la soluci�on
del problema (II.5.6):
H1: El valor yi de (II.5.5) es la realizaci�on de un suceso para la variable
aleatoria Yi, i = 1; : : : ;m. Se supone que los Yi son independientes y que
obedecen la ley normal de esperanza �i y varianza �i. Para simpli�car el
problema, se supondr�a que los �i son iguales y conocidos de antemano.
H2: El sistema sobredeterminado (II.5.6) posee una soluci�on �unica, si se
remplaza los yi por los n�umeros �i; es decir, que existe � 2 Rn �unico tal
que A� = � donde � = (�1; : : : ; �m)t.
La funci�on de distribuci�on de Yi, en Yi = yi, es igual a
fi(yi) =1p2��
exp�� 1
2(yi � �i
�
)2�:
II.5 M��nimos Cuadrados 85
Como los Yi son independientes, el vector aleatorio Y = (Y1; : : : ; Ym)t tiene
la funci�on de distribuci�on
f(y) =
mYi=1
1p2��
exp�� 1
2(yi � �i
�
)2�;
donde y = (y1; : : : ; ym)t.
Efectuando c�alculos, se obtiene
f(y) = C exp
�12
mXi=1
�yi � �i
�
�2!:
Aplicando el principio de m�axima presunci�on, la probabilidad de medir yien lugar de �i, para i = 1; : : : ;m; est�a dada por
f(y)! max : (II:5:10)
Por lo tanto, (II.5.10) sucede si
mXi=1
�yi � �i
�
�2 ! min; (II:5:11)
es decirmXi=1
0@yi �
nXj=1
aijxj
1A2
! min : (II:5:12)
con lo que se ha justi�cado (II.5.7).
Interpretaci�on geom�etrica
Se de�ne el subespacio vectorial de Rm de dimensi�on n dado por
E = fAxjx 2 Rng � Rm ;la soluci�on de (II.5.9) est�a dada por el vector x
0, tal que Ax
0 � b
es
m��nima, es decir Ax0 es el vector m�as proximo perteneciente a E al vector
b, de donde el vector Ax0 � b es ortogonal al espacio E, ver �gura II.5.2.
E
b
Figura II.5.2 Interpretaci�on geom�etrica.
86 II Sistemas Lineales
Teorema II.5.1.- Sea A una matriz de orden m� n, b 2 Rm , entonces:
kAx� bk2 ! min () AtAx = A
tb: (II:5:13)
Las ecuaciones de la parte derecha de la equivalencia, son las ecuaciones
normales del problema de m��nimos cuadrados.
Demostraci�on.- Utilizando la interpretaci�on geom�etrica del m�etodo de
m��nimos cuadrados se tiene:
kAx� bk2 �! min
() b�Ax ? Ay; 8y 2 Rn
() hAy; b�Axi = 0; 8y 2 Rn
() ytAt(b�Ax) = 0; 8y 2 Rn
() At(b�Ax) = 0
() AtAx = A
tb:
�
Se remarca inmediatamente que la matriz AtA es sim�etrica y semi-
de�nida positiva, es decir xtAtAx � 0. La matriz At
A ser�a de�nida positiva
si y solamente las columnas de A son linealmente independientes. Si �este es
el caso, se puede utilizar la descomposici�on de Cholesky para resolver
AtAx = A
tb;
pero en la mayor��a de los casos AtA es una matriz mal condicionada. Como
ejemplo vale la pena citar el siguiente ejemplo:
Se tiene, la funci�on de modelo dada por
'(t) =
nXi=1
= xiti�1
;
es decir, se trata de determinar el polinomio de grado n que mejor ajusta a los
puntos (ti; yi), i = 1; : : : ;m y 0 = t1 � t2 � � � � � tn = 1. Por consiguiente,
se debe encontrar x 2 Rn , tal que
kAx � bk2 �! min;
donde:
A =
0BB@1 t1 � � � t
n�11
1 t2 � � � tn�12
......
1 tm � � � tn�1m
1CCA ; b =
0BB@y1
y2
...
ym
1CCA :
II.5 M��nimos Cuadrados 87
Por lo tanto
AtA =
0BB@m
Pti � � �
Ptn�1iP
ti
Pt2i � � �
Ptni
......P
tn�1i
Ptni � � �
Pt2n�1i
1CCA
=1
m
0BB@1 1=m
Pti � � � 1=m
Ptn�1i
1=mP
ti 1=mP
t2i � � � 1=m
Ptni
......
1=mP
tn�1i 1=m
Ptni � � � 1=m
Pt2n�1i
1CCA
� m
0BB@1 1=2 � � � 1=n
1=2 1=2 � � � 1=(n+ 1)...
...
1=n 1=(n+ 1) � � � 1=2n
1CCA ;
puesto que Z 1
0
tkdt � 1
m
Xtki :
De donde, la matriz AtA se aproxima a una matriz de tipo Hilbert, la cual es
una matriz mal condicionada, resultado visto en la primera secci�on de este
cap��tulo. Por lo tanto se debe formular un algoritmo donde la matriz AtA
no aparezca directamente.
La descomposici�on QR
Dada una matriz A de orden m�n, se busca las matrices: Q de orden m�my la matriz R de orden m� n, tales que la matriz Q sea ortogonal, es decir
QtQ = I ;
y la matriz R triangular superior, es decir
R =
nz }| {0BB@r11 � � � r1n
. . .
0 rnn
O
1CCA9>>>>>>>=>>>>>>>;m; m � n;
con
A = QR: (II:5:14)
88 II Sistemas Lineales
Puesto que la matriz Q es ortogonal, para todo vector c 2 Rm , se tiene Qtc
2= kck ;
de donde
kAx� bk2 = Qt(Ax � b)
2
= Rx�Q
tb
2�! min : (II:5:15)
Por otro lado, la matriz R y el vector Qtb pueden escribirse como:
R =
�R1
0
�; Q
tb =
�c1
c2
�;
donde R1 es una matriz triangular de orden n�n y c1 2 Rn . Por consiguiente,resolver el problema (II.5.6) es resolver la ecuaci�on
R1x = c1: (II:5:16)
Ahora bien, el principal problema es encontrar un algoritmo simple y
rapido que permita descomponer la matriz A en un producto de la forma
QR. Precisamente uno de estos m�etodos consiste en la utilizaci�on de matrices
de Householder.
Matrices de Householder (1958)
Sea u 2 Rm , con kuk2 = 1. Se de�ne la matriz Q por
Q = I � 2uut; (II:5:17)
matriz que es sim�etrica y ortogonal. En efecto:
Qt =
�I � 2uut
�t=�I � 2uut
�;
QtQ =
�I � 2uut
�t �I � 2uut
�= I � 2uut � 2uut + 4uutuut
= I:
La manera como act�ua Q sobre Rm es la siguiente, sea x 2 Rm ,
Qx = x� 2uutx;
si utx = 0, se tiene inmediatamente que Qx = x, de donde Q es una simetr��a
respecto al hiperplano fxjutx = 0g, en efecto
Qu =�I � 2uut
�u = �u:
II.5 M��nimos Cuadrados 89
En base a estas matrices se construir�a un m�etodo que permita descomponer
la matriz A en QR en n� 1 pasos a lo m�aximo.
Se busca una matriz Q1 = I � 2u1ut1 con ku1k2 = 1, tal que
Q1A =
0BB@�1 � � � � �0 � � � � �...
......
0 � � � � �
1CCA :
Denotando por e1 a (1; 0; : : : ; 0)t y A1 la primera columna de la matriz A,
hay que determinar Q1, tal que
Q1A1 = �1e1; � 2 R: (II:5:18)
Por las propiedades de norma se tiene j�1j = kA1k2, por consiguiente
�1 = �kA1k2 ; (II:5:19)
Q1 es una matriz de Householder, por lo tanto:
A1 � 2u1ut1A1 = �1e1;
2u1(ut1A1| {z }2R
) = A1 � �1e1;
de donde u1 tiene la misma direcci�on que A1 � �1e1. En consecuencia,
u1 =A1 � �1e1
kA1 � �1e1k2: (II:5:20)
Sabiendo que la sustracci�on es una operaci�on mal condicionada cuando las
cantidades a restar son cercanas, se plantea
�1 = �signo(a11) kA1k2 : (II:5:21)
El siguiente paso es determinar Q1Aj , donde Aj es la j-esima columna de la
matriz A, de�niendo v1 = A1 � �1e1, se tiene:
vt1v1
2=
1
2(At
1 � �1et1)(A1 � �1e1)
=1
2
�kA1k22| {z }�21
��1a11 � �1a11 + �21
�= �1(�1 � a11);
Q1Aj = Aj � 2u1ut1Aj
= Aj �2
vt1v1
v1vt1Aj
= Aj �1
�1(�1 � a11)v1v
t1Aj : (II:5:22)
90 II Sistemas Lineales
Despu�es del primer paso de la descomposici�on QR, se ha obtenido
Q1A =
0BB@�1 � � � � �0...
0
�A(1)
1CCA :
El segundo paso es determinar �Q2 matriz de Householder, como en el primer
paso, de manera que
Q2Q1A =
0BB@�1 � � � � �0...
0
�Q2
�A(1)
1CCA =
0BBBB@�1 � � � � � �0 �2 � � � � �0...
0
0...
0
�A(2)
1CCCCA ;
donde
Q2 =
0BB@1 0 � � � 00...
0
�Q2
1CCA :
Costo de la descomposici�on QR
La descomposici�on se la realiza en n� 1 �etapas,
Qn�1 � � �Q2Q1| {z }Qt
A = R;
para el primer paso contando el producto escalar se efectuan:
m+ (n� 1)2m operaciones;
por lo tanto, el costo es aproximadamente igual
2(mn+ (m� 1)(n� 1) + � � � (m� n+ 1);
si n � m se tiene � 2
3n3 operaciones; si n� m se tiene � mn
2 operaciones.
Programaci�on
La descomposici�on QR presenta la ventaja que se puede utilizar las plazas
ocupadas por los coe�cientes de la matriz A, con los coe�cientes de la matriz
II.5 M��nimos Cuadrados 91
R y los vectores v1. En lo que se sigue, se tiene un esquema del m�etodo de
descomposici�on QR.
A
!v1
R
�A(1)
�1
!v1 v2
R
�A(2)
�1 �2
Al �nal de la descomposici�on se obtiene la siguiente matriz
v1 v2 . . .
R
vn
�1 �2 � � � �n
Hay que observar que QR es aplicable, si las columnas de A son linealmente
independientes. Si no fuesen linealmente independientes se llegar��a a la
situaci�on de obtener un �i = 0, y la descomposici�on en este caso ser��a
num�ericamente inestable. Para evitar esta situaci�on, se puede modi�car la
descomposici�on QR de la manera siguiente. Sea A la matriz a descomponer,
se considera
kAjok2
2= max
j=1;:::;nkAjk22 ; (II:5:23)
se intercambia la primera columna A1 con Ajo y se procede el primer paso de
la descomposici�on QR, para el segundo paso se procede de la misma manera
y as�� sucesivamente. Por consiguiente, con esta modi�caci�on se obtiene la
sucesi�on decreciente,
�1 � �2 � � � � � �k > 0: (II:5:24)
Si hay vectores linealmente dependientes se llega por lo tanto al siguiente
resultado
R =
�R1 R2
0 0
�con R1 =
0@�1 � � � r1n
. . ....
�k
1A| {z }
k = rangA
: (II:5:25)
92 II Sistemas Lineales
La descomposici�on QR es un instrumento num�erico que permite determinar
el rango de la matriz A. Ahora bien, debido a los errores de redondeo, el
principal problema consiste en decidir cuando un �j es nulo en la sucesi�on
decreciente (II.5.24) . Se remarca inmediatamente que, si �k+1 = 0, entonces
�k+i = 0 para i > 2.
Se de�ne la matriz R el resultado num�erico obtenido despues de k pasos
como
R =
0BB@�1
. . .
�k
R2
0 0
1CCA : (II:5:26)
Planteando
A = QR; (II:5:27)
se tiene la:
De�nici�on II.5.2.- �k+1 es despreciable, si y solamente si A� A
2� eps kAk2 : (II:5:28)
Se tiene, por consiguiente:
A� A = Q(R� R);
kAk2 = kRk2 ; A� A
2= R� R
2;
de donde
�k+1 despreciable () R� R
2� eps kRk2 ;
�k+1 es una buena aproximaci�on de R� R
2, y �1 es una buena aproxi-
maci�on de kRk2, obteniedo el siguiente resultado
�k+1 despreciable () �k+1 � eps �1: (II:5:29)
La pseudo-inversa de una matriz
El problema (II.5.6) tiene una soluci�on �unica, si el rango de la matriz A es
igual a n y est�a dada por
x = (AtA)�1At
b: (II:5:30)
II.5 M��nimos Cuadrados 93
La matriz
A+ = (At
A)�1At; (II:5:31)
ser�a la matriz inversa para el problema (II.5.6).
Para el problema m�as general, donde le rango de A es � n, la descom-
posici�on QR da el siguiente resultado
R =
�R1 R2
0 0
�; con R1 =
0@�1 � � � r1k
. . .
0 �k
1A ;
planteando x = (x1; x2)t, con x1 2 Rk , se tiene
kAx� bk22 = Rx�Q
tb
22 �R1x1 +R2x2 � c1
�c2
� 22
kR1x1 +R2x2 � c1k22 + kc2k2
2 ;
de donde el:
Teorema II.5.3.- x = (x1; x2)t es soluci�on de kAx� bk2 �! min, si y
solamente si
R1x1 +R2x2 = c1: (II:5:32)
Si el rango de A es igual a n, la soluci�on es �unica; si no las soluci�ones del
problema (II.5.6) constituyen un espacio af��n. Sea por consiguiente
F = fxjx es soluci�on de (II.5.6)g ;de donde, para obtener una soluci�on �unica, el problema (II.5.6) se convierte
enkAx � bk2 �! min
kxk2 �! min; (II:5:33)
De�nici�on II.5.4.- La pseudo-inversa de la matrix A de orden m�n es la
matriz A+ de orden n�m, que expresa la soluci�on x� para todo b 2 Rm del
problema (II.5.33) como
x� = A
+b: (II:5:34)
Si la matriz A es de rango n, entonces la pseudo inversa est�a dada por la
f�ormula (II.5.31). Para el caso m�as general se tiene los siguientes resultados:
F =
��x1
x2
� ����x2 arbitrariox1 = R
�11 (c1 �R2x2)
�;
kxk22 = kx1k22 + kx2k
22
= R�11 (c1 �R2x2)
22+ kx2k22 �! min : (II:5:35)
94 II Sistemas Lineales
Derivando (II.5.35), se obtiene�I + (Rt
2R�t1 )R�11 R2
�| {z }sim�etrica y de�nida positiva
x2 = Rt2R
�t1 R
�11 c1: (II:3:36)
Se ha de�nido la pseudo-inversa de la matriz A, su existencia est�a asegurada
por el hecho que el problema (II.5.33) tiene soluci�on �unica, en lo que sigue
se determinar�a de manera expl��cita esta pseudo-inversa con algunas de sus
propiedades m�as interesantes.
Teorema II.5.5.- Sea A una matriz de m�n, entonces existe dos matrices
ortogonales U y V tales que
UtAV =
0BBBBBB@
�1
. . .
�n
0
1CCCCCCA con:�1 � � � � � �k > 0;
�k+1 = � � � = �n = 0:(II:3:37)
(II.3.37) se llama la descomposici�on a valores singulares de la matriz A y
�1; : : : ; �n son los valores singulares de la matriz A.
Demostraci�on.- La matriz AtA es sim�etrica y semi de�nida positiva, por
consiguiente existe una matriz V ortogonal tal que
VtAtAV =
0B@�21
. . .
�2n
1CA ;
con �1 � � � � � �n � 0. Se busca una matriz U ortogonal tal que
AV = U
0BBBBBB@
�1
. . .
�n
0
1CCCCCCA ;
suponiendo �k > 0 y �k+1 = 0, se de�ne D la matriz diagonal de k � k con
coe�cientes �i, i = 1; : : : ; k; por consiguiente si
AV = (U1 U2 )
�D 0
0 0
�= (U1D 0 ) ;
II.5 M��nimos Cuadrados 95
donde U1 est�a constituida por las primeras k columnas de U . Sean
(AV )1 las primeras k columnas de AV;
(AV )2 las otras n� k columnas de AV;
(AV )2 = 0, en efecto, sea x = (0; : : : ; 0| {z }k
; x)t, donde x 2 Rn�k , obteniendo:
xtVtAtAV x = x
t
0B@�21
. . .
�2n
1CAx = 0;
kAV xk22 = k(AV )2xk22 ; 8x:
Se de�ne U1 por
U1 = (AV )1D�1;
obteniendo columnas ortonormales, ya que
Ut1U1 = D
�1�(AV )t1(AV )1
�D�1 = I
Finalmente se construye U2, de manera que U sea ortogonal. �
Teorema II.5.6.- Sea A una matriz de m� n, siendo
UtAV = � =
0BB@�1
. . .
�k
0
0
1CCA ; (II:5:38)
la descomposici�on en valores singulares. Entonces la pseudo-inversa de A
est�a dada por
A+ = V
0BB@��11
. . .
��1k
0
0
1CCAUt: (II:5:39)
Demostraci�on.- Se tiene
kAx� bk22 = U�V t
x� b
22
= U(�V t
x� Utb) 22=
� Vt|{z}y
� Utb|{z}
c
2
2
= k�y � ck22 = �Dy10
���c1
c2
� 22
= kDy1 � c1k22 + kc2k22 :
96 II Sistemas Lineales
Para que la expresi�on sea minimal es necesario que y1 = D�1c1. Por otro
lado se tiene que y = Vtx, de donde kyk2 = kxk2, de manera, que para que
x sea minimal es necesario que y2 = 0. De donde
x =V
�D�1c1
0
�=V
�D�1 0
0 0
��c1
c2
�=V
�D�1 0
0 0
�Vtb
=A+b; 8b:
�
Finalmente se tiene:
Teorema II.5.7.- La pseudo-inversa de una matriz veri�ca las siguientes
propiedades:
(A+A)t = A
+A;a)
(AA+)t = AA+;b)
A+AA
+ = A+;c)
AA+A = A;d)
llamados axiomas de Moore-Penrose, adem�as la pseudo-inversa est�a �unica-
mente determinada por estos axiomas.
Demostraci�on.- Veri�caci�on inmediata utilizando (II.5.39).
�
Error del M�etodo de los M��nimos Cuadrados
Retomando la interpretaci�on estad��stica del m�etodo de los m��nimos cuadra-
dos. Se han dado dos hip�otesis de partida, para determinar la soluci�on: la
primera sobre los yi de la ecuaci�on (II.5.5); la segunda concerniente a la
compatibilidad de la funci�on modelo (II.5.2) con los datos (II.5.1).
Suponiendo v�alidas estas dos hip�otesis, se tiene
A� = �; (II:5:40)
donde � = (�1; : : : ; �m)t es la esperanza del vector aleatorio Y . Ahora bien,
el m�etodo de los m��nimos cuadrados da como soluci�on (x1; : : : ; xn)t, que por
(II.5.30), es igual a
x = (AtA)�1At
b:
II.5 M��nimos Cuadrados 97
Por lo tanto
x� � = (AtA)�1At(b� �) o xi � �i =
mXj=1
�ij(bj � �j); (II:5:41)
donde �ij es el elemento (i; j) de la matriz (AtA)�1At.
Se supondr�a, por lo tanto, que xi es una realizaci�on de una variable
aleatoria Xi de�nida por
Xi � �i =
mXj=1
�ij(Yj � �j): (II:5:42)
Teorema II.5.8.- Sean X1; X2; : : : ; Xm variables aleatorias independientes,
con esperanza �i y varianza �i = 1. Entonces, la variable aleatoria Xi,
de�nida por (II.5.42), satisface
E(xi) = �i y V ar(Xi) = �ii; (II:5:43)
donde �ii es el i-esimo elemento de la diagonal de (AtA)�1. Los otros
elementos de (AtA)�1 son las covarianzas de Xi.
Demostraci�on.- Se tiene, utilizando la linearidad de la esperanza,
E(Xi) =
mXj=1
�ijE(Yj � �j) + �i
= �i:
Para calcular la varianza de Xi, se utiliza el hecho que V ar(Z1 + Z2) =
V ar(Z1) + V ar(Z2), si Z1 y Z2 son independientes. De donde, con ei el
i-esimo vector de la base can�onica, se tiene
V ar(Xi) = V ar(Xi � �i)
=
mXj=1
�2ijV ar(Yj � �j)
=
mXj=1
�2ij
= (At
A)�1Atei
22
= eti(A
tA)�1At
22
= eti(A
tA)�1At
A(AtA)�1ei
= eti(A
tA)�1ei = �ii:
�
98 II Sistemas Lineales
Por consiguiente, si los yi son realizaciones de una variable aleatoria Yique sigue N(0; 1), suponiendo que una soluci�on exacta � existe, entonces se
tiene una probabilidad de 95% que
�i = xi � 2�Xi: (II:5:44)
La f�ormula (II.5.43) da los valores de �Xi, sin embargo se ha visto que
la determinaci�on de AtA puede representar una cantidad grande de c�alculo.
Utilizando la descomposici�on QR, se tiene
AtA = R
tQtQR = R
tR: (II:5:45)
Como las �ultimas �las de ceros no incide en el c�alculo del producto RtR, se
puede considerar R como una matriz de n � n, obteniendo as�� la descom-
posici�on de Choleski de (AtA).
Una vez determinados los par�ametros x de la funci�on modelo (II.5.2)
corresponde saber, si los (II.5.1) son compatibles con tal modelo. Por la
descomposici�on QR, el problema (II.5.6) se convierte, ver (II.5.15), en�R
0
�x =
�C1
C2
�; donde
�C1
C2
�= Q
tb: (II:5:46)
Denotando los elementos de Qt por qij , los elementos del vector C, satisfacen
ci =
mXj=1
qijbj ;
y las componentes del vector C2 satisfacen tambi�en
ci =
mXj=1
qij(bj � �j):
Es razonable considerar las variables aleatorias
Zi =
mXj=1
qij(Yj � �j); i = n+ 1; : : : ;m: (II:5:47)
A continuaci�on, se da la proposici�on siguiente, sin demostraci�on.
Proposici�on II.5.9.- Sean Y1; : : : ; Ym variables aleatorias independientes
siguiendo N(0; 1). Entonces las variables aleatorias Zn+1; : : : ; Zm, de�nidas
por (II.5.47) son independientes y siguen tambi�en una ley normal N(0; 1).
El error cometido, por el m�etodo de los m��nimos cuadrados, es equiva-
lente a estudiar kC2k22 de donde el teorema, sin demostraci�on:
II.5 M��nimos Cuadrados 99
Teorema II.5.10.- Pearson. Sean Z1; Z2; : : : ; Zn variables aleatorias inde-
pendientes siguiendo la ley normal N(0; 1). Entonces, la distribuci�on de la
variable aleatoria
Z21 + � � �+ Z
2n; (II:5:48)
est�a dada por
fn(x) =1
2n=2�(n=2)xn=2�1
e�x=2
; x > 0; (II:5:49)
y por fn(x) = 0 para x � 0. Es la ley �2 con n grados de libertad. La
experanza de esta variable es n y su varianza es 2n.
Ejemplo
A partir de la funci�on f(t) = t+ 0:5 sin(�t=2), se ha elaborado la tabla
II.5.1, que tiene como elementos (i; bi) con 0 � i � 9, donde bi = f(i)+�i.
�i es la realizaci�on de una variablea aleatoria siguiendo una ley normal
N(0; �) con � = 0:1.
Tabla II.5.1. Valores de bi en funci�on de i.
i bi i bi
0 0:11158 5 5:5158
1 1:2972 6 6:0119
2 2:07201 7 6:6802
3 2:4744 8 7:9294
4 3:963 9 9:4129
Se considera, la funci�on de modelo
'(t) = xt+ y sin(�t=2): (II:5:50)
Obteniendo por la descomposici�on QR:
x = 1:00074;
y = 0:413516:
El siguiente paso ser�a estimar el intervalo de con�anza para x y y. Para
tal efecto, se considera el problema
x
t
�
+ y
sin(�t=4)
�
=bi
�
; i = 0; : : : ; 9;
100 II Sistemas Lineales
pues, los bi=� deben ser realizaciones de una variable normal con varianza
igual a 1. De donde la matriz de covarianza est�a dada por��2x �xy
�xy �2y
�=
�3:57143 � 10�5 �3:57143 � 10�5�3:57143 � 10�5 2:03571 � 10�3
�:
Por consiguiente:x = 1:00074� 0:012;
y = 0:41352� 0:09:
El m�etodo QR, con la notaci�on precedente da
kC2k2 = 0:0693103;
corrigiendo, para el problema normalizado, se tiene
kC2k22�2
= 6:93103:
Se tiene 10�2 grados de libertad. Viendo en una tabla de la distribuci�on�2, se deduce que este valor es lo su�cientemente peque~no para ser
probable.
Ahora bien, si se hubiese considerado la funci�on de modelo
'(t) = xt+ y; (II:5:51)
se hubiera encontradokC2k22�2
= 90:5225;
valor demasiado grande para ser probable.
La conclusi�on es que, para los valores de la tabla II.5.1, la ley (II.5.50)
es m�as probable que la ley (II.5.51).
En la �gura II.5.3, puede observarse en linea continua la gr�a�ca de la
funci�on modelo dada por (II.5.50) y con lineas segmentadas la gr�a�ca de
la funci�on modelo (II.5.1).
II.5 M��nimos Cuadrados 101
0 1 2 3 4 5 6 7 8 90
1
2
3
4
5
6
7
8
9
10
Figura II.5.3. Resultados del m�etodo de los m��nimos cuadrados.
Ejercicios
1.- Sea A una matriz inversible de n � n. Mostrar que la descomposici�on
QR es �unica, si se supone que rjj > 0 para j = 1; : : : ; n.
2.- Aplicar el algoritmo de Golub-Householder a la matrice de rotaci�on
A =
�cos� sin�
� sin� cos�
�:
Dar una interpretaci�on geom�etrica.
3.- Sea Q una matriz ortogonal de n � n. Mostrar que Q puede escribirse
como el producto de n matrices de Householder, de donde cada trans-
formaci�on ortogonal de Rn es una sucesi�on de al menos n re exiones.
4.- Escribir una subrutina DECQR(N,M,MDIM,A,ALPH),
(A(MDIM,N),ALPH(N)), que calcula la descomposici�on QR de una ma-
triz m� n, m � n.
Escribir tambi�en una subrutina SOLQR(N,M,MDIM,A,ALPH,B) que cal-
cula la soluci�on del problema
kAX � bk2 �! min :
Determinar la parabola x1 + x2t+ x2t2, que ajusta lo mejor posible:
102 II Sistemas Lineales
ti 0 0; 2 0; 4 0; 6 0; 8 1:0
yi 0; 10 0; 15 0; 23 0; 58 0; 45 0; 60
5.- Sea A una matriz m � n. Mostrar que AtA + �I es no singular para
� > 0 y
A+ = lim
�!0+(At
A+ �I)�1At:
Cap��tulo III
Interpolaci�on
Uno de los mayores problemas con que se tropieza, radica en la evaluaci�on
de las funciones en determinados puntos. Las causas principales de estas
di�cultades est�an esencialmente en la di�cil manipulaci�on de estas funciones;
una funci�on tan inocente como la logaritmo presenta di�cultades en su eva-
luaci�on y se debe recurrir a �utiles mat�ematicos como series, etc. Por otro lado,
la sola informaci�on que se conoce de esta funci�on, son determinados puntos,
e incluso suponiendo que �esta es lo bastante regular, la evaluaci�on en otros
puntos es de gran di�cultad. De donde un m�etodo de facil manipulaci�on
consiste en la aproximaci�on de las funciones a evaluar por polinomios.
Existen dos enfoques diferentes, el primero radica en la aproximaci�on me-
diante polinomios de interpolaci�on y el otro mediante la mejor aproximaci�on
polinomial respecto a una norma.
Este cap��tulo abordar�a sobre todo la aproximaci�onmediante polinomios.
La primera parte tratar�a sobre la interpolaci�on de Lagrange y Hermite, la
formulaci�on de algoritmos para calcular estos polinomios ser�a hecha, las
estimaciones de error cometido ser�an tambi�en estudiadas a fondo, como as��
mismo los problemas de estabilidad inherentes a la interpolaci�on de Lagrange
ser�an abordados con resultados y ejemplos, como elementos te�oricos los
polinomios de Chebichef ser�an vistos dando como consecuencia resultados
interesantes sobre la elecci�on de los puntos de interpolaci�on. Un segundo
t�opico a ver ser�a los splines, polinomios que operan como serchas, por su facil
manipulaci�on, como por su gran utilidad ser�an estudiados en la formulaci�on
de los m�etodos, el c�alculo de error y sus diferentes aplicaciones. Un tercer
tema de gran inter�es por las grandes utilidades que puede dar, consiste en
los m�etodos de extrapolaci�on tanto como en su valor te�orico, como tambi�en
por su propiedad de acelerar la convergencia de muchas sucesiones.
III.1 Interpolaci�on de Lagrange
En la introducci�on del cap��tulo, se mencion�o la interpolaci�on como un
instrumento de aproximaci�on de una funci�on determinada. Sea f una funci�on
de la que se conoce las im�agenes en una cantidad �nita de puntos, es decir
f(xi) = yi i = 1; : : : ; n;
la funci�on interpolante p ser�a por de�nici�on igual a f(xi) para i = 1; : : : ; n.
Se hablar�a de interpolaci�on cuando se eval�ua en el punto x con
x 2 [minxi;maxxi];
y de extrapolaci�on si no. Por su facil manipulaci�on, pues solo se efectua
multiplicaciones y adiciones, es conveniente que la funci�on interpolante p sea
un polinomio.
De�nici�on III.1.1.- Dados (k+1) puntos diferentes: x0; x1; : : : ; xk de [a; b],
los enteros no negativos �0; : : : �k y los reales yili con 0 � i � k y 0 � li � �i.
El Polinomio de Hermite pn de grado n = k + �0 + � � �+ �k, respecto a los
xi, �i y los yili veri�ca
p(li)n (xi) = yili : (III:1:1)
Si los �i = 0 para i = 0; : : : ; k, pn se llama Polinomio de Lagrange.
De�nici�on III.1.2.- Cuando los puntos yili satisfacen
yili = f(li)n (xi); (III:1:2)
para una determinada funci�on f , pn es el polinomio de interpolaci�on de
Hermite, y si los �i son nulos, se hablar�a del polinomio de interpolaci�on de
Lagrange.
Estas dos de�niciones dan las condiciones que deben cumplir los poli-
nomios de interpolaci�on, sin embargo la existencia, como la unicidad no est�an
dadas, podr��a suceder que no existiesen en alg�un caso. Por eso es necesario
insistir en la base te�orica que asegure la existencia y la unicidad de estos,
adem�as, para que la construcci�on de estos pueda ser relativamente facil.
Bases Te�oricas
Sin querer dar un tratado sobre la teor��a de los polinomios, existen resultados
que deben formularse para la mejor comprensi�on de la interpolaci�on polino-
mial. Aunque en Algebra se hace distinci�on entre polinomio y su funci�on
III.1 Interpolaci�on de Lagrange 105
polinomial asociada, no se har�a distinci�on entre estos, por que son poli-
nomios a coe�cientes reales o complejos los que se utilizan en la mayor parte
de los problemas a resolverse num�ericamente.
De�nici�on III.1.3.- Sea p(x) 2 R[x], a es un cero de multiplicidad m de
p(x), si
p(k)(a) = 0 m = 0; : : : ;m� 1; y p(m) 6= 0:
Proposici�on III.1.4.- a es un cero de multiplicidad m de p(x), si y
solamente si, existe un polinomio q(x) con q(a) 6= 0 tal que
p(x) = (x� a)mq(x):
Demostraci�on.-Ver en cualquier libro de Algebra. �
Corolario III.1.5.- Un polinomio pn(x) de grado n tiene a lo m�as n ceros
contando con su multiplicidad.
Teorema III.1.6.- Existe a lo sumo un polinomio de Hermite de grado n
respecto x0; : : : ; xk, �0; : : : ; �k, con k + �0 + � � �+ �k = n, tal que
p(li)n (xi) = yili ;
donde yili 2 R, 0 � li � �i.
Demostraci�on.- Sean pn y qn dos polinomios de Hermite que satisfacen
las hip�otesis del teorema. pn � qn es un polinomio nulo o de grado � n.
Ahora bien, pn � qn tiene ceros de al menos multiplicidad �i + 1 en xi para
i = 0; : : : ; k. Por la proposici�on anterior se tiene
pn � qn =
kYi=0
(x� xi)�i+1
!r(x);
sumando los grados, la �unica posibilidad es que r(x) = 0. �
Teorema III.1.7.- Existe al menos un polinomio de Hermite de grado n
respecto x0; : : : ; xk, �0; : : : ; �k, con k + �0 + � � �+ �k = n, tal que
p(li)n (xi) = yili ;
donde yili 2 R, 0 � li � �i.
Demostraci�on.- Es su�ciente mostrar que existe un polinomio de Hermite
de grado n tal que para i 2 f0; : : : ; kg y l 2 f0; : : : ; �ig se tenga:
p(l)(xi) = 1; p
(m)(xj) = 0 para m 6= l oj 6= i;
106 III Interpolaci�on
den�otese por pi;l este polinomio. xj para j 6= i es un cero de multiplicidad
�j + 1, de donde:
pi;l = r(x)
0@Yj 6=i
(x� xj)�j+1)
1A;
pi;�i = Ci;�i(x � xi)�i
0@Yj 6=i
(x� xj)�j+1)
1A;
la constante Ci;�i es escogida de manera que p(�i)i;�i
(xi) = 1. Los polinomios
pi;l se los de�ne recursivamente de la siguiente manera
pi;l = Ci;l
0@(x � xi)�i
0@Yj 6=i
(x� xj)�j+1)
1A�Xm>l
cil;mpi;m
1A;
donde las constantes cil;m son escogidas de manera que p(m)
i;l (xi) = 0 para
m > l y Ci;l de manera que p(l)
i;l = 1. �
Para construir el polinomio de interpolaci�on no debe utilizarse los
polinomios de�nidos en la demostraci�on, uno porque el costo en operaciones
es demasiado elevado y otro por la sensibilidad de estos polinomios as��
de�nidos a los errores de redondeo.
Construcci�on del Polinomio de Interpolaci�on
Inicialmente se considerar�a polinomios de interpolaci�on del tipo de Lagrange.
Por lo tanto, dados los puntos x0; : : : ; xn todos diferentes, y los valores
y0; : : : ; yn, el problema se reduce a encontrar un polinomio de grado n que
satisfaga
p(xi) = yi 0 � i � n: (III:1:3)
Indudablemente el caso m�as sencillo es para n = 1 y luego para n = 2.
Para n = 1 la recta de interpolaci�on est�a dada por
p(x) = y0 +
�y1 � y0
x1 � x0
�(x� x0);
para n = 2 la par�abola de interpolaci�on est�a dada por
p(x) = y0 +
�y1 � y0
x1 � x0
�(x� x0) + a(x� x0)(x� x1);
III.1 Interpolaci�on de Lagrange 107
este �ultimo polinomio veri�ca p(x0) = y0 y p(x1) = y1, por consiguiente es
necesario determinar a de manera que p(x2) = y2. Unos simples c�alculos
algebraicos dan
a =1
x2 � x0
�y2 � y1
x2 � x1
� y1 � y0
x1 � x2
�:
Para n = 3 se puede continuar con el mismo esquema, pero antes es necesario
dar la noci�on de diferencias divididas.
De�nici�on III.1.8.- (Diferencias Divididas) Sean (x0; y0); : : : ; (xn; yn), los
xi diferentes entre si. Entonces las diferencias divididas de orden k se de�nen
de manera recursiva por:
y[xi] = yi; (III:1:4a)
y[xi; xj ] =yj � yi
xj � xi
; (III:1:4b)
y[xi0 ; : : : ; xik ] =y[xi1 ; : : : ; xik ]� y[xi0 ; : : : ; xik�1
]
xik � xi0
: (III:1:4c)
Teorema III.1.9.- (F�ormula de Newton). El polinomio de interpolaci�on de
grado n que pasa por (xi; yi), i = 0; : : : ; n, est�a dado por
p(x) =
nXi=0
y[x0; : : : ; xi]
i�1Yk=0
(x� xk); (III:1:5)
con la convenci�on
�1Yk=0
(x � xk) = 1.
Demostraci�on.- Por inducci�on sobre n. Para n = 1 y n = 2 la f�ormula de
Newton es correcta, ver m�as arriba. Se supone que la f�ormula sea correcta
para n� 1.
Sea, p(x) el polinomio de grado n que pasa por (xi; yi), i = 0; : : : ; n; de
donde
p(x) = p1(x) + a(x� x0)(x� x1) � � � (x� xn�1);
con p1(x) el polinomio de interpolaci�on de grado n� 1 que pasa por (xi; yi)
i = 0; : : : ; n� 1. Por hip�otesis de inducci�on se tiene
p1(x) =
n�1Xi=0
y[x0; : : : ; xi]
i�1Yk=0
(x� xk);
por lo tanto hay que demostrar que
a = y[x0; x1; : : : ; xn]:
108 III Interpolaci�on
Sea, p2(x) el polinomio de interpolaci�on de grado n�1 que pasa por (xi; yi),i = 1; : : : ; n; de�niendo el polinomio q(x) por
q(x) = p2(x)(x� x0)
(xn � x0)+ p1(x)
(xn � x)
(xn � x0);
q(x) es un polinomio de grado a lo sumo n, adem�as q(xi) = yi, i = 0; : : : ; n.
Por la unicidad del polinomio de interpolaci�on se tiene que p(x) = q(x).
Comparando los coe�cientes del t�ermino de grado n se obtiene
a =y[x1; : : : ; xn]� y[x0; : : : ; xn�1
xn � x0
= y[x0; : : : ; xn]
�
La f�ormula de Newton es muy simple y facil de implementar en un
programa para determinar el polinomio de interpolaci�on de tipo Lagrange,
ver la �gura III.1.1 donde se muestra un esquema del algoritmo de Newton.
x0 y[x0]&
y[x0; x1]% &
x1 y[x1] y[x0; x1; x2]& % &
y[x1; x2] y[x0; : : : ; x3]% & % &
x2 y[x2] y[x1; x2; x3] y[x0; : : : ; x4]& % & %
.... . .
y[x2; x3] y[x1; : : : ; x4]% & %
.... . .
x3 y[x3] y[x2; x3; x4]& %
.... . .
y[x3; x4]%
.... . .
x4 y[x4]...
.... . .
Figura III.1.1. Esquema de la F�ormula de Newton.
La programaci�on del polinomio de interpolaci�on es muy facil, adem�as
que se puede utilizar la plaza ocupada por yi. En efecto la primera columna
del esquema es utilizada por los yi, se remarca inmediatamente que yn
aparece una vez en los calculos, por consiguiente las �ultimas n�1 lugares dela columna son utilizados por los n � 1 valores de las diferencias divididas
que aparecen en la segunda columna, quedando el primer valor de y0, y se
continua de esta manera hasta obtener y[x0; : : : ; xn].
III.1 Interpolaci�on de Lagrange 109
Un caso particular en la determinaci�on del polinomio de interpolaci�on
ocurre cuando la subdivisi�on de los puntos es uniforme, es decir
xi = x0 + ih; i = 0; : : : ; n; (III:1:6)
donde h = (xn � x0)=n. Para poder implementar el algoritmo de Newton
con esta subdivisi�on es necesario, las siguientes dos de�niciones.
De�nici�on III.1.10.- (Diferencias Finitas Progresivas) Sea y0; y1; : : : ; una
sucesi�on de n�umeros reales, se de�ne el operador de diferencias �nitas
progresivas de orden k de manera recursiva como sigue:
r0yi = yi; (III:1:7a)
ryi = yi+1 � yi; (III:1:7b)
rk+1yi = rk
yi+1 �rkyi: (III:1:7b)
De�nici�on III.1.11.- (Diferencias Finitas Retr�ogradas) Sea y0; y1; : : : ; una
sucesi�on de n�umeros reales, se de�ne el operador de diferencias �nitas
retr�ograda de orden k de manera recursiva como sigue:
�r0yi = yi; (III:1:8a)
�ryi = yi � yi�1; (III:1:8b)
�rk+1yi = �rk
yi � �rkyi�1: (III:1:8b)
Ahora bien, tomando una subdivisi�on uniforme x0 < : : : < xn se
tiene los dos resultados equivalentes para el polinomio de interpolaci�on de
Lagrange que pasa por los puntos (xi; yi). Utilizando las diferencias �nitas
progresivas se tiene
p(x) =
nXi=0
riy0
i!hi
i�1Yk=0
(x� xk); (III:1:9)
donde h = (xn � x0)=n y con la convenci�on
�1Yk=0
(x� xk) = 1. Utilizando las
diferencias retr�ogradas se tiene
p(x) =
nXi=0
�riyn
i!hi
i�1Yk=0
(x� xn�k); (III:1:10)
con la convenci�on
�1Yk=0
(x�xn�k) = 1. La programaci�on es la misma que para
el caso general, con la �unica diferencia que no se efect�uan divisiones. Por
110 III Interpolaci�on
consiguiente, se tiene el mismo esquema de resoluci�on para una subdivisi�on
uniforme. En la �gura III.1.2 se observa los esquemas para las diferencias
�nitas progresivas y las diferencias �nitas retr�ogradas.
x0 r0y0
&
ry0% &
x1 r0y1 r
2y0& % &
ry1 r3y0
% & % &
x2 r0y2 r
2y1 r4y0
& % & %
ry2 r3y1
% & %
x3 r0y3 r
2y2& %
ry3%
x4 r0y4
....... . .
xn �r0yn&
�ryn% &
xn�1�r0yn�1
�r2yn& % &
�ryn�1�r3yn
% & % &
xn�2�r0yn�2
�r2yn�11 �r4yn& % & %
�ryn�2�r3yn�1
% & %
xn�3�r0yn�3
�r2yn�2& %
�ryn�3%
xn�4�r0yn�4
......
. . .
Figura III.1.2. Esquemas para Diferencias Finitas
La evaluaci�on del polinomio de interpolaci�on en un punto x 2 [x0; xn] sela realiza utilizando el algoritmo de Horner, ver ejemplo secci�on I.1. Para ver
la simplicidad de la determinaci�on del polinomio de interpolaci�on utilizando
diferencias divididas, y si la subdivisi�on es uniforme, diferencias �nitas; se
tiene el siguiente:
Ejemplo
Se desea evaluar la raiz cuadrada de un n�umero positivo, por ejemplo
1; 4. Para mostrar le e�cacia y simplicidad, se va construir un polinomio
de interpolaci�on de grado 3, y con tal efecto se utiliza los puntos donde
la raiz cuadrada es exacta como una expresi�on decimal.
xi 1; 00 1; 21 1; 44 1; 69
yi 1; 00 1; 10 1; 20 1; 30
Por consiguiente, el esquema de diferencias divididas para el polinomio
de interpolaci�on, est�a dado por
1;00 1;00&
;4762% &
1;21 1;10 �;0941& % &
;4348 ;0313% & %
1;44 1;20 �;0725& %
;400%
1;69 1;30
III.1 Interpolaci�on de Lagrange 111
de donde el polinomio de interpolaci�on es igual a
p(x) =1 + 0; 476(x� 1)� 0; 094(x� 1)(x� 1; 21)
+ 0; 031(x� 1)(x� 1; 21)(x� 1; 44);
y p(1; 4) = 1; 183.
El Error de Interpolaci�on
Sea f(x) una funci�on que cumple ciertas condiciones, se supone que se
hace pasar un polinomio de interpolaci�on por los puntos (xi; f(xi)), la
pregunta natural es saber que error se comete con el c�alculo del polinomio
de interpolaci�on, es decir p(x) � f(x) vale cuanto, para un x determinado.
Es por esta raz�on que los siguientes teoremas ser�an enunciados para tener
una idea del error cometido.
Teorema III.1.12.- Sea f(x) n-veces continuamente diferenciable y
yi = f(xi), i = 0; : : : ; n; los xi todos diferentes.
Entonces existe � 2 (minxi;maxxi) tal que
y[x0; x1; : : : ; xn] =f(n)(�)
n!: (III:1:11)
Demostraci�on.- Se de�ne la funci�on r(x) por
r(x) = f(x) � p(x);
donde p(x) es el polinomio de interpolaci�on que pasa por (xi; f(xi)),
i = 0; : : : ; n. Se observa inmediatamente que r(xi) = 0 para i = 0; : : : ; n;
por el teorema de Rolle se deduce que r0(x) se anula al menos una vez en
cada subintervalo [xi; xi+1], es decir existe �i1 2 (xi; xi+1), para i = 0; : : : ; n.
Aplicando una vez m�as Rolle se deduce que r00(x) tiene n � 1 ceros en el
intervalo [x0; xn], �nalmente aplicando el teorema de Rolle las veces que
sean necesarias se llega a la conclusi�on que r(n) tiene al menos un cero en el
intervalo requerido. Por otro lado
r(n)(x) = f
(n)(x)� n!y[x0; : : : ; xn]:
�
Teorema III.1.13.- Sea, f n+1 veces continuamente diferenciable y p(x) el
polinomio de interpolaci�on de grado n de�nido por (xi; f(xi)), i = 0; : : : ; n y
xi 6= xj si i 6= j. Entonces 8x, 9� 2 (min(x0; : : : ; xn; x);max(x0; : : : ; xn; x)),tal que
f(x)� p(x) = (x � x0)(x � x1) � � � (x� xn)f(n+1)(�)
(n+ 1)!: (III:1:12)
112 III Interpolaci�on
Demostraci�on.- Se deja x �jo, se plantea xn+1 = x. Sea �p(x) el polinomio
de interpolaci�on de grado n + 1 que pasa por (xi; f(xi)), i = 0; : : : ; n + 1.
Por consiguiente
�p(x) = p(x) +
nYk=0
(x� xk)y[x0; : : : ; xn+1];
por el teorema anterior, se tiene
�p(x) = p(x) +
nYk=0
(x � xk)f(n+1)(�)
(n+ 1)!;
�p(x) = f(x), de donde el teorema queda demostrado. �
Ejemplo
Para el ejemplo de la implementaci�on del m�etodo de diferencias divididas
para calcular el valorp1; 4, la funci�on interpolada es
px. El intervalo de
estudio del polinomio de interpolaci�on de grado 3 est�a dado por [1; 1; 69],
x0 = 1, x1 = 1; 21, x2 = 1; 44 y x3 = 1; 69. Por lo tanto
f(x) =px;
f0(x) = �1
2x�
12 ;
f00(x) =
1
4x�
32 ;
f(3)(x) = �3
8x�
52 ;
f(4)(x) =
15
16x�
72 ;
por consiguiente��f(4)(x)
�� � 1516 para x 2 [1; 1; 69], lo cual implica que el
error cometido en el c�alculo depx est�a dado por:
��px� p(x)
�� � 15
16 � 4! j(x� 1)(x� 1; 21)(x� 1; 44)(x� 1; 69)j ;���p1; 4� p(1; 4)��� � 3; 45:10�5:
El teorema II.1.13 da un resultado sobre el error cometido durante el
proceso de interpolaci�on. Este error depende de la derivada n�umero n + 1
de la funci�on f , �este depende por lo tanto de la funci�on a interpolar y est�a
III.1 Interpolaci�on de Lagrange 113
fuera de alcanze. Pero tambi�en el error depende de la subdivisi�on x0; : : : ; xn,
por lo tanto en cierta manera es controlable. De ah�� una pregunta natural
surge: Sea [a; b] un intervalo. >C�omo escoger x0; x1; : : : ; xn, tales que
maxx2[a;b]
j(x � x0)(x � x1) � � � (x � xn)j �! min ? (III:1:13)
Polinomios de Chebichef
La respuesta de la anterior interrogante, est�a en el estudio de los polinomios
de Chebichef, que ya fueron tratados en la secci�on II.4.
De�nici�on III.1.14.- El n-simo polinomio de Chebichef est�a de�nido en el
intevalo [�1; 1] por la siguiente relaci�on
Tn(x) = cos(n arccosx): (III:1:14)
Por lo tanto T0(x) = 1, T1(x) = x, etc.
Los polinomios de Chebichef tienen las siguientes propiedades, que vale
la pena enunciarlas en la siguiente proposici�on.
Proposici�on III.1.15.- Los polinomios de Chebichef satisfacen:
a) T0(x) = 1, T1(x) = x y
Tn+1(x) = 2xTn(x) � Tn�1(x): (III:1:15)
b) Se tiene para n entero no negativo:
jTn(x)j � 1; para x 2 [�1; 1]; (III:1:16)
Tn
�cos
�k�
n
��= (�1)k; (III:1:17)
Tn
�cos
�2k + 1
2n�
��= 0; (III:1:18)
para k = 0; 1; : : : ; n� 1:
Demostraci�on.- El inciso a) se demuestra utilizando el hecho que
cos((n+ 1)') = 2cos' cos(n')� cos((n� 1)'):
La primera parte del inciso b) es consecuencia de la de�nici�on del n-si-
mo polinomio de Chebichef. Las dos �ultimas relaciones provienen de las
ecuaciones cosn' = 0 y jcosn'j = 1. �
114 III Interpolaci�on
Finalmente, es facil observar que el coe�ciente del t�ermino dominante
de Tn para n > 0 es igual a 2n�1: Los polinomios de Chebichef T0; T1; T2 y
T3 pueden observarse en la �gura III.1.3.
T0(x) T1(x)
T2(x) T3(x)
Figura III.1.3. Los cuatro primeros polinomios de Chebichef:
Teorema III.1.16.- Sea q(x) un polinomio de grado n con coe�ciente
dominante 2n�1 para n � 1 y q(x) diferente a Tn(x). Entonces
maxx2[�1;1]
jq(x)j > maxx2[�1;1]
jTn(x)j = 1: (III:1:19)
Demostraci�on.- La demostraci�on se la realiza por el absurdo. Se supone
que existe un polinomio q(x) de grado n, tal que
jq(x)j � 1 para jxj � 1;
III.1 Interpolaci�on de Lagrange 115
de donde r(x) = q(x)�Tn(x) polinomio no nulo de grado al menos n�1, peror(x) posee al menos n raices, lo que contradice que r(x) sea una polinomio
de grado menor o igual n� 1. �
Teorema III.1.17.- Si xk = cos
�(2k + 1)�
2(n+ 1)
�, entonces
maxx2[�1;1]
j(x� x0) � � � (x� xn)j
es minimal respecto a todas las divisiones x0 < x1 < : : : < xn con
xi 2 [�1; 1].
Demostraci�on.- Se tiene:
(x� x0) � � � (x � xn) = Tn+1(x)2�n
;
(x� �x0) � � � (�x � xn) = q(x)2�n:
�
Para construir una divisi�on �optima para cualquier intervalo [a; b], se
toma los puntos xk de�nidos por
xk =a+ b
2+b� a
2xk; (III:1:20)
donde los xk son los ceros del n+ 1-simo polinomio de Chebichef.
Estudio de los Errores de Redondeo
En esta subsecci�on, se estudiar�a la incidencia de los errores de redondeo
en la determinaci�on del polinomio de interpolaci�on, m�as precisamente en
los polinomios de interpolaci�on de tipo Lagrange. Hay que recalcar que
los errores de redondeo en el c�alculo del polinomio interpolante est�a muy
relacionado con el concepto de estabilidad del algoritmo de determinaci�on
del polinomio de interpolaci�on.
El problema es el siguiente: Dada una subdivisi�on x0; : : : ; xn, determinar
p(x) de grado n tal que p(xi) = yi, i = 0; : : : ; n. En el c�alculo se cometen
errores de redondeo por un lado, y por otro lado los datos iniciales tienen una
parte de error de redondeo. Para simpli�car el estudio de la estabilidad del
polinomio de interpolaci�on, los errores de redondeo a considerar son aquellos
presentes en los yi, y se supone que no se comete errores de redondeo en
los c�alculos propiamente dichos y que los xi son considerados por su valor
exacto.
El teorema III.1.7 a�rma la existencia de un polinomio de interpolaci�on
de grado n de tipo Lagrange para (xi; yi), i = 0; : : : ; n y los xi diferentes,
116 III Interpolaci�on
durante la demostraci�on de este teorema se vio de manera expl��cita la forma
que deb��a tener este polinomio, recordando se enuncia el siguiente teorema:
Teorema III.1.18.- Sean (xi; yi), i = 0; 1; : : : ; n, los xi diferentes entre si,
p(x) el polinomio de grado n que satisface p(xi) = yi. Entonces
p(x) =
nXi=0
yili(x); (III:1:21)
donde li(x) =
nYj=0j 6=i
(x� xj)
(xi � xj): (III:1:22)
Como se dijo al inicio de esta subsecci�on, se considerar�a los errores de
redondeo cometidos en los yi, es decir
�yi = yi(1 + �i); donde j�ij � eps:
De�niendo el polinomio �p(x) por �p(xi) = �yi, i = 0; : : : ; n. Realizando c�alculos
y mayoraciones se obtiene:
p(x)� �p(x) =
nXi=0
(yi � �yi| {z }��iyi
)li(x);
jp(x)� �p(x)j �nXi=0
j�ij jyij jli(x)j
� eps jyjmax
nXi=0
jli(x)j ;
jp(x)� �p(x)jjyjmax
� eps
nXi=0
jli(x)j :
De�nici�on III.1.19.- La constante de Lebesgue asociada a la subdivisi�on
x0 < x1 < � � � < xn, est�a dada por
�n = max[x0;xn]
nXi=0
jli(x)j : (III:1:23)
Ejemplos
a) Para la divisi�on equidistante xj = �1 + 2jn, j = 0; : : : ; n. Se puede
mostrar que la constante de Lebesgue se comporta asint�oticamente,
cuando n �! 1, como
�n �2n+1
en logn; (III:1:24)
III.1 Interpolaci�on de Lagrange 117
En el ejercicio 7 de esta secci�on, se indica c�omo se calcula num�ericamente
estas constantes, en la tabla III.1.1 est�an los resultados de estos c�alculos.
b) Para la divisi�on con puntos de Chebichef xj = � cos�2j + 1
2n+ 2�
�, se
puede mostrar que la constante de Lebesgue se comporta asint�otica-
mente, cuando n �!1, como
�n �2
�
logn: (III:1:25)
Tabla III.1.1. Constantes de Lebesgue
n
Divisi�on
Equidistante
Divisi�on
de Chebichef
10 29:900 2:0687
20 10987: 2:4792
30 6:6011 � 106 2:7267
40 4:6925 � 109 2:9044
50 3:6398 � 1012 3:0432
60 2:9788 � 1015 3:1571
70 2:5281 � 1018 3:2537
80 2:2026 � 1021 3:3375
90 1:9575 � 1024 3:4115
100 1:7668 � 1027 3:4779
Por los valores dados en la tabla, no se debe utilizar polinomios de
interpolaci�on de grado superior a 20, si la divisi�on utilizada es equidistante.
Tratar en lo posible de utilizar los puntos de Chebichef para interpolaci�on.
En la �gura III.1.4 se tienen las gra�cas de l11 para n = 18 para las divi-
siones equidistantes y de Chebichef. En la �gura III.1.5, se ve claramente los
errores cometidos por redondeo utilizando puntos equidistantes al interpolar
la funci�on sin(�x).
118 III Interpolaci�on
−1 0 1
−5
0
5
puntos equidistantespuntos equidistantes
−1 0 1
puntos Chebichefpuntos Chebichef
Figura III.1.4. Gr�a�ca de un Polinomio de Lagrange.
−1 0 1
−1
0
1n=15n=15
−1 0 1
−1
0
1n=20n=20
−1 0 1
−1
0
1n=30n=30
−1 0 1
−1
0
1n=40n=40
Figura III.1.5. Interpolaci�on de sin(�x).
III.1 Interpolaci�on de Lagrange 119
Convergencia de la Interpolaci�on
En esta subsecci�on, se analizar�a el problema de la convergencia de la
interpolaci�on. Sea f : [a; b] �! R, para cada entero natural se considera
una subdivisi�on de [a; b] dada por
x
(n)0 < x
(n)2 < � � � < x
(n)n ;
pn(x) el polinomio de interpolaci�on respecto a esta subdivisi�on. Se desear��a
saber que sucede cuando n �!1, es decir
jf(x)� p(x)j n!1�����! ?:
Teorema III.1.20.- Sea f 2 C1[a; b] tal que��f(n)(x)
�� � M para todo
x 2 [a; b] y para todo n 2 N, seanx
(n)0 < x
(n)2 < � � � < x
(n)n
ouna sucesi�on de
subdivisiones de [a; b]. Entonces
maxx2[a;b]
jf(x)� pn(x)jn!1�����! 0; (III:1:25)
donde pn(x) es el polinomio de interpolaci�on de grado n, respecto a las
subdivisiones dadas.
Demostraci�on.- Utilizando el teorema III.1.13 y la hip�otesis que las
derivadas de cualquier orden son acotadas se tiene
jf(x)� pn(x)j =���(x� x
(n)0 ) � � � (x� x
(n)n )��� ��f (n+1)(�)
��(n+ 1)!
�M
(b� a)n+1
(n+ 1)!
n!1�����! 0:
�
Las funciones exponencial , senos y cosenos son acotadas y sus derivadas
lo son tambi�en, motivo por el cual estas funciones pueden ser aproximadas
por polinomios de interpolaci�on teniendo asegurada la convergencia de la
interpolaci�on. El teorema III.1.20 da condiciones su�cientes para asegurar
la convergencia, no obstante existen muchas otras funciones cuyas derivadas
de orden superior no est�an acotadas por una sola constante M , por ejemplo
funciones racionales. Por lo tanto es necesario poder enunciar otras condi-
ciones para asegurar convergencia, o de lo contrario para decidir que sucede
divergencia en el proceso de interpolaci�on.
Para poder comprender m�as aspectos de la convergencia o divergencia
de la interpolaci�on es necesario introducir algunas de�niciones y resultados
importantes en el estudio de la aproximaci�on de funciones por polinomios.
120 III Interpolaci�on
Consid�erese la aplicaci�on Ln que a la funci�on f asocia su polinomio
de interpolaci�on en los puntos x0; x1; : : : ; xn: Ln(f) = pn. Se remarca
inmediatamente que esta aplicaci�on es lineal, ademas si Pn es el espacio
de los polinomios de grado igual o menor a n se tiene
8q 2 Pn; Ln(q) = q:
Se puede mostrar, ver ejercicios, que
�n = maxg2C
0[a;b]
g 6=0
kLn(g)k1kgk
1
;
de manera que la constante �n representa la norma del operador Ln respecto
a la norma de la convergencia uniforme en C0[a; b]. Por otro lado se obtieneel siguiente teorema de mayoraci�on sobre el error de interpolaci�on.
Teorema III.1.21.- Dados una funci�on f 2 C0[a; b] y su polinomio de
interpolaci�on de Lagrange en los puntos x0; : : : ; xn, se tiene
kf � pnk1 � (1 + �n)En(f); (III:1:26)
donde En(f) = infq2Pn
kf � qk1.
Demostraci�on.- Para todo q 2 Pn, se tiene
f � pn = (f � q)� (pn � q) = (f � q)� Ln(f � q);
por consiguiente
kf � pnk1 � kf � qk1+ kLn(f � q)k
1� (1 + �n) kf � qk
1;
el resultado se obtiene tomando la cota inferior sobre los q 2 Pn: �
De�nici�on III.1.22.- La cantidad En(f) se llama el grado de aproximaci�on
de la funci�on f por los polinomios de grado� n, respecto a la norma de la
convergencia uniforme.
Examinando los diferentes factores de la mayoraci�on dada por el anterior
teorema, la cantidad �n depende solamente de la subdivisi�on tomada del
intervalo [a; b], mientras que En(f) depende solamente de la funci�on f . En el
estudio de la estabilidad se vio �n para dos tipos de subdivisi�on, los puntos
de Chebichef y los equidistantes, se ha podido demostrar que �n es minimal
cuando se toman los puntos de Chebichef, pero en todos las sucesiones de
subdivisiones dadas al principio de este paragrafo, se tiene
limn!1
�n =1:
III.1 Interpolaci�on de Lagrange 121
Como �n es la norma del operador Ln, consecuencia del teorema de
Banach-Steinhauss, se tiene que, cualquiera sea la sucesi�on de subdivisiones
x
(n)0 ; : : : ; x
(n)n , existe una funci�on continua f , tal que Ln(f) no converge uni-
formente hacia f cuando n!1.
El siguiene paso es estudiar el comportamiento de En(f), cuando
n!1; esto est�a intimamente ligado a la regularidad de la funci�on f y m�as
particularmente a su m�odulo de continuidad, denotado por !(f; h), de�nido
por
!(f; h) = maxt;t02[a;b]
jt�t0j�h
jf(t)� f(t0)j : (III:1:27)
Se veri�ca facilmente las propiedades siguientes del m�odulo de continuidad:
i) la funci�on h ! !(f; h) de�nida sobre R+ es positiva, creciente y
subaditiva, es decir: 8h1; h2 � 0; !(f; h1 + h2) � !(f; h1) + !(f; h2),
ii) si n 2 N, !(f; nh) � n!(f; h); si � 2 R+ , !(f; �h) � (1 + �)!(f; h),
iii) si f 2 C0[a; b], limh!0
!(f; h) = 0 y la funci�on h ! !(f; h) es continua
sobre R+ ,
iv) si f 2 C1[a; b], !(f; h) � h kf 0k1.
Teorema III.1.23.- Existe un real M , independientemente de n, a y b, tal
que para todo n � 1 y toda f 2 C0[a; b], se tiene
En(f) �M!
�f;
b� a
n
�: (III:1:28)
Demostraci�on. El cambio de variable s = (x � a)=(b � a) permite de
trasladarse al caso en que a = 0; b = 1; f 2 C0[0; 1], lo que se supondr�a a
continuaci�on.
Consid�erese primero el caso en que n = 2p es par, y planteando
jn(t) =1
�n
0B@sin�(p+1)t
2
�sin
t
2
1CA4
=1
�n
nX
k=0
cos(p� 2k)t
2
!4
;
donde �n es escogido de manera queR ���
jn(t)dt = 1, es evidente que jn
puede escribirse bajo la forma
jn(t) = a0n + a1n cos t+ � � �+ ann cosnt: (III:1:29)
Planteando g(t) = f(jcos tj), est�a claro que g es una funci�on par, continua
sobre R y peri�odica de periodo �, adem�as !(g; h) � !(f; h) porque jt� t0j �
122 III Interpolaci�on
h ) jjcos tj � jcos tjj � h. Continuando con la demostraci�on se introduce la
funci�on
'n(s) =
Z �
��
g(t)jn(s� t)dt =
Z �
��
g(s� t)jn(t)dt;
se tiene
g(s)� 'n(s) =
Z �
��
(g(s)� g(s� t))jn(t)dt;
de donde
jg(s)� 'n(s)j �Z �
��
j(g(s)� g(s� t))j jn(t)dt
�Z �
��
!(g; jtj)jn(t)dt = 2
Z �
0
!(g; t)gn(t)dt
� 2
Z �
0
(1 + nt)jn(t)dt � !(g; 1=n); por la propiedad ii:
Utilizando las mayoraciones2
�
� sinx
x
� 1 para x 2 [0; �=2], se obtiene
Z �
0
tjn(t)dt �C
n
;
ver ejercicio 12, por lo tanto se tiene
jg(s)� 'n(s)j � 2(1 + C)!(g;1
n
):
Se remarca queZ �
��
g(t) cos(k(s� t))dt = cos ks
Z �
��
g(t) cos(kt)dt+ sin ks
Z �
��
g(t) sin(kt)dt
= cos ks
Z �
��
g(t) cos(kt)dt;
puesto que g es una funci�on par.
Resulta de (III.1.29) y de la de�nici�on de 'n que existe pn 2 Pn tal que
para todo s 2 R, 'n(s) = pn(cos s), por consiguiente se tiene
maxx2[0;1]
jf(x)� pn(x)j � maxs2Rjf(jcos sj)� pn(cos s)j = max
s2Rjg(s)� 'n(s)j
� 2(1 + C)!(g; 1=n) � 2(1 + C)!(f; 1=n):
El caso en que n = 2p + 1 es impar se deduce del precedente remarcando
que E2p+1(f) � E2p(f) y que !(f; (b� a)=n) � 2!(f; (b� a)=(n+ 1)). �
III.1 Interpolaci�on de Lagrange 123
Corolario III.1.24.- Teorema de Weirstrass. Sea [a; b] un intervalo cerrado
y acotado de R, entonces el conjunto de las funciones polinomiales es denso
en C0[a; b] para la topolog��a de la convergencia uniforme
Demostraci�on.- En efecto, por la propiedad iii) del m�odulo de continuidad,
se tiene que
limn!1
!
�f;
b� a
n
�= 0;
por consiguiente limn!1
En(f) = 0. para toda funci�on f 2 C0[a; b]. �
Corolario III.1.25.- Se supone que f 2 Cp[a; b], p � 0, entonces para todo
n > p se tiene
En(f) �Mp+1 (b� a)p
n(n� 1) � � � (n� p+ 1)!
�f(p);
b� a
n� p
�: (III:1:30)
Demostraci�on.- Por el teorema III.1.23, el corolario es cierto para p = 0,
sup�ongase cierto el enunciado del corolorio para p y sea f 2 Cp+1[a; b], se
tiene por lo tanto f 0 2 Cp[a; b], de donde 8n > p+ 1
En�1(f0) �M
p+1 (b� a)
(n� 1) � � � (n� p)!
�f(p+1)
;
b� a
n� 1� p
�:
Se puede mostrar, ver Crouzeix, Cap��tulo I.3, que existe q 2 Pn�1 tal
que kf 0 � qk1
= En�1(f0). Planteando por lo tanto p(x) =
R xaq(t)dt y
'(x) = f(x) � p(x), se tiene p 2 Pn, entonces En(f) = En('), adem�as
k'0k1
= kf 0 � qk1
= En�1(f0). Aplicando el teorema III.1.23 a la funci�on
' y la propiedad iv) del m�odulo de continuidad, se obtiene
En(f) = En(') �M!
�';
b� a
n
��M
b� a
n
k'0k1;
de donde
En(f) �Mp+2 (b� a)p+1
n(n� 1) � � � (n� p)!
�f(p+1)
;
b� a
n� p� 1
�:
�
Utilizando las estimaciones dadas para las constantes de Lebesgue y
el teorema III.1.21, se obtiene las mayoraciones siguientes del error de
interpolaci�on de Lagrange si f 2 Cp[a; b]:a) En el caso que los xi son equidistantes,
kf � pnk1 � Cp
(b� a)p2n
np+1 logn
!
�f(p);
b� a
n� p
�;
124 III Interpolaci�on
b) En el caso de los puntos de interpolaci�on de Chebichef
kf � pnk1 � Cp(b� a)plogn
np !
�f(p);
b� a
n� p
�;
este resultado con p = 0, da el resultado de Bernstein que dice que el
interpolante de Lagrange con los puntos de Chebichef converge hacia f del
momento en que limh!0
!(f; h) logh = 0, que es el caso si f 2 C1[a; b].
Teorema III.1.26.- Si la funcion f 2 C1[a; b], si los puntos utilizados
durante el proceso de interpolaci�on son puntos de Chebichef, entonces
limn!1
pn = f:
La utilizaci�on de los puntos de Chebichef en la aproximaci�on de una
funci�on continuamente diferenciable en un intervalo [a; b], no implica nece-
sariamente convergencia num�erica, pues el c�alculo del polinomio interpolante
por medio de computadoras est�a imbuido de errores de redondeo. Por lo
tanto hay que tener mucho cuidado cuando se utilizan muchos puntos de
interpolaci�on.
Fen�omeno de Runge
Hasta ahora, se ha visto condiciones su�cientes para asegurar la convergencia
de la interpolaci�on de una funci�on por polinomios. Tambi�en se ha mostrado
que la utilizaci�on de puntos de Chebichef en la interpolaci�on de una funci�on
continuamente derivable permit��a la convergencia. En esta parte, se ver�a
que tener una funci�on continuamente derivable y una divisi�on equidistante
no es una condici�on su�ciente de convergencia. Con el siguiente ejemplo
se ilustrar�a el conocido fen�omeno de Runge. En la �gura III.1.6, puede
apreciarse que la interpolaci�on de Lagrange diverge cuando la divisi�on es
equidistante. Mientras, que en la �gura III.1.7. utilizando subdivisiones de
Chebichef se tiene convergencia. En lineas punteadas se tiene la gr�a�ca de
la funci�on a interpolar.
−1 0 10
1
n=5
−1 0 10
1
n=10
−1 0 10
1
n=15
−1 0 10
1
n=20
Figura III.1.6. Interpolaci�on con puntos equidistantes.
III.1 Interpolaci�on de Lagrange 125
−1 0 10
1
n=5
−1 0 10
1
n=10
−1 0 10
1
n=15
−1 0 10
1
n=20
Figura III.1.7. Interpolaci�on con puntos de Chebichef.
Sea f : [�1; 1] �! R, de�nida por
f(x) =1
1 + 25x2;
funci�on que es inde�nidamente derivable. Sean x
(n)0 ; : : : ; x
(n)n la divisi�on
equidistante de [�1; 1], pn(x) el polinomio de interpolaci�on de grado n de la
funci�on f respecto a la subdivisi�on dada anteriormente. Prolongando f(x) al
plano complejo, se tiene que f(z) tiene polos simples en z =1
5i y en z = �1
5i.
Se considera un camino cerrado simple C tal que [�1; 1] � interior de C, y lospolos est�en en el exterior de C. Por consiguiente se puede aplicar la f�ormulade Cauchy para integrales complejas, de donde
f(x) =1
2i�
ZC
f(z)
z � x
dz:
1−1
c
Se de�ne el polinomio �n(x) de grado n por
�n(x) = (x� x(n)0 )(x� x
(n)1 ) � � � (x � x
(n)n );
Por otro lado se comprueba facilmente que la expresi�on
(�n(z)��n(x))=(z�x) es un polinomio de grado n respecto a x, de�niendo
el polinomio de grado n, q(x) por
q(x) =1
2i�
ZC
f(z)
z � x
(�n(z)��n(x))
�n(z)dz; (III:1:31)
se veri�ca que q(x(n)i ) = f(x
(n)i ), de donde se ha mostrado el teorema
siguiente.
126 III Interpolaci�on
Teorema III.1.27.- Si f es una funci�on racional con polos fuera de C.Entonces el error de interpolaci�on est�a dado por
f(x)� pn(x) =1
2i�
ZC
f(z)
z � x
�n(x)
�n(z)dz; (III:1:32)
donde pn es el polinomio de interpolaci�on.
Introduciendo valores absolutos, se obtiene
jf(x)� pn(x)j �1
2�
ZC
jf(z)jjz � xj
�����n(x)
�n(z)
���� jdzj ;por consiguiente se debe analizar el comportamiento cuando n �! 1 de la
expresiones que aparecen en la integral precedente. Se tiene convergencia si�����n(x)
�n(z)
���� < �n;
con � < 1, de lo contrario cuando n �! 1 jf(x)� pn(x)j diverge. Porconsiguiente hay convergencia en x 2 [�1; 1] si y solamente si
limn!1
n
s�����n(x)
�n(z)
���� < 1: (III:1:33)
En lugar de la expresi�on (III.1.33), se puede utilizar
ln n
pj�n(z)j =
1
n
ln (j�n(z)j)
=2
2n
nXj=0
ln jz � xj j ;
como los xj son equidistantes, cuando n �!1 se tiene
limn!1
ln n
pj�n(z)j =
1
2
Z 1
�1
ln jz � tj dt
=1
2<Z 1
�1
log(z � t)dt
=1
2<f(z + 1) log(z + 1) + (1� z) log(z � 1)g � 1:
De�niendo G(z) por
G(z) = exp
�1
2<f(z + 1) log(z + 1) + (1� z) log(z � 1)g � 1
�; (III:1:34)
III.1 Interpolaci�on de Lagrange 127
se obtiene que
limn!1
n
pj�n(z)j = G(z):
Si x 2 R, la funci�on G es igual a
G(x) = exp
�1
2ln(x+ 1)(x+1) +
1
2ln(1� x)(1�x) � 1
�=p(1 + x)1+x(1� x)1�x=e:
Para decidir si la interpolaci�on converge para un x dado se debe tener
necesariamente G(z)=G(x) < 1, esto sucede solamente si jxj < 0; 72668.
La �gura III.1.8 muestra una gra�ca de G(x) y en la �gura III.1.7 est�an
dadas las curvas de nivel para G(z).
2/e
1/e
0 1−1
Fig. III.1.8. Gr�a�ca de G(x):
x
y
G(z)=2/e
1ó
Fig. III.1.9. Curvas de nivel de G(z):
Ejercicios
1.- Demostrar por inducci�on
y[x0; : : : ; xn] =
nXj=0
yj
Yi6=j
1
xj � xi
;
4ny0 =
nXj=0
�n
j
�yj(�1)n�j :
2.- Sup�ongase conocidos los valores de la funci�on de Bessel
J0(x) =1
�
Z �
0
cos(x sin t)dt:
128 III Interpolaci�on
para los puntos equidistantes xi = x+ 0 + ih, i 2 Z.a) >Para que h, el error de la interpolaci�on lineal es menor a 10�11?
b) La misma pregunta para la interpolaci�on cuadr�atica.
3.- Calcular el polinomio de interpolaci�on de grado n = 10 y n = 20, que
pasa por (xi; f(xi)), i = 0; 1; : : : ; n, donde f(x) = 1=(1 + 25x2).
a) xi = �1 +2i
n
.
b) xi = cos(2i+ 1
2n+ 2�).
Hacer gr�a�cas, estudiar los errores.
4.- Sea p(x) el polinomio de interpolaci�on de grado 1 de una funci�on f dos
veces continuamente derivable. Mostrar que el error satisface
f(x)� p(x) =
Z x1
x0
G(x; t)f 00(t)dt (�)
con
G(x; t) =
8>><>>:1
h
(x� x0)(t� x1) si x � t
1
h
(t� x0)(x � x1) si x � t
:
Dibujar la funci�on G(x; �). Deducir de (�) el resultado del teorema
III.1.13.
5.- Sean x0 < x1 < � � � < xn y li(x) =
nYj=0j 6=i
(x � xj)
(xi � xj).
Veri�car que la funci�on
�n(x) =
nXi=0
jli(x)j
tiene un solo m�aximo local sobre cada [xi�1; xi]
Indicaci�on: Sobre [xj�1; xj ] se tiene a �n(x) =
nXi=0
�ili(x) con � = �1.
6.- Si la funci�on f : [x0; x1] �! R tiene solamente un m�aximo local y si
x0 < a < b < x1, entonces
f(a) � f(b) =) x� 2 [a; x1];
f(a) � f(b) =) x� 2 [x0; b];
donde f(x�) = maxx2[x0;x1]
f(x).
III.1 Interpolaci�on de Lagrange 129
7.- Calcular las constantes de Lebesque
�n = maxx2[�1;1]
nXi=0
jli(x)j ; n = 10; 20; : : : ; 100;
a) para la divisi�on equidistante xi = �1 + 2i=n, i = 0; 1; : : : ; n;
b) para los puntos de Chebichef.
Calcular el maximo de f(x) =
nXi=0
jli(x)j sobre [xj�1; xj ] con la b�usqueda
de Fibonacci:
x1 = xj ; x0 = xj�1; = (p5� 1)=2;
d = (x1 � x0);
a = x1 � d; b = x0 + d;
10 d = d;
si (f(a) � f(b)) entonces
x0 = a; a = b; b = x0 + d
si no
x1 = b; b = a; a = x1 � d;
si (x1 � x0 � 10�14) vaya a 10
si no, �nal.
x a xb0 1
x a b x
xbax0 1
10
8.- Sean dados (xi; yi; y0
i), i = 0; 1; : : : ; n, los xi distintos entre si.
Mostrar que existe un �unico polinomio q(x) de grado 2n+ 1 tal que
q(xi) = yi; q(xi) = y0
i (i = 0; : : : ; n):
Utilizar la f�ormula de Newton con (x0; y0), (x0+�; y0+�y0
0); : : : y estudiar
su l��mite cuando �! 0:
>Qu�e f�ormula se obtiene para n = 2?, utilizar y[xi; xi] = y0
i, Generalizar
el ejercicio para cualquier polinomio de Hermite y obtener un esquema
de c�alculo semejante a la �gura III.1.1.
9.- Se considera la funci�on f(s) = js(s� 1) � � � (s� n)j de�nida para s 2[0; n].
a) Mostrar que f alcanza su maximo en un punto sn 2 (0; 1=2) y que
sn �1
lnncuando n!1.
b) Mostrar que limn!1
[f(1= lnn)(lnn=n!)] = 1=e, deducir que existe
c1 > 0 tal que 8n > 1; f(sn) �c1n!
lnn.
130 III Interpolaci�on
Sean fx0; x1; : : : ; xng n+1 puntos equidistantes sobre el intervalo [a; b]
con x0 = a y xn = b. Mostrar que existe una constante C2 tal que
8n > 1: maxx2[a;b]
�����nYi=0
(x� xi)
����� � C2e�n
pn lnn
(b� a)(n+1):
10.- Conservando las notaciones, construir una funci�on f 2 C0[a; b] tal quekLn(f)k1 = � kfk
1y kf � Ln(f)k1 = (1 + �n) kfk1.
11.- Se considera el conjunto fx0; : : : ; xng de n + 1 puntos diferentes del
intervalo [a; b] y �n la constante de Lebesgue correspondiente a la
interpolaci�on de Lagrange en estos puntos. Se plantea
li(�) =
nYj=0j 6=i
cos � � cos �j
cos �i � cos �jcon �i = arccos((2xi � (a+ b))=(b� a));
i = 0; : : : ; n.
a) Mostrar que:
�n = max�2R
nXi=o
���li(�)���! ;
cos k(� � ') + cos k(� + ') =
nXi=0
[cos k(�i � ') + cos k(�i + ')] li(�);
0 � k � n:
b) Planteando 'n(�) =
nXi=0
hli(� + �i) + li(� � �i)� li(�)
i, mostrar que:
'n(�) = 1 + 2
nXk=1
cos k� =sin((n+ 1=2)�)
sin(�=2);
si F (�) =1
2�
Z �
��
signo('n(� � s))'n(s)ds; entonces
3�n � kFk1 =1
�
Z �
��
j'n(s)j d� �2
�
Z (n+1=2)�
0
j�j�
d� = n;
n � n�1 =4
n�2+O
�1
n3
�cuando n!1;
n �4
�2lnn cuando n!1:
12.- Sea jn la funci�on de�nida en la demostraci�on del teorema III.1.23. con
n = 2p. Mostrar que 8p � 1,Z �
0
tkjn(t)dt � ck=n
k;
para k = 1 y 2.
III.2 Splines C�ubicos
En la secci�on precedente, se ha visto c�omo determinar el polinomio de
interpolaci�on. Existen dos problemas de gran magnitud cuando se requiere
encontrar un polinomio de interpolaci�on dado un conjunto (xi; yi), i =
0; : : : ; n; el primero consiste en la inestabilidad de la interpolaci�on de
Lagrange cuando n es grande, por ejemplo para n � 20 no es aconsejable
tomar puntos equidistantes. El segundo problema es que aun obteniendo el
polinomio de interpolaci�on, �este no re eja la verdadera forma de la funci�on
a interpolar, por ejemplo, para una funci�on racional, se desear��a que el
interpolante tenga la menor curvatura promedio, tal como se gra�ca con
una sercha. Por consiguiente, dados los puntos a = x0 < x1 < � � � < xn = b
y los reales yi con i = 0; : : : ; n se busca una funci�on spline s, tal que:
s(xi) = yi i = 0; : : : ; n(i)
s 2 C2([a; b]);(ii)
s de curvatura peque~na.(iii)
La curvatura de s est�a dada por
�(x) =(s00(x)
(1 + (s0(x))2)32
;
suponiendo que s0(x) es despreciable, se obtiene s00(x) = �(x), por consi-
guiente la condici�on, se expresa de la siguiente formaZ xn
x0
(s00(x))2dx �! min : (III.2:1)
En la �gura III.2.1 se observa dos gr�a�cas: la de la izquierda es de un
polinomio de interpolaci�on de tipo Lagrange; mientras que en la derecha
es la gr�a�ca del spline interpolante que pasa por los mismos puntos.
Figura III.2.1. Spline de Interpolaci�on
132 III Interpolaci�on
De�nici�on III.2.1.- Un spline c�ubico es una funci�on s : [a; b] �! R con
a = x0 < x1 < � � � < xn = b, que satisface:
s 2 C2[a; b]; (III:2:2a)
sj[xj�1;xj ] polinomio de grado 3: (III:2:2b)
Teorema III.2.2.- Dados (xi; yi), i = 0; : : : ; n, con a = x0 < x1 < � � � <xn = b. Sean:
s : [a; b] �! R un spline con s(xi) = yi,
f : [a; b] �! R una funci�on con f(xi) = yi,
si
s00(b)[f 0(b)� s
0(b)] = s00(a)[f 0(a)� s
0(a)]; (III:2:3)
entonces Z b
a
[s00(x)]2dx �Z b
a
[f 00(x)]2dx:
La condici�on (III.2.3) es satisfecha si por ejemplo s00(a) = s00(b) = 0, o
por ejemplo si f 0(a) = s0(a) y f 0(b) = s
0(b).
De�nici�on III.2.3.- Si s00(a) = s00(b) = 0, el spline se llama spline natural.
Si f 0(a) = s0(a) y f 0(b) = s
0(b) el spline se dice �jo en los bordes.
Demostraci�on.- Calculando las integrales, se obtieneZ b
a
[f 00(x)]2dx�Z b
a
[s00(x)]2dx =
Z b
a
[f 00(x)� s00(x)]2dx| {z }
� 0
+ 2
Z b
a
s00(x)[f 00(x)� s
00(x)]dx:
Para demostrar la a�rmaci�on del teorema, es su�ciente mostrar que la
segunda integral del miembro derecho de la ecuaci�on es nula. En efecto,
integrando por partes, se tieneZ b
a
s00(x)[f 00(x) � s
00(x)]dx = s00(x)[f 0(x)� s
0(x)]jba| {z }= 0 por (III:2:2)
�Z b
a
s000(x)[f 0(x)� s
0(x)]dx
=�nXj=1
�j
Z xj
xj�1
[f 0(x) � s0(x)]dx
=�nXj=1
�j [f(x)� s(x)]jxjxj�1= 0:
�
III.2 Splines C�ubicos 133
Construccion del Spline Interpolante
En este paragrafo, se determinar�a expl��citamente el spline interpolante. Para
tal efecto sea a = x0 < x1 < � � � < xn = b una divisi�on cualquiera del inter-
valo [a; b]; y sean y0; y1; : : : ; yn n�umeros reales. Se desea construir s : [a; b] �!R, el spline tal que s(xi) = yi. Llamando si = sj[xi�1; xi] : [xi�1; xi] �! R.Por consiguiente se busca una representaci�on de si, utilizando los siguientes
datos:
yi�1; yi; pi�1 = s0
i(xi�1); pi = s0
i(xi): (III:2:4)
Por lo tanto, si(x) es igual a
si(x) =yi�1 + y[xi�1; xi](x � xi�1)
+ (x� xi�1)(x� xi)�a(x� xi�1) + b(x� xi)
�; (III:2:5)
faltando determinar los valores de a y b. Planteando hi = xi � xi�1 y
derivando (III.2.5) en los puntos xi�1 y xi, se obtiene:
pi�1 = s0(xi�1) = y[xi�1; xi] + h
2i b; (III:2:6)
pi = s0(xi) = y[xi�1; xi] + h
2i b; (III:2:7)
de donde
si(x) =yi�1 + y[xi�1; xi](x � xi�1)
+(x� xi�1)(x� xi)
h2i
�(pi � y[xi�1; xi])(x� xi�1)
+ (pi�1 � y[xi�1; xi])(x� xi)�: (III:2:8)
Ahora bien, se debe determinar los pi, i = 0; : : : ; n de manera que s 2 C2[a; b].Por consiguiente:
s00
i (xi) = s00
i+1(xi) i = 1; : : : ; n� 1;
Utilizando la regla de Leibnitz
(fg)00(x) = f00(x)g(x) + 2f 0(x)g0(x) + f(x)g00(x);
se obtiene:d2
dx2
�(x� xi�1)
2(x� xi)
����x=xi
= 4hi;
d2
dx2
�(x� xi�1)(x � xi)
2
����x=xi
= 2hi;
134 III Interpolaci�on
de donde:
s00
i (xi) =1
hi
�4(pi � y[xi�1; xi]) + 2(pi�1 � y[xi�1; xi])
�;
s00
i+1(xi) =1
hi+1
�2(pi+1 � y[xi; xi+1]) + 4(pi � y[xi; xi+1])
�por lo tanto,
pi�1
hi
+ 2pi
�1
hi
+1
hi+1
�+pi+1
hi+1
= 3
�y[xi�1; xi]
hi
+y[xi; xi+1]
hi+1
�; (III:2:9)
para i = 1; : : : ; n�1. Es as�� que se ha obtenido n�1 ecuaciones, teniendo n+1ecuaciones, las dos ecuaciones que faltan para obtener un sistema completo,
se obtienen de las condiciones de borde para x0 y xn.
Si el spline es natural, se tiene s00(a) = s00(b) = 0, obteniendo:
2p0
h1
+p1
h1
= 3y[x0; x1]
h0
(III:2:10a)
2pn�1
hn
+pn
hn
= 3y[xn�1; xn]
hn
(III:2:10b)
Si el spline est�a �jado en los bordes, se tiene s0(a) = f0(a) y s0(b) = f
0(b),
obteniendo:
p0 = f0(a); (III:2:11a)
pn = f0(b): (III:2:11b)
Existen muchos otros tipos de spline, como por ejemplo peri�odicos, de
Bezier, etc. Las condiciones de borde son diferentes, pero las ecuaciones dadas
por (III.2.9) son esencialmente las mismas, estos aspectos ser�an desarrollados
con m�as detalle posteriormente o en la parte de los ejercicios.
Por otro lado, las ecuaciones que determinan los pi pueden escribirse de
manera matricial. A continuaci�on, se dar�an las notaciones matriciales para
los splines natural y �jo.0BBBBBBBB@
2h1
1h1
0
1h1
2( 1h1
+ 1h2
) 1h2
0 1h2
2( 1h2
+ 1h3
) 1h3
. . .. . .
. . .1
hn�12( 1
hn�1+ 1hn
) 1hn
1hn
2hn
1CCCCCCCCA
0BBBBBBBBBB@
p0
p1
p2
...
pn�1
pn
1CCCCCCCCCCA=
0BBBBBBBB@
3h1
y[x0;x1]
3h1
y[x0;x1]+3h2
y[x1;x2]
3h2
y[x1;x2]+3h3
y[x2;x3]
...3
hn�1y[xn�2;xn�1]+
3hn
y[xn�1;xn]
3hn
y[xn�1;xn]
1CCCCCCCCAMatriz del spline natural.
III.2 Splines C�ubicos 135
0BBBB@2( 1
h1+ 1h2
) 1h2
1h2
2( 1h2
+ 1h3
) 1h3
. . .. . .
. . .1
hn�12( 1
hn�1+ 1hn
)
1CCCCA
0BBBBBBB@
p1
p2
...
pn�1
1CCCCCCCA=
0BBBB@3h1
y[x0;x1]+3h2
y[x1;x2]�p0h1
3h2
y[x1;x2]+3h3
y[x2;x3]
...3
hn�1y[xn�2;xn�1]+
3hn
y[xn�1;xn]�pn
hn
1CCCCA
Matriz del spline �jo en los bordes.
Denotando A, la matriz del spline natural como �jo en los bordes, se tiene
el siguiente teorema.
Teorema III.2.4.- La matriz A es inversible, es decir
detA 6= 0:
Demostraci�on.- Se mostrar�a que la siguiente implicaci�on es cierta
Ap = 0 =) p = 0:
Sup�ongase que Ap = 0, entonces
pi�1
hi
+ 2pi(1
hi
+1
hi+1
) +pi+1
hi+1
= 0;
se denota por pio a
jpio j = maxijpij ;
por consiguiente
2 jpio j (1
hio
+1
hio+1
) � jpio jhio
+jpio jhio+1
;
de donde
2 jpio j � jpio j :�
En uno de los ejercicios de la secci�on II.1, se muestra que el problema de
encontrar los pi es un problema bien condicionado. Por otra lado la resoluci�on
de este sistema se procede facilmente con el algoritmo de Eliminaci�on de
Gauss, si n no es muy grande; en el caso contrario con un m�etodo iterativo
utilizando el hecho que A es sim�etrica y de�nida positiva.
136 III Interpolaci�on
El Error de la Aproximaci�on Spline
Se ha visto en el paragrafo anterior, que la construcci�on del spline inter-
polante es muy simple, solo se requiere resolver un sistema tridiagonal de
ecuaciones lineales. En esta parte, se insistir�a en las estimaciones del error
cometido en el proceso de interpolaci�on spline.
Sean f : [a; b] �! R una funci�on, a = x0 < x1 < � � � < xn = b una
subdivisi�on del intervalo [a; b] y �nalmente s(x) el spline �jo en los bordes
que interpola f , es decir
s(xi) = f(xi); i = 0; : : : ; n;
s0(x0) = f
0(x0);
s0(xn) = f
0(xn);
se desear��a saber que error se comete, en otras palabras
jf(x)� s(x)j � ?
Teorema III.2.5.- Si f 2 C4[a; b], a = x0 < x1 : : : < xn = b una
subdivisi�on, hi = xi � xi�1, los pi derivadas en los nudos del spline �jo
en los bordes. Entonces
jf 0(xi)� pij �h3
24
f (4) 1
; (III:2:12)
donde h = maxhi. Si adem�as, la divisi�on es equidistante, se tiene
jf 0(xi)� pij �h4
60
f (5) 1
: (III:2:13)
Adem�as del inter�es del resultado del teorema que servir�a para la
estimaci�on del error, se tiene un medio simple para calcular las derivadas
de f en los puntos xi.
Demostraci�on.- La demostraci�on del caso general es muy similar a la
del caso de los puntos equidistantes, aqu�� se mostrar�a el caso equidistante,
dejando al lector el caso general. La construcci�on del spline est�a dada por
las ecuaciones
1
h
(pi�1 + 4pi + pi+1)�3
h2(f(xi+1)� f(xi�1)) = 0: (III:2:14)
Se de�ne qi, i = 1; : : : ; n� 1, por
qi =1
h
�f0(xi�1) + 4f 0(xi) + f
0(xi+1)�� 3
h2
�f(xi+1)� f(xi�1)
�(III:2:15)
III.2 Splines C�ubicos 137
Por otra lado, utilizando el teorema de Taylor con resto en el punto xise tiene:
f(xi+1) = f(xi) + hf0(xi) +
h2
2!f00(xi) +
h3
3!f(3)(xi)
+h4
4!f(4)(xi) + h
5
Z 1
0
(1� t)4
4!f(5)(xi + th)dt;
f0(xi+1) = f
0(xi) + hf00(xi) +
h2
2!f(3)(xi) +
h3
3!f(4)(xi)
+ h4
Z 1
0
(1� t)3
3!f(5)(xi + th)dt;
de donde, introduciendo en (III.2.15), se obtiene
qi =h3
Z 1
0
�(1� t)3
3!� 3
(1� t)4
4!
�f(5)(xi + th)dt
+ h3
Z 1
0
�(1� t)3
3!� 3
(1� t)4
4!
�f(5)(xi � th)dt:
Utilizando el teorema del valor medio y calculando la integralZ 1
0
�(1� t)3
3!� 3
(1� t)4
4!
�dt =
1
60;
se obtiene �nalmente que
qi =1
60h3�f(5)(�i) + f
(5)(�i)�;
con �i 2 [xi�1; xi] y �i 2 [xi; xi+1], por consiguiente
qi �h3
20
f (5) 1
: (III:2:16)
Restando (III.2.14) con (III.2.15), se tiene
ei = f0(xi)� pi;
que es soluci�on del sistema de ecuaciones
1
h
[ei�1 + 4ei + ei+1] = qi; i = 1; : : : ; n� 1:
Sea io tal que
jeio j = maxi=1;:::;n
jeij ;
138 III Interpolaci�on
en consecuencia, se tiene:
4eio = hqio � eio�1 � eio+1;
4 jeio j � h jqio j+ jeio�1j+ jeio+1j� h jqio j+ jeio j+ jeio j ;
de donde �nalmente
jeij � jeio j �h
2jqio j :
�
Antes de poder estimar el error cometido por el polinomio de interpo-
laci�on spline, es necesario el siguiente teorema.
Teorema III.2.6.- Si xi = x0 + ih, con h = (b � a)=n, f 2 C5[a; b]; s(x)el spline �jo en los bordes, y p(x) el polinomio de interpolaci�on de Hermite
sobre el intervalo [xi�1; xi], tal que
p(xj) = s(xj); p0(xj) = f
0(xj); j = i� 1; i:
Entonces
jp(x)� s(x)j � h5
240
f (5) 1
para x 2 [xi�1; xi]: (III:2:17)
Demostraci�on.- El polinomio de Hermite, utilizando (III.2.8), est�a dado
por
p(x) =yi�1 + y[xi�1; xi](x � xi�1)
+(x � xi�1)(x� xi)
h2i
�(f 0(xi)� y[xi�1; xi])(x � xi�1)
+ (f 0(xi�1)� y[xi�1; xi])(x � xi)�; (III:2:18)
restando (III.2.18) con (III.2.8), se obtiene
p(x)� s(x) =(x � xi�1)(x� xi)
h2i
�(f 0(xi)� pi)(x� xi�1)
+ (f 0(xi�1)� pi�1)(x � xi)�;
por lo tanto
jp(x)� s(x)j � jx� xi�1j jx� xijh4 f(5) 1
60[jx� xij+ jx� xi�1j]
� h5
240
f (5) 1
:
�
III.2 Splines C�ubicos 139
Ahora bien, para tener una estimaci�on del error de la interpolaci�on
spline, solo falta conocer el error cometido por el polinomio de interpolaci�on
de Hermite, estimaci�on que est�a dada en el siguiente teorema.
Teorema III.2.7.- Sean, f 2 [x0; x1], h = x1 � x0, p(x) el polinomio de
interpolaci�on de Hermite que satisface:
p(xi) = f(xi); i = 0; 1;
p0(xi) = f
0(xi); i = 0; 1;
entonces
jf(x)� p(x)j � h4
384
f (4) 1
: (III:2:19)
Demostraci�on.- Sean � > 0 su�cientemente peque~no, p�(x) el polinomio de
interpolaci�on que satisface:
p�(x0) = f(x0); p�(x0 + �) = f(x0 + �);
p�(x1) = f(x1); p�(x1 � �) = f(x1 � �):
Por el teorema (III.1.13), se tiene para todo �.
jf(x)� p�(x)j � j(x� x0)(x� x0 � �)(x � x1 = �)(x� x1)j f(4)
4!;
haciendo tender � hacia 0, se obtiene
jf(x)� p(x)j ���(x� x0)
2(x� x1)2�� f (4)
4!
� h4
384
f (4) :�
Finalmente, con los anteriores teoremas se puede dar la siguiente esti-
maci�on del error del spline �jo en los bordes.
Teorema III.2.8.- Sean, f 2 C5[a; b], xi = x0 + ih, i = 0; : : : ; n, con
h = (b� a)=n, s(x) el spline �jo en los bordes de la funci�on f respecto a la
subdivisi�on equidistante, entonces
jf(x)� s(x)j � h4
384max
x2[xi�1;xi]
���f (4)(x)���+ h5
240
f (5) 1
: (III:2:20)
140 III Interpolaci�on
Demostraci�on.- Su�ciente utilizar la desigualdad del tri�angulo en los dos
anteriores teoremas, es decir
jf(x)� s(x)j � jf(x)� p(x)j+ jp(x) � s(x)j :�
Los resultados obtenidos en los teoremas de esta subsecci�on han sido
demostrados para el caso de divisiones equidistantes, no obstante modi�-
cando las demostraciones para divisiones m�as generales se puede obtener
resultados similares en la mayoraci�on del error de la interpolaci�on spline, no
hay que sorprenderse que las mayoraciones sean muy parecidas al del caso
equidistante, con la diferencia que h est�e elevado a una potencia de un grado
menor.
Por otro lado, los teoremas enunciados consideran el caso del spline �jo
en los bordes, para los otros tipos de spline, las mayoraciones del error de
interpolaci�on se deben efectuar utilizando los resultados anteriores m�as un
error debido al cambio de tipo de spline.
Teorema III.2.9.- Sean, f 2 C5[a; b], xi = x0 + ih, i = 0; : : : ; n; con
h = (b � a)=n, s(x) el spline �jo en los bordes, s(x) es el spline natural.
Entonces
js(x) � s(x)j � h2
8max
x2I1[Injf 00(x)j + h
5
240
f (5) 1
; (III:2:21)
donde I1 = [x0; xn] y In = [xn�1; xn].
Demostraci�on.- Sustrayendo los sistemas lineales que determinan pi y pi
en la construcci�on de los splines �jo en los bordes y natural, se obtiene:
(pi�1 � pi�1) + 4(pi � pi) + (pi+1 � pi+1) = 0 i = 0; : : : ; n� 1;
2(p0 � p0) + (p1 � p1) = C0;
2(pn � pn) + (pn�1 � pn�1 = Cn;
donde:
C0 = 3y[x0; x1]� 2p0 � p1; Cn = 3y[xn�1; xn]� 2pn � pn�1:
Sea io 2 f0; 1; : : : ; ng, tal que
jpio � pio j = maxijpi � pij:
Ahora bien,io = 0, o bien io = n, por que de lo contrario se tendr��a
4 jpio � pio j � jpio�1 � pio�1j+ jpio+1 � pio+1j � 2 jpio � pio j :
III.2 Splines C�ubicos 141
Suponiendo que io = 0, se tiene la siguiente mayoraci�on
jpi � pij � jp0 � p0j � C0;
en el otro caso, se obtiene
jpi � pij � jpn � pnj � Cn:
Utilizando la f�ormula de Taylor, con resto en forma de integral, se obtiene
para la funci�on f en el punto x0, los siguientes resultados:
f(x1)� f(x0) = hf0(x0) + h
2
Z t
0
(1� t)f 00(x0 + th)dt; (III:3:22)
f0(x1) = f
0(x0) + h
Z 1
0
f00(x0 + th)dt; (III:3:23)
y en el punto xn los siguientes resultados:
f(xn�1)� f(xn) = �hf 0(xn) + h2
Z t
0
(1� t)f 00(xn � th)dt;
f0(xn�1) = f
0(xn)� h
Z 1
0
f00(xn � th)dt:
La f�ormula (III.3.13) del teorema III.3.5, conduce a las estimaciones:
p1 = f0(x1) + �
h4
60
f (5) 1
; con j�j � 1; (III:3:24)
pn�1 = f0(xn�1) + �
0h4
60
f (5) 1
; con j�0j � 1:
Suponiendo que io = 0, introduciendo (III.3.22-24) en C0, se obtiene
C0 = 3f 0(x0) + h
Z 1
0
(1� t)f 00(x0 + th)dt� 2f 0(x0)� f0(x0)
� h
Z 1
0
f00(x0 + th)dt� �
h4
60
f (5) 1
= �hZ 1
0
tf00(x0 + th)dt� �
h4
60
f (5) 1
;
de donde
jC0j �1
2hmaxx2I1jf 00(x)j + h
4
60
f (5) 1
:
142 III Interpolaci�on
Si io = n, se obtiene similarmente
jCnj �1
2hmaxx2In
jf 00(x)j + h4
60
f (5) 1
:
La diferencia de ambos splines est�a mayorada por lo tanto por
jp(x)� p(x)j =����(x � xi�1)(x� xi)
h2
[(pi � pi)(x � xi�1) + (pi�1 � pi�1)(x� xi)]
����h
4
�1
2max
x2I1[Injf 00(x)j + h
5
60
f (5) 1
�(jx� x� xi�1j+ jx� xij)
� h2
8max
x2I1[Injf 00(x)j+ h
5
240
f (5) 1
:
�
El spline �jo en los bordes es m�as preciso que el natural, siempre y
cuando se conozca los valores de la derivada de la funci�on interpolada en
los bordes. En la demostraci�on del �ultimo teorema puede observarse que la
diferencias de los pi veri�can una ecuaci�on de diferencias �nitas con valores
en la frontera, resolviendo esta ecuaci�on puede observarse que la diferencia
entre los pi es mucho menor en los nudos centrales, que en aquellos que est�an
cerca de los bordes. Por consiguiente la estimaci�on del teorema (III.2.9) es
muy pesimista, en la pr�actica la diferencia de los errores es menor.
Aplicaci�on de spline
Al inicio de esta secci�on, los splines fuer�on abordados como un instrumento
num�erico de aproximaci�on, como una alternativa a la interpolaci�on poli-
nomial de tipo Lagrange. Esto debido a sus propiedades de no presentar
problemas de inestabilidad num�erica, por sus cualidades de convergencia y
por la poca curvatura que presentan.
Figura III.2.1. Aplicaci�on gr�a�ca de los splines
III.2 Splines C�ubicos 143
Ahora bien, los splines son utilizados tambi�en como un instrumento
gr�a�co. Una gran cantidad de los algoritmos desarrollados en gra�smo
asistido por computadora, utilizan ampliamente los splines en sus diferentes
versiones. En la �gura III.2.2, se observa con claridad la potencia de la
interpolaci�on spline. En el dibujo de la izquierda, se tiene los puntos unidos
por segmentos rectilinios, mientras que en el dibujo de la derecha unidos por
splines.
Ejercicios
1.- Considerar puntos equidistantes xi = x0+ih, h > 0. Mostrar que existe
un �unico spline llamado B-spline, tal que para un j �jo se tiene:
s(xj) = 1;
s(x) = 0 si jx� xj j � 2h:
Dibujar.
2.- Desarrollar una f�ormula para los splines peri�odicos.
Mostrar la existencia y la unicidad del spline que pasa por (xi; yi),
i = 0; : : : ; n, tal que
s0(x0) = s
0(xn); s00(x0) = s
00(xn):
3.- Escribir una subrutina SPLICO(N,X,Y,DY,P,A,B).
Los datos son N, X(0:N), Y(0:N) y P(0), P(N). La subrutina debe
dar como valores DY(0:N-1) diferencias divididas, P(0:N) los pi,
A(0:N-1) los (pi � y[xi�1; xi]) y B(0:N-1) los (pi�1 � y[xi�1; xi]).
4.- Escribir una funcion SPLIVA(N,X,Y,DY,A,B,T) que calcula el valor del
spline en el punto T. Examinarla sobre varias funciones de su elecci�on.
5.- Sea xi = x0+ih, i = 0; : : : ; n, una divisi�on equidistante y lj(x) el spline
de tipo Lagrange que satisface(1; si i = j;
0; sino;
y l0j(x0) = 0, l0j(xn) = 0. Para las pendientes pi = lj(xi) mostrar:
� 3
h
< pj <2
h
;
: : : ; pj�3 > 0; pj�2 < 0; pj�1 > 0; pj+1 < 0; pj+2 > 0; : : : :
144 III Interpolaci�on
6.- Los splines lj(x) del anterior ejercicio no cambian de signo en ning�un
intervalo [xi�1; xi].
7.- Sobre el intervalo [xi�1; xi]
nXi=0
jlj(x)j = ti(x)
es el spline que satisface(1 si j = i+ 2k o j = i� 2k � 1 con k = 0; 1; : : : ;
�1 sino.
8.- Utilizando SPLICO y SPLIVA de los ejercicios 3 y 4. Calcular para
xi = i=n, n = 20:
a) el spline l7(x),
b) la funci�on
nXi=0
jli(x)j,
hacer dibujos. Veri�car las propiedades de los ejercicios 5, 6 y 7.
III.3 Extrapolaci�on
En las dos primeras secciones, se ha abordado la interpolaci�on polinomial y
la interpolaci�on spline como un medio de aproximaci�on dentro un intervalo
cerrado y acotado [a,b]. Sin embargo estos procedimientos no sirven cuando
se trata de determinar el valor de una funci�on o el l��mite de una funci�on
de�nida en un intervalo abierto (a; b) o mas aun si la funci�on est�a de�nida
en un intervalo no compacto.
En esta secci�on, se estudiar�a la extrapolaci�on por medio de funciones
polinomiales, como una consecuencia natural de los resultados obtenidos en
la primera secci�on de este cap��tulo. Por otro lado, se ver�a que la extrapolaci�on
polinomial, no es solamente un instrumento para determinar valores fuera
de cierto rango, si no tambi�en como un medio para acelerar la convergencia
de suceciones convergentes.
Sea f : (0; 1] �! R, se desea determinar
limx!0+
f(x); (III:3:1)
sabiendo que se puede determinar sin ning�un problema f(h) para h > 0.
Los otros casos de determinaci�on de l��mite se convierten el primer caso por
traslaci�on af��n, o planteando h = 1=x si se desea determinar el l��mite cuando
x ! 1. Por consiguiente se supondr�a que f tiene un desarrollo asimt�otico
por derecha de la forma
f(h) = a0 + a1h+ � � �+ anhn +O(hn+1); h > 0: (III:3:2)
Sea 1 � h0 > h1 > � � � > hn > 0 una subdivisi�on decreciente del intervalo
(0; 1], por lo tanto
limx!0+
f(x) � p(0); (III:3:3)
donde p(x) es el polinomio de interpolaci�on que pasa por (hi; f(hi)),
i = 0; : : : ; n. Escogiendo adecuadamente estos hi se puede obtener un
algoritmo facil y sencillo de implementar, para este efecto es necesario la
siguiente proposici�on.
Proposici�on III.3.1.- Sean (xi; yi), i = 0; 1; : : : ; n, los xi diferentes entre
si, p1(x) el polinomio de interpolaci�on de grado n� 1 que pasa por (xi; yi),
i = 0; : : : ; n � 1, y p2(x) el polinomio de interpolaci�on de grado n � 1 que
pasa por (xi; yi), i = 1; : : : ; n: entonces el polinomio p(x) de grado n que
pasa por (xi; yi), i = 0; : : : ; n; est�a dado por
p(x) = p1(x)xn � x
xn � x0
+ p2(x)x� x0
xn � x0
: (III:3:4)
146 III Interpolaci�on
Demostraci�on.- Se puede ver facilmente que p(x) es un polinomio de grado
menor o igual a n, En los nudos, excepto para i = 0 o i = n, se tiene
p(xi) =xn � xi
xn � x0
p1(xi) +xi � x0
xn � x0
= yi
�xn � xi
xn � x0
+xi � x0
xn � x0
�;
para i = 0 y i = n veri�caci�on inmediata. �
Corolario III.3.2.- Con las mismas hip�otesis del teorema precedente, se
tiene
p(0) =p1(0)xn � p2(0)x0
xn � x0
= p1(0) +p1(0)� p2(0)
xn=x0 � 1:
(III:3:5)
Demostraci�on.- Veri�caci�on inmediata. �
Ahora bien, volviendo al problema de extrapolaci�on, sea f : (0; 1] �! R;1 � h0 > h1 > � � � > hn > 0 una subdivisi�on decreciente del intervalo (0; 1].
Suponiendo que f admite el desarrollo asint�otico por derecha, dado por
f(h) = a0 + a1h+ � � �+ anhn +O(hn+1);
p(x) el polinomio de interpolaci�on que pasa por (xi; f(xi)), i = 0; : : : ; n;
entonces se puede suponer
limh!0+
f(x) � p(0):
De�niendo pj;k el polinomio de interpolaci�on de grado � k que pasa por
(hi; f(hi)), j � k; j; se tiene por consiguiente
p(x) = pn;n(x): (III:3:6)
Utilizando la proposici�on III.3.1 y el corolario III.3.2 se tiene las siguientes
relaciones recursivas para determinar p(0):
pj0(0) =f(hj); (III:3:7a)
pj;k+1(0) =pj;k(0) +pj;k(0)� pj�1;k(0)
hj�k�1=hj � 1: (III:3:7b)
III.3 Extrapolaci�on 147
De donde estas relaciones recursivas pueden expresarse en un tablero, con la
convenci�on de llamar pj;k = Tj;k.
Tabla III.3.1. Tablero de Extrapolaci�on.
h0 T00
h1 T10 T11
h2 T20 T21 T22
h3 T30 T31 T32 T33
h4 T40 T41 T42 T43 T44
......
......
.... . .
Los cocientes hj�k�1=hj se deducen facilmente del tablero, se toma como
numerador el hi que se encuentra en la misma diagonal a Tk;l y como
denominador el hi que se encuentra en la misma �la que Tk;l.
Ejemplo
Un procedimiento para calcular �, es considerar la serie
� = 4
1Xk=0
(�1)k 1
2k + 1:
Lastimosamente esta serie converge muy lentamente para obtener una
precisi�on deseada de �, pero se puede acelerar la convergencia de
esta serie utilizando el procedimiento de extrapolaci�on de Richardson,
formulado anterioremente. Se de�ne hk = 1=(2k + 1),
f(hk) = 4
kXj=0
(�1)j 1
2j + 1;
obteniendo as�� el tablero siguiente
2.6667
2.8952 3.2381
2.9760 3.1781 3.1030
3.0171 3.1607 3.1302 3.1619
3.0418 3.1533 3.1367 3.1465 3.1292
3.0584 3.1495 3.1391 3.1434 3.1391 3.1500
3.0703 3.1473 3.1401 3.1424 3.1408 3.1431 3.1356
3.0792 3.1459 3.1407 3.1420 3.1413 3.1420 3.1407 3.1461
3.0861 3.1450 3.1410 3.1418 3.1414 3.1417 3.1414 3.1422 3.1381
3.0916 3.1443 3.1411 3.1417 3.1415 3.1417 3.1415 3.1417 3.1412 3.1444
3.0962 3.1438 3.1413 3.1417 3.1416 3.1416 3.1416 3.1416 3.1415 3.1419 3.1393
148 III Interpolaci�on
La pr�actica en la extrapolaci�on num�erica muestra que es pr�actico y
conveniente utilizar sucesiones de la forma hj = 1=nj , donde fnjg1j=0 es una
sucesi�on creciente de n�umeros naturales, por consiguiente la f�ormula (III.3.7)
se convierte en
pj0(0) = f(hj);
pj;k+1(0) = pj;k(0) +pj;k(0)� pj�1;k(0)
nj�k�1=nj � 1:
(III:3:8)
Las tres sucesiones de enteros positivos crecientes son:
i) Arm�onica: 1; 2; 3; 4; 5 : : :;
ii) Romberg: 1; 2; 4; 8; 16; : : :;
iii) Bulirsch: 1; 2; 3; 4; 6; 8; ; 12; 16; : : :,
es decir los enteros de la forma 2i y 3 � 2i.
Teorema III.3.3.- Sea f : (0; 1] �! R, sup�ongase que f tiene el desarrollo
asint�otico por derecha en x = 0, para k = 0; 1; 2; : : : ; ko; dado por
f(x) = a0 + a1x+ � � �+ akxk +Rk+1(x);
con jRk+1(x)j � Ck+1xk+1, para x > 0. Sea hj = 1=nj, con nj una sucesi�on
creciente de naturales, entonces el procedimiento de extrapolaci�on de�nido
por (III.3.8) veri�ca la siguiente propiedad:
Si para todo j > 0 se tiene hj+1=hj � r < 1, entonces
8k con 0 � k � ko; Tm;k = a0 +O(hk+1m�k): (III:3:9)
Demostraci�on.- Escribiendo el polinomio de interpolaci�on de grado � k,
se tiene
f(x) = pmk(x) +Rk+1(x);
de donde
pmk(x)� f(x) =
mXi=m�k
Rk+1(hi)lm;k;i(x); (III:3:10)
con lm;k;i(h) =
mYj=m�k
j 6=i
h� hj
hi � hj
. Para x = 0, se deduce que
Tmk � a0 =
mXi=m�k
mYj=m�kj 6=i
hj=hi
hj=hi � 1Rk+1(hi):
III.3 Extrapolaci�on 149
Si j < i, se mayora
���� hj=hi
hj=hi � 1
���� por 1
1� ri�j
, mientras que
si i < j, se mayora
���� hj=hi
hj=hi � 1
���� por rj�i
1� rj�i
, �nalmente jRk+1(hi)j por
Ck+1
�ri�m+k
hm�k
�k+1, deduciendo
jTm;k � a0j � C(k; r)Ck+1hk+1m�k
donde C(k; r) es una constante independiente de m. �
La convergencia hacia a0 es obtenida en cada una de las columnas del
tablero, para la primera columna la convergencia es O(hm), para la segundacolumna la velocidad de convergencia est�a dada por O(h2m�1), y para la
k-esima columna la velocidad de convergencia es igual a O(hk+1m�k+1). Por
consiguiente, si a1 6= 0 la convergencia de la k-esima columna es k veces mas
rapida que de la primera columna.
Las sucesiones de Romberg y Bulirsch satisfacen las condiciones del
teorema III.3.3 con r = 1=2 y r = 3=4. Sin embargo la otra sucesi�on utilizada
ampliamente en las extrapolaciones num�ericas como ser la arm�onica no
cumple el requisito que hj+1=hj � r < 1. No obstante se tiene a disposici�on
el siguiente teorema.
Teorema III.3.4.- Mismas hip�otesis del teorema III.3.3 para la funci�on f ,
se de�ne hn = 1=n. Entonces se tiene:
8k con 0 � 2k � ko Tmk = a0 +O(hk+1m ): (III:3:11)
Demostraci�on.- Se tiene
Rk+1(h) = qk(h) +R2k+1(h) con
qk(h) = ak+1hk+1 + � � �+ a2kh
2k:
Utilizando (III.3.10), se deduce
Tmk � a0 =
mXi=m�k
�qk(hi)lm;k;i(0) + R2k+1(hi)lm;k;i(0)
�:
Por el teorema III.1.13, se tiene
qk(0)�mX
i=m�k
qk(hi)lm;k;i(0) =1
(k + 1)!
mYj=m�k
(�hj)q(k+1)
k (�);
150 III Interpolaci�on
lo que muestra que
mXi=m�k
qk(hi)lm;k;i(0) = O(hk+1m ):
Por otro lado
lm;k;i(0) =
mYj=m�kj 6=i
hj
hj � hi
=
mYj=m�kj 6=i
i
i� j
;
de donde jR2k+1(hi)lm;k;i(0)j � C2k+1h2k+1i i
k � C2k+1yk0y
k+1i ;
deduciendo facilmente el teorema. �
Debido al error de redondeo que se comete en el c�alculo del polinomio
de interpolaci�on, y por consiguiente en el proceso de extrapolaci�on, se debe
evitar la utilizaci�on de polinomios de interpolaci�on de grado muy elevado, la
pr�actica aconseja no pasar de 10.
Por otro lado, la extrapolaci�on num�erica es muy utilizada en la cons-
trucci�on de m�etodos de integraci�on, como tambi�en en la construcci�on de
m�etodos de resoluci�on de ecuaciones diferenciales.
Ejercicios
1.- Sea f : (0; 1] �! R una funci�on cuyo desarrollo asint�otico por derecha
en x = 0 est�a dado por
f(x) = a0 + a1x2 + � � �+ akx
2k +O(x2k+2):
Modi�car el algoritmo de Aitken-Naville, es decir el proceso de extra-
polaci�on, de manera que el n�umero de operaciones se redusca ostensi-
blemente.
2.- En esta secci�on, se da un ejemplo de c�omo acelerar la convergencia de
una sucesi�on para calcular �. Suponiendo que el desarrollo asint�otico
es par, como en el ejercicio 1, recalcule y compare.
3.- Utilizando el procedimiento de la secci�on III.1 para determinar la
in uencia de los errores de redondeo en la determinaci�on del polinomio
de interpolaci�on. Estudie la in uencia de los errores de redondeo en
la extrapolaci�on, suponiendo que los �unicos errores de redondeo que
se comete son aquellos relativos a la evaluaci�on de la funci�on f a ser
extrapolada.
4.- Calculep2, utilizando un procedimiento de extrapolaci�on, por ejemplop
1 = 1,p1; 21 = 1; 1,
p1; 44 = 1; 2,
p1; 69 = 1; 3;
p1; 96 = 1; 4;p
1; 9881 = 1; 41, : : :.
Cap��tulo IV
Ecuaciones No Lineales
En el cap��tulo II, se vio diferentes m�etodos para resolver problemas lineales,
pero tambi�en existen problemas no lineales, como por ejemplo ecuaciones
cuadr�aticas, polinomiales, trigonom�etricas y muchas otras m�as. La Historia
de las Matem�aticas muestra que los problemas lineales fueron estudiados y
resueltos en tiempos inmemoriables, pero luego el hombre confront�o otros
tipos de problemas cuya caracter��stica no era precisamente lineal. En el
caso lineal la soluci�on de un problema puede darse de manera expl��cita, es
su�ciente determinar la inversa de la matriz del sistema y multiplicar para
obtener la soluci�on de este problema. En el caso no lineal se continu�o con
esta �optica, lo cual es siempre posible bajo ciertas condiciones, como ejemplo
se tiene el teorema de la funci�on inversa, pero lastimosamente en la mayor
parte de los casos esta funci�on inversa no puede ser expresada como una
combinaci�on de funciones elementales, entendiendose como funci�on elemental
aquellas que uno estudia en colegio y los primeros semestres de universidad.
En este cap��tulo, se intentar�a de cierta manera seguir este desarrollo
hist�orico, dejando sobrentendido que el estudio de los problemas lineales en
todas sus variantes es conocido por el lector. Por consiguiente, una primera
parte ser�a dedicada al estudio de las soluciones de ecuaciones polinomia-
les, teniendo como ep��logo el Teorema de Galois. Despu�es se abordar�a los
m�etodos iterativos para encontrar la soluci�on o soluciones de una ecuaci�on,
dando condiciones para asegurar la existencia, la unicidad local y la conver-
gencia de tales m�etodos. Como una clase de m�etodo iterativo, se estudiar�a
el M�etodo de Newton, enunciando: teoremas de convergencia, existencia y
unicidad de soluciones, algunos problemas frecuentes que se encuentran en la
implementaci�on de tal m�etodo; como tambi�enmodi�caciones para simpli�car
su utilizaci�on en determinadas situaciones. Finalmente, se ver�a el equivalente
del M�etodo de los M��nimos Cuadrados, en los problemas no lineales, que es
el M�etodo de Gauss-Newton.
IV.1 Ecuaciones Polinomiales
Una de la clase de ecuaciones que se confronta a diario son las ecuaciones
polinomiales, que son de la forma
xn + a1x
n�1 + � � �+ an�1x+ an = 0; (IV:1:1)
donde los ai son n�umeros reales o complejos.
Como C es una extensi�on del cuerpo R, se puede suponer que el
problema consiste en determinar las raices o ceros de un polinomio p(x) 2C [x]. La existencia de las soluciones de una ecuaci�on polinomial est�a dada
por el Teorema Fundamental del Algebra que se lo enuncia sin demostraci�on.
Teorema IV.1.1.- Fundamental del Algebra. Sea p(x) 2 C [x] de grado n,
entonces p(x) tiene exactamente n ceros contando con su multiplicidad.
Comentando este teorema, se puede agregar que un polinomio a coe-
�entes reales puede no tener ceros reales; pero por el teorema Fundamental
del Algebra, �este tiene exactamente n raices contando con su multiplicidad.
Por otro lado, p(x) puede ser visto como una funci�on de C en C , ahora
bien toda funci�on polinomial es holomorfa, y si el polinomio es no nulo,
entonces los ceros forman un conjunto discreto, es decir que para todo cero
x0, existe un r > 0 tal que p(x) 6= 0 para todo x 2 C tal que 0 < jxj < r.
Adem�as, la utilizaci�on del teorema de Rouch�e permite de determinar los
discos donde se encuentran los ceros y complementando esta informaci�on el
n�umero exacto de ceros.
Ecuaciones Resolubles por Radicales
Tal como se dijo en la introducci�on de este cap��tulo, se ha buscado inicial-
mente la manera de expresar la soluci�on de una ecuaci�on por medio de fun-
ciones elementales. En esta subsecci�on, se ver�a precisamente esta manera de
expresar las soluciones. Se comenzar�a con el caso mas simple, las ecuaciones
cuadr�aticas.
Ecuaciones cuadr�aticas
Una ecuaci�on cuadr�atica o ecuaci�on polinomial de segundo grado es de la
forma
ax2 + bx+ c = 0; con a 6= 0;
ecuaci�on que es equivalente a
x2 +�
bx+ �c = 0; (IV:1:2)
IV.1 Ecuaciones Polinomiales 153
completando cuadrados se tiene�x+
�b
2
�2
+ �c��b2
4= 0;
obteniendo, as�� dos raices:
x1 = ��b
2+
r�b2
4� �c; x2 = �
�b
2�r�b2
4� �c: (IV:1:3)
Si�b2
4 � �c � 0, se utiliza la determinaci�on usual de la raiz cuadrada. En
caso contrario, una determinaci�on donde las raices cuadradas de n�umeros
negativos est�e de�nida.
Ecuaciones C�ubicas
Las ecuaciones c�ubicas o ecuaciones polinomiales de tercer grado son de la
forma
ax3 + bx
2 + cx+ d = 0; con a 6= 0; (IV:1:4)
esta ecuaci�on dividiendo por a se reduce a una ecuaci�on de la forma
x3 + �ax2 +�
bx+ �c = 0; (IV:1:5)
planteando �x = x+a=3, la ecuaci�on se convierte en una ecuaci�on de la forma
�x3 � 3p�x� 2q = 0: (IV:1:6)
Ahora bien, si se plantea �x = u+ v, se obtiene
u3 + 3u2v + 3uv2 + v
3 � 3p(u+ v)� 2q = 0;
de donde
u3 + v
3 + (u+ v)(3uv � 3p)� 2q = 0;
deduciendose, dos ecuaciones para u y v:(uv = p;
u3 + v
3 = 2q;
por consiguiente u3v3 = p
3, mostrando as�� que u3; v
3 son las raices del
polinomio de segundo grado
�2 � 2q�+ p
3; (IV:1:7)
154 IV Ecuaciones No Lineales
por lo tanto:
u3 = q +
pq2 � p
3; v
3 = q �pq2 � p
3;
para obtener �nalmente la f�ormula de Cardano
�x =3
qq +
pq2 � p
3 +3
qq �
pq2 � p
3: (IV:1:8)
teniendo cuidado de veri�car uv = p.
Ecuaciones polinomiales de grado cuarto
Son ecuaciones que pueden escribirse de la forma
x4 + ax
3 + bx2 + cx+ d = 0; (IV:1:9)
planteando �x = x + a=4, esta ecuaci�on se convierte en una ecuaci�on de la
forma
�x4 � p�x2 � 2q�x� r = 0; (IV:1:10)
introduciendo z 2 C en la anterior ecuaci�on, se obtiene la siguiente ecuaci�on
equivalente
(�x2 + z)2 = (2z + p)�x2 + 2q�x+ z2 + r;
se elige z de manera que el segundo miembro de la ecuaci�on precedente sea
una cuadrado perfecto, y eso ocurrre, si y solamente si
(2z + p)(z2 + r)� q2 = 0; (IV:1:11)
de donde z es raiz de una ecuaci�on de tercer grado, que ya ha sido resuelta
anteriormente. Habiendo determinado z, se tiene:
(�x2 + z)2 = (��x+ �)2; con � =p2z + p; � =
pz2 + r;
(�x2 + ��x+ z + �)(�x2 � ��x+ z � �) = 0;
por consiguiente, las cuatro raices de la ecuaci�on est�an dadas por:
x1 =��+
p�2 � 4(z + �)
2; (IV:1:12a)
x2 =���
p�2 � 4(z + �)
2; (IV:1:12b)
x3 =��+
p�2 � 4(z � �)
2; (IV:1:12c)
x4 =���
p�2 � 4(z � �)
2: (IV:1:12d)
IV.1 Ecuaciones Polinomiales 155
Ecuaciones no Resolubles por Radicales
Se ha visto que las ecuaciones polinomiales de grado igual o menor a 4 tienen
soluciones que pueden ser expresadas como una composici�on de radicales.
Las f�ormulas desarrolladas en el anterior paragrafo fuer�on estudiadas y
comprendidas hasta mediados del siglo XVI, posteriormente se atac�o al
problema de las ecuaciones de grado superior, en particular a las ecuaciones
de grado quinto. Todos los intentos iban en la direcci�on de encontrar una
f�ormula general que estuviese expresada con radicales. Pero a principios del
siglo pasado Galois mostr�o su famoso teorema que trastorno en cierta manera
el mundo matem�atico de aquella �epoca. Se enunciar�a este teorema sin dar
la demostraci�on.
Teorema IV.1.2.- Galois. No existe una f�ormula general en forma de
radicales para las ecuaciones polinomiales de grado superior o igual a 5.
Este resultado lejos de descorazonar el estudio de las ecuaciones polino-
miales constituy�o un aporte, ya que se atac�o el problema utilizando m�etodos
anal��ticos que estaban emergiendo con gran fuerza a principios y mediados
del siglo pasado. Por otro lado se abandon�o la idea de encontrar una f�ormula
general, para insistir sobre la posible ubicaci�on de los ceros de un polinomio.
Se desarrollaron m�etodos iterativos para la soluci�on de estos problemas cuyo
alcanze es mas vasto que el de las ecuaciones polinomiales.
Localizaci�on de Ceros
Como se dijo anteriormente, al no poder calcular expl��citamente las raices de
un polinomio, es importante determinar en que regi�on se encuentran estas
raices de manera de poder aplicar un m�etodo iterativo.
Sea, p(x) un polinomio a coe�cientes complejos de grado n, es decir
p(x) = a0xn + a1x
n�1 + � � �+ an;
si x es una raiz, se tiene
xn = �a1
a0
xn�1 � a2
a0
xn�2 + � � � � an
a0
:
Introduciendo la matriz de Frobenius de esta ecuaci�on, se tiene
x
0BB@xn�1
xn�2
...x
1
1CCA =
0BBBB@� a1a0
� a2a0
� � � � ana0
1
1. . .
1 0
1CCCCA| {z }
F matriz de Frobenius
0BB@xn�1
xn�2
...x
1
1CCA ;
156 IV Ecuaciones No Lineales
de donde p(x) = 0, si y solamente si x es un valor propio de F . Por lo tanto
la localizaci�on de ceros de p(x) es equivalente a localizar los valores propios
de la matriz F . A continuaci�on se da un teorema cuya demostraci�on ser�a
hecha en el cap��tulo 5.
Teorema IV.1.3.- Gerschgorin. Sean A una matriz, � un valor propio de
A, entonces existe i tal que
j�� aiij �Xj 6=i
jaij j : (IV:1:13)
Aplicando este teorema a la matrix F se tiene la siguiente estimaci�on:
Corolario IV.1.4.- La raices del polinomio p(x) = a0xn + � � � + an, con
a0 6= 0 veri�can
jxj � max
1;
nXi=1
���� aia0
����!: (IV:1:14)
Uno de los resultados pr�acticos e importantes en el �algebra de valores
propios, es que la propiedad de valor propio es invariante por trasposici�on,
por consiguiente, el:
Corolario IV.1.5.- Las mismas hip�otesis del corolario precedente, dan la
estimaci�on siguiente
jxj � max0�i�n
�1 +
���� aia0
����� : (IV:1:15)
Utilizando el teorema de Rouch�e y otros, se puede encontrar mas
estimaciones sobre la localizaci�on de los ceros de un polinomio. Por ejemplo,
en los ejercicios se debe mostrar la siguiente estimaci�on
jxj � 2 max1�i�n�1
i
s���� aia0
����; n
s���� an2a0����!: (IV:1:16)
Con el siguiente ejemplo se ver�a que existen mejores estimaciones que otras,
esto depende sobre todo del tipo de polinomio que se tiene.
Ejemplo
Se consider�a la ecuaci�on
xn � 2 = 0;
la primera estimaci�on, como la segunda dan jxj � 2n, mientras que, la
tercera da jxj � 2.
Debido a la aritm�etica de los ordenadores, el tipo REAL es un conjunto
�nito, que se asemeja mucho mas a los n�umeros racionales que los reales,
IV.1 Ecuaciones Polinomiales 157
por eso que se puede suponer que p(x) 2 Q[x]. Por otro lado, cuando los
polinomios tienen raices de multipliciad mayor a 1, la mayor parte de los
algoritmos no funcionan, debido a la inestabilidades que se pueden presentar,
o a las caracter��sticas propias de los m�etodos empleados.
Sea p(x) 2 Q[x], p0(x) su derivada, se de�ne el polinomio q(x) utilizandoel algoritmo de Euclides, por
q(x) = mcd(p; p0); (IV:1:17)
de donde el polinomio r(x) = p(x)=q(x) tiene las mismas raices que p(x)
pero todas simples. Por consiguiente, se ha visto un procedimiento simple
para reducir un polinomio p(x) a otro polinimio simple. En lo que sigue, se
puede suponer que los polinomios considerados tienen raices simples.
M�etodo de Newton
Uno de los m�etodos com�unmente utilizados en la determinaci�on de raices de
un polinomio, consiste en el uso del m�etodo de Newton. Aqu�� se formular�a
este m�etodo, sin estudiar la convergencia y el c�alculo de error, dejando �esto
para el siguiente paragrafo. Por lo tanto, el m�etodo est�a dado por la relaci�on
recursiva siguiente
| x0 arbitrario, proximo a una soluci�on.
| xk+1 = xk �p(xk)
p0(xk)
, donde p(x) es el polinomio a determinar
sus raices.
El problema consiste en determinar todas las raices reales de p(x) =
0, suponiendo que se ha encontrado la primera raiz, se podr��a utilizar
nuevamente el m�etodo de Newton utilizando otra valor, pero existe la
posibilidad de encontrar nuevamente la primera soluci�on. Para evitar esta
situaci�on se puede proceder b�asicamente de dos maneras. La primera, una
vez que se ha encontrado la raiz �1, se de�ne el polinomio
q(x) =p(x)
x� �1
; (IV:1:18)
aplicando Newton sobre q(x). El principal inconveniente de este procedi-
miento radica en el hecho que � puede no ser racional, motivo por el cual r(x)
ya no es exacto y la propagaci�on de errores de redondeo puede dar resultados
completamente alejados de la realidad. El segundo procedimiento consiste en
aplicar el m�etodo de Newton a q(x), pero sin calcular los coe�cientes de q(x).
Sea p(x) el polinomio a determinar sus raices, suponiendo que se conoce de
antemano �1; : : : ; �k raices de p(x), de donde
q(x) =p(x)
(x� �1) � � � (x � �k): (IV:1:19)
158 IV Ecuaciones No Lineales
Introduciendo el logaritmo y derivando se obtiene:
log q(x) = log p(x)�kXi=1
log(x� �i);
q0(x)
q(x)=
p0(x)
p(x)�
kXi=1
1
(x � �i): (IV:1:20)
Aplicando el m�etodo de Newton a (IV.1.19), utilizando (IV.1.20), se obtiene
como m-sima iteraci�on.
xm+1 = xm �p(xm)
p0(xm)� p(xm)
kXi=1
1
(xm � �i)
: (IV:1:21)
Este �ultimo procedimiento se conoce como el m�etodo deMaehly. Este m�etodo
es num�ericamente estable, en efecto considerando el siguiente ejemplo dado
por Stoer.
Ejemplo
Se considera el polinomio p(x) de�nido por
p(x) =
12Yj=0
(x� 2�j) = x13 + a1x
12 + � � �+ a12:
Calculando los coe�cientes en simple precisi�on e utilizando el m�etodo de
Newton en sus dos variantes se obtiene la tabla IV.1.1.
As�� mismo, el m�etodo de Newton permite encontrar las raices comple-
jas, mas precisamente las raices no reales, de una ecuaci�on polinomial. Para
tal efecto, el punto de partida debe ser un n�umero complejo no real, pues
puede observarse que partiendo de un punto real, los valores obtenidos por el
m�etodo de Newton son reales, ya sea con la primera variante, o con la mejora
de Maschley. Puede suceder que una vez encontradas todas las raices reales
del polinomio, siendo �estas no todas las raices; si no se tiene cuidado, se
producir�a un fen�omeno de oscilaci�on con el m�etodo de Newton. Por lo tanto
hay que agregar al algoritmo que a partir de un n�umero determinado de it-
eraciones, si no se ha alcanzado la convergencia hacia una raiz, se detenga el
proceso, quedando por lo tanto dos alternativas: la primera veri�car si todas
las raices reales han sido calculadas, para luego comenzar con un n�umero
complejo no real; la segunda alternativa consiste en cambiar simplemente de
punto inicial.
IV.1 Ecuaciones Polinomiales 159
Tabla IV.1.1. Error en el c�alculo de raices para un caso extremo.
METODO DIVISION METODO MAEHLY
SOL EXAC SOL NUM ERROR SOL NUM ERROR
1=1 1:00 0:0 1:000 0:0
1=2 0:500 0:950 � 10�4 0:5000 0:894 � 10�7
1=22 �0:15 0:400 0:2500 0:894 � 10�7
1=23 �0:426 0:551 0:1250 0:820 � 10�7
1=24 0:560 0:498 0:6250 � 10�1 0:138 � 10�6
1=25 �0:132 0:163 0:671 � 10�7 0:140 � 10�7
1=26 0:266 0:250 0:1562 � 10�1 0:419 � 10�8
1=27 0:157 0:149 0:7813 � 10�2 0:168 � 10�7
1=28 �0:237 �10�1 0:028 0:1953 � 10�2 0:168 � 10�7
1=29 �0:740 0:742 0:3906 � 10�2 0:291 � 10�9
1=210 0:865 0:864 0:9766 � 10�3 0:291 � 10�10
1=211 0:140 0:140 0:4883 � 10�3 :146 � 10�10
1=212 �0:179 �10�1 0:181 � 10�1 0:2441 � 10�3 0:728 � 10�10
Sucesiones de Sturm
La utilizaci�on de sucesiones de Sturm en la resoluci�on de ecuaciones polino-
miales permite determinar las raices reales y no as�� las raices no reales. En
la mayor parte de los problemas, es solo importante conocer los ceros reales,
motivo por el cual los procedimientos que utilizan sucesiones de Sturm son
muy comunes en la resoluci�on de ecuaciones polinomiales
De�nici�on IV.1.6.- Una sucesi�on ff0; f1; : : : ; fng de funciones de�nidas enR con valores reales, continuamente derivables es una sucesi�on de Sturm, si:
a) f0
0(x�)f1(x
�) < 0 si f0(x�) = 0, x� 2 R.
b) fj�1(x�)fj+1(x
�) < 0 si fj(x�) = 0, 1 � j � n� 1.
c) fn(x) no cambia de signo sobre R y es positiva
Teorema IV.1.7.- Sea ff0; f1; : : : ; fng una sucesi�on de Sturm, w(x) se
denota al n�umero de cambios de signo de ff0(x); f1(x); : : : ; fn(x)g.Entonces la funci�on f0(x) tiene exactamente w(b) � w(a) ceros en el
intervalo [a; b].
160 IV Ecuaciones No Lineales
Demostraci�on.- w(x) puede cambiar de valor solamente si uno de los
fj(x) = 0. Por consiguiente, sea x� un tal n�umero y sup�ongase que
1 � j � n � 1. Estudiando en un vecindario de x�, la funci�on w estar�a
determinada por los valores de las siguientes tablas:
x� � � x
�x� + �
fj�1 + + +
fj � 0 �fj+1 � � �
x� � � x
�x� + �
fj�1 � � �fj � 0 �fj+1 + + +
x� � � x
�x� + �
fn�1 � � �fn + 0 +
de donde w(x� + �) = w(x� � �) cuando fj(x�) = 0 para 1 � j � n.
Ahora bien, si f0(x�) = 0, estudiando alrededor de un vecindario de x�
se tiene las tablas:
x� � � x
�x� + �
f0 + 0 �f1 � � �
x� � � x
�x� + �
f0 � 0 +
f1 + + +
;
de donde w(x� + �) = w(x� � �) + 1. �
Volviendo al problema original de encontrar los ceros reales de un
polinomio p(x) con raices simples, a coe�cientes reales (racionales), el
objetivo es construir una sucesi�on de Sturm de tal manera que f0 = p.
Se de�ne la siguiente sucesi�on de polinomios de manera recursiva utilizando
la divisi�on con resto, por8>>>>>>>>>><>>>>>>>>>>:
f0(x) := p(x);
f1(x) := �p0(x);f0(x) = g1(x)f1(x)�
21f2(x);
f1(x) = g2(x)f2(x)� 22f3(x);
...
fn�1(x) = gn(x)fn(x):
(IV:1:22)
La de�nici�on de la sucesi�on (IV.1.22) es el algoritmo de Euclides para
determinar el mcd(p(x); p0(x)). Se tiene el siguiente teorema.
IV.1 Ecuaciones Polinomiales 161
Teorema IV.1.8.- Sup�ongase que p(x) solamente tiene raices simples,
entonces la sucesi�on de�nida por (IV.1.22) es una sucesi�on de Sturm.
Demostraci�on.- Puesto que p(x) tiene raices simples, si p0(x�) = 0, se tiene
p(x�) 6= 0, de donde la condici�on a) es satisfecha,
a) f0
0(x�)f1(x
�) = �(f 00(x�))2 < 0:.
b) Se cumple esta condici�on por construcci�on de la sucesi�on.
c) fn = mcd(p; p0) = C.
�
Algoritmo
Con el algoritmo de bisecci�on se separa las raices realles de p(x), es decir
se divide en la mitad un intervalo original [a; b] y se continua hasta tener
todas las raices localizadas en subintervalos [ai; bi]. Se puede continuar con
el algoritmo de bisecci�on hasta lograr la precisi�on deseada, o si no se mejora
el resultado utilizando el m�etodo de Newton.
Ejercicios
1.- El polinomio x4 � 8x3 + 24x2 � 32x + a0; a0 = 16 posee una raiz
de multiplicidad 4 en el punto x = 2. >C�omo cambian las raices del
polinomio si se remplaza a0 por �a0 = a0(1 + �) con j�j � eps? Calcular
las raices de este polinomio, >es un problema bien condicionado?
2.- Sea p(x) un polinomio de grado n a coe�cientes reales. Sup�ongase que
todas las raices �1 � �2 � � � � � �n sean reales.
a) Mostrar que el m�etodo de Newton converge hacia �1, si x0 > �1.
Indicaci�on.- Para x > �1 los valores de p(x); p0(x); p00(x) tienen
el mismo signo que limx!1
p(x). Mostrar que fxkg es una sucesi�on
mon�otona.
b) Si x0 es mucho mas grande que �1, entonces el m�etodo de Newton
converge muy lentamente. (xk+1 � xk(1� 1=h))
3.- Consid�erese el polinomio
f(x) = x6 � 3x5 + 6x3 � 3x2 � 3x+ 2:
Sin calcular las raices de este polinomio, determinar el n�umero de raices
distintas de f(x).
4.- Encontrar un algoritmo que, para un polinomio arbitrario f 2 Q[x],permita calcular la factorizaci�on
f(x) = f1(x) ��(f2(x)
�2 � �(f3(x)�3 � � � �(fk(x)�k;
162 IV Ecuaciones No Lineales
donde f1; : : : ; fk son primos entre si y donde cada polinomio fj(x) solo
tiene raices simples.
5.- Para un polinomio
f(x) = a0xn + a1x
n�1 + � � � an�1x+ an; a0 6= 0;
con coe�cientes en C , mostrar que todas las raices � satisfacen la
estimaci�on
j�j � 2max
(����a1a0
���� ;s����a1
a0
����; : : : ; n�1
s����an�1a0
����; n
s���� an2a0����): (IV:1:23)
Encontrar, para cada n, un polinomio tal que se tenga igualdad en
(IV.1.23)
6.- Consid�erese el polinomio
f(x) = x5 � 5x4 + 3x3 + 3x2 + 2x+ 8:
a) Determinar el n�umero de raices reales.
b) >Cuantas raices son complejas?
c)>Cuantas raices son reales y positivas?
Indicaci�on.- Utilizar una sucesi�on de Sturm.
7.- Sea f (p + 1) veces continuamente diferenciable en un vecindario de
� 2 R y sea � una raiz de multiplicidad p. Mostrar que la sucesi�on
fxkg, de�nida por
xk+1 = xk � p
f(xk)
f0(xk)
;
converge hacia �, si x0 es su�cientemente proximo de �, y que se tiene
xk+1 � �
(xk � �)2�! f
(p+1)(�)
p(p+ 1)f (p+2)(�):
8.- El m�etodo de Newton, aplicado a z3 � 1 = 0, da la iteraci�on
zk+1 = �(zk); con �(z) = z � z3 � 1
3z2=
2z3 + 1
3z2:
Den�otese por Aj =�z0 2 C ; zk ! e
2i�j=3, j = 0; 1; 2; los canales de
atracci�on. Mostrar:
a)A0 \ R = R � f�0; �1; : : :g donde �0 = 0 y �k�1 = �(�k),
b)Aj+1 = e2�i=3
Aj ,
c)Calcular ��1(0) y ��2(0) con la f�ormula de Cardano. Esto muestra
que el sector fz 2 C j jarg(z)j < �=3g contiene puntos que no convergenhacia 1.
d) Sup�ongase que �k(�z) = 0 para un k 2 N. Mostrar que U \ Aj 6= ;(j = 0; 1; 2) para cada vecindario U de �z.
IV.2 M�etodos Iterativos
En la secci�on precedente, se ha visto que la mayor parte de las ecuaciones a
resolver no pueden ser resueltas de manera expl��cita, es decir mediante una
f�ormula m�agica. Es por esta raz�on, que el estudio de los m�etodos iterativos es
una necesidad imperiosa para poder encontrar las soluciones de una ecuaci�on.
Para tal efecto es tambi�en importante conocer el tipo de funciones con las
que se est�a trabajando. En lo que sigue, se estudiar�a varios aspectos que son
fundamentales para la comprensi�on del tema.
Posici�on del Problema
Uno de los problemas m�as comunes, se trata del siguiente. Sup�ongase,
que se tiene la funci�on
f : I �! R;
donde I � R intervalo. El problema, se trata de obtener con una aproxi-
maci�on arbitraria las raices de la ecuaci�on
f(x) = 0: (IV:2:1)
Est�a claro, que ser��a rid��culo esperar obtener, en general, f�ormulas de
resoluci�on de (IV.2.1), del tipo de f�ormulas cl�asicas resolviendo las ecuaciones
de segundo grado. Se ha visto que, es imposible en el caso en que f es un
polinomio de grado � 5. Incluso para el problema m�as razonable planteado
aqu�� , no existe un m�etodo general conduciendo al resultado buscado, los
procedimientos te�oricos de aproximaci�on pueden conducir, sin hip�otesis
adecuadas para la funci�on f a c�alculos num�ericos inextricables, incluso para
los ordenadores m�as potentes que existen en la actualidad.
Por otro lado, incluso si el intervalo I es acotado, puede suceder que
la ecuaci�on (IV.2.1) tenga una in�nidad de raices, por ejemplo, cuando f es
identicamente nula en un subintervalo. El ejemplo
f(x) = x3 sin
1
x
; (IV:2:2)
muestra que puede existir una in�nidad de raices, aun cuando f no sea
identicamente nula en un subintervalo.
Por consiguiente, un primer paso consiste en descomponer el intervalo
I , por un n�umero �nito o in�nito de puntos de subdivisi�on, en subintervalos
en cada uno de los cuales se sepa que, la ecuaci�on no tiene raiz, o la ecuaci�on
tenga una y una sola soluci�on. Se estar�a seguro, que es as�� cuando la funci�on
164 IV Ecuaciones No Lineales
es mon�otona para el primer caso si f(x) no cambia de signo y en el segundo
caso si f(x) cambia de signo. Para asegurar la existencia en el segundo caso,
se exige como hip�otesis suplementaria la continuidad en tal subintervalo.
Ejemplo
La funci�on
f(x) =b1
x� a1
+b2
x� a2
+ � � �+ bn
x� an
; (IV:2:3)
donde a1 < a2 < � � � < an y los bj son todos diferentes a 0 y del
mismo signo, est�a de�nida en cada uno de los subintervalos abiertos
]1; a1[; ]a1; a2[; : : : ; ]an�1; an[; ]an;+1[; en cada uno de estos subinter-
valos es mon�otona, ya que su derivada tiene el signo opuesto de los bj .
Por otro lado cuando x tiende por derecha a uno de los aj , f(x) tiende
en valor absoluto a 1 y cuando x tiende por izquierda a uno de los aj ,
f(x) tiende en valor absoluto a 1, pero con signo opuesto que el l��mite
por derecha. Por lo tanto, se concluye que la funci�on f tiene exactamente
una raiz en cada subintervalo.
Para obtener una descomposici�on de I en intervalos del tipo considerado
anteriormente, es decir para separar las raices, se necesitar��a te�oricamente
estudiar el sentido de variaci�on de la funci�on f , agregando otra hip�otesis
suplementaria respecto a f , como que f sea continuamente derivable, esto
signi�car��a estudiar el signo de f 0(x), por consiguiente se estar��a obligado
a encontrar las raices de la ecuaci�on f0(x) = 0, que salvo algunos casos, su
resoluci�on presenta las mismas di�cultades que la ecuaci�on original.
Por lo expuesto m�as arriba, se est�a en la capacidad de enunciar el
siguiente teorema de existencia y unicidad de la soluci�on de una ecuaci�on
con su algoritmo de resoluci�on incluido.
Teorema IV.2.1.- Sea f : I �! R continua y mon�otona, entonces
la ecuaci�on f(x) = 0 tiene
una y una sola soluci�on() existen a < b 2 I , tales
que f(a)f(b) < 0.
Adem�as si existiese la soluci�on, �esta puede ser aproximada de manera
arbitraria con el algoritmo de la bisecci�on.
La primera observaci�on que se puede hacer al algoritmo de la bisecci�on
consiste en que este algoritmo construye subintervalos encajonados re-
duciendo la longitud de cada subintervalo de la mitad en cada iteraci�on.
Pero una de las interrogantes que uno se plantea, es cuando detener el al-
goritmo. En general, esto sucede cuando el valor absoluto de la funci�on f
evaluada en las extremidades es menor a un valor de tolerancia pre�jado
con anterioridad. Ahora bien, si solamente se exige que f sea mon�onota y
continua puede pasar situaciones, como las del siguiente ejemplo.
IV.2 M�etodos Iterativos 165
Ejemplo
Sea f : (�1; 1) �! R de�nida por
f(x) = x100
g(x); (IV:2:4)
donde g es una funci�on continua que no se anula en (�1; 1). Es evidenteque, x = 0 es una raiz de la ecuaci�on f(x) = 0. Aplicando el algoritmo
de la bisecci�on con una tolerancia de 10�6 y tomando como puntos de
partida a = �0; 9 y b = 0:9 puede suceder que jf(x)j < TOL, dejando
una gran elecci�on para escoger la raiz de f(x).
Por lo tanto, si no se tiene la hip�otesis que f(x) sea derivable y que
f0(x) 6= 0 para x raiz de la ecuaci�on f(x) = 0, se debe tener mucho cuidado
en la determinaci�on de la soluci�on num�erica del problema, para no cometer
grandes errores.
M�etodo de la Falsa Posici�on
En este paragrafo, se supondr�a que
f : [a; b] �! Res dos veces continuamente derivable, que f 0(x) no se anula en el intervalo
]a; b[ y adem�as f(a)f(b) < 0.
La idea para obtener una valor aproximado de la raiz �0 de la ecuaci�on
f(x) = 0 en el intervalo I =]a; b[, consiste en remplazar f por un polinomio
que toma los valores de f en determinados puntos de I . Como se ha visto en
la primera secci�on de este cap��tulo, las ecuaciones polinomiales m�as simples
de resolver son las ecuaciones de primer grado y las ecuaciones cuadr�aticas.
Por razones de simplicidad en la formulaci�on, el m�etodo de la falsa posici�on
ser�a estudiado tomando como polinomio, uno de primer grado. Sea L(x) el
polinomio de interpolaci�on de primer grado, tal que:
L(a) = f(a); L(b) = f(b); (IV:2:5)
ver en la �gura IV.2.1.
a by=f(x)
y=L(x)
ξ
ξ
0
Figura IV.2.1 M�etodo de la Falsa Posici�on.
166 IV Ecuaciones No Lineales
Las hip�otesis implican que L(x) se anula en un punto � 2 I , que se
toma como valor aproximado de �0. Por consiguiente se trata de mayorar el
error cometido j� � �0j; para tal efecto se recordar�a el teorema III.1.13 que
da el siguiente resultado
f(x)� L(x) =1
2f00(�)(x � x0)(x � x1) (IV:2:6)
con � 2 I , deduciendo la siguiente proposici�on.
Proposici�on IV.2.2.- Si f 0 no se anula en el intervalo I , y si f(�0) = 0,
L(�) = 0 para �; �0 2 I , entonces se tiene
� � �0 =1
2
f00(�)
f0(� 0)
(� � a)(� � b); (IV:2:7)
donde � y � 0 son n�umeros que pertenecen a I .
Demostraci�on.- Por (IV.2.6), se tiene
f(�) =1
2f00(�)(� � a)(� � b);
por el teorema del valor medio se tiene
f(�) = f0(� 0)(� � �0)
con � 0 que pertenece al intervalo cuyas extremidades son �0 y �. Combinando
ambos resultados se obtiene el resultado de la proposici�on. �
Corolario IV.2.3.- Mismas hip�otesis de la proposici�on precedente, y
adem�as jf 0(x)j � m > 0, y jf 00(x)j �M para todo x 2 I , entonces
j� � �0j �M
8m(b� a)2: (IV:2:8)
Si el error j� � �0j evaluado por la estimaci�on (IV.2.8) no es lo su�-
cientemente peque~no, se puede repetir el procedimiento: se calcula f(�) y
dependiendo de su signo, la raiz �0 se encuentra en el intervalo [a; �] o [�; b],
al cual se aplica el mismo m�etodo obteniendo as�� un segundo valor aproxi-
mado �0. Te�oricamente, se puede aplicar inde�nidamente este procedimiento,
y se muestra facilmente que la sucesi�on de los n�umeros obtenidos converge
hacia �, ver ejercicios.
Como se dijo al abordar el m�etodo de la falsa posici�on, se puede
aproximar la raiz de la ecuaci�on f(x) = 0 con un polinomio de segundo grado.
Con la misma notaci�on que antes �0 es la raiz de la ecuaci�on, suponiendo
IV.2 M�etodos Iterativos 167
ademas que f(x) es tres veces continuamente diferenciable sobre el intervalo
I . Se denota por c el punto medio del intervalo I . Puesto que f 0(x) no cambia
de signo en este intervalo, f(c) es positivo o negativo. Sea L(x) el polinomio
de interpolaci�on de grado 2, tal que
L(a) = f(a) L(c) = f(c) L(b) = f(b); (IV:2:9)
utilizando la f�ormula de Newton del cap��tulo III, se tiene
L(x) = f(a) +f(c)� f(a)
c� a
(x � a)
+2f(b)� 2f(c) + f(a)
(b� a)2(x� a)(x� c); IV:2:10)
resolviendo esta ecuaci�on, sea � 2 I la raiz del polinomio de segundo grado, lacual puede ser determinada utilizando el m�etodo de resoluci�on de ecuaciones
de segundo grado, teniendo el cuidado de escoger la raiz que se encuentra en
[a; b]. Suponiendo que sobre el intervalo [a; b], f es tres veces continuamente
derivable, el teorema III.1.13 da la siguiente estimaci�on
f(x)� L(x) =1
6f000(�)(x � a)(x� c)(x � b); (IV:2:11)
donde � 2 [a; b]. deduciendo la siguiente proposici�on.
Proposici�on IV.2.4.- Si f 0 no se anula en el intervalo I , y si f(�0) = 0,
L(�) = 0 para �; �0 2 [a; b], entonces se tiene
� � �0 =1
6
f000(�)
f0(� 0)
(� � a)(� � c)(� � b) (IV:2:12)
donde � y � 0 son n�umeros que pertenecen a [a; b].
Demostraci�on.- Por (IV.2.11), se tiene
f(�) =1
6f00(�)(� � a)(� � c)(� � b);
por el teorema del valor medio, se tiene
f(�) = f0(� 0)(� � �0);
con � 0 que pertenece al intervalo cuyas extremidades son �0 y �. Combinando
ambos resultados se obtiene el resultado de la proposici�on. �
168 IV Ecuaciones No Lineales
Corolario IV.2.5.- Mismas hip�otesis de la proposici�on precedente, y
adem�as jf 0(x)j � m > 0, y jf 000(x)j �M para todo x 2 [a; b], entonces
j� � �0j �M
24m(b� a)3: (IV:2:13)
Si el error j� � �0j evaluado por la estimaci�on (IV.2.13) no es lo
su�cientemente peque~no, se puede repetir el procedimiento: se calcula f(�)
y dependiendo de su signo, la raiz �0 se encuentra en el intervalo [a; �] o
[�; c], etc, al cual se aplica el mismo m�etodo obteniendo as�� un segundo
valor aproximado �0. Te�oricamente, se puede aplicar inde�nidamente este
procedimiento, y se muestra facilmente que la sucesi�on de los n�umeros
obtenidos converge hacia �0, ver ejercicios.
El m�etodo de la Falsa Posici�on es un claro ejemplo de un m�etodo
iterativo, pues utiliza soluciones anteriormente obtenidas para calcular una
nueva soluci�on. En general, se dir�a que un m�etodo iterativo es de orden k o
de k pasos, si la iteraci�on puede expresarse de la forma:
xn+1 = �(xn; xn�1; : : : ; xn�k+1): (IV:2:14)
Por lo tanto, los m�etodos descritos anteriormente son m�etodos iterativos de
dos pasos, pues se sirven de 2 valores para calcular el valor de la iteraci�on
siguiente.
Sistemas de Ecuaciones
Los problemas que han sido estudiados m�as arriba estaban relacionados a
funciones de una sola variable con valores reales. Ahora bien, existe una gran
variedad de problemas donde se deben resolver sistemas de ecuaciones, que
en general no son lineales. La posici�on del problema es por consiguiente:
Dada f : U � Rn �! Rn , encontrar � 2 U tal que
f(�) = 0: (IV:2:15)
Reiterando lo que se dijo al inicio de esta secci�on no se puede esperar de
obtener una f�ormula milagrosa para determinar �, lo que se debe buscar
es por consiguiente una aproximaci�on de esta soluci�on con la precisi�on que
se desee. La continuidad no es una condici�on su�ciente para determinar la
existencia de ceros, hip�otesis primordial en el caso de una variable; en el caso
de varias variables, en la mayor parte de los casos no se puede demostrar la
existencia de ceros, contentandose con la unicidad de �estos a nivel local. Un
teorema muy importante, es el de la inversi�on local que ser�a enunciado sin
demostraci�on, para el lector interesado, puede encontrarla en cualquier libro
de An�alisis, por ejemplo en Rudin.
IV.2 M�etodos Iterativos 169
Teorema IV.2.6.- Sean D � Rn abierto, f : D �! Rn continuamente
diferenciable. Si:
a) f(x�) = 0;
b) f0
x� es inversible,
entonces, existe dos vecindarios, U de x� y V de 0, tales que para todo v 2 Vexiste un �unico x 2 U , tal que f(x) = v y la aplicaci�on
g :V �! Uv �! x(v)
es continuamente diferenciable y adem�as g0v = (f 0x)�1
.
Consecuencias de este teorema son: la unicidad local de la soluci�on; si
x es soluci�on n�umerica obtenida mediante un metodo cualquiera se tiene la
siguiente estimaci�on del error
x� x� = (f 0x�)
�1f(x) +O(kf(x)k2);
de donde si (f 0x�)�1
es casi singular, x � x� puede ser muy grande, aun si
f(x) es peque~no.
Un m�etodo Iterativo simple
Existe otra clase de ecuaciones que pueden ser escritas de la forma
f(x) = x; (IV:2:17)
donde f es una funci�on de varias variables con las condiciones dadas al
inicio de este paragrafo. Cabe remarcar que la ecuaci�on (IV.2.15) puede ser
expresada como x = g(x) con g(x) = x�Af(x), dondeA es generalmente una
matriz. La existencia y unicidad de las ecuaciones de la forma (IV.2.17) son
resueltas utilizando el teorema del punto �jo en espacios m�etricos. Para saber
m�as sobre espacios m�etricos ver Schawartz. A continuaci�on, se enunciar�a el
teorema del punto �jo.
Teorema IV.2.7.- Sean X un espacio m�etrico completo, f : X �! X una
aplicaci�on veri�cando
d(f(x); f(y)) � Cd(x; y); C < 1;
donde d denota la distancia en X . Entonces la ecuaci�on f(x) = x admite
una y una sola soluci�on.
Demostraci�on.- Sea x0 2 X un punto arbitrario, se de�ne la sucesi�on fxkgde manera recursiva por
xk+1 = f(xk);
170 IV Ecuaciones No Lineales
esta sucesi�on es de Cauchy, en efecto, si n � m, se tiene:
d(xn; xm) � d(xn; xn�1) + � � �+ d(xm+1; xxm);
d(xm+1; xm) � Cmd(x1; x0);
por lo tanto
d(xn; xm) �Cm
1� C
;
que tiende a cero, cuando n;m tienden a 1. Sea x� = lim
n!1xn, se deduce
que f(x�) = x�. Con esto se ha demostrado la existencia de la soluci�on. Para
la unicidad se considera x; y son soluciones del problema, por lo tanto
d(x; y) = d(f(x); f(y)) � Cd(x; y);
y la �unica posibilidad que suceda esto es que x = y. �
Se puede dar condiciones menos fuertes sobre el espacio X o sobre
f , por ejemplo que f sea localmente una contracci�on, con solamente esta
hip�otesis se mantiene la unicidad, pero est�a vez localmente, la existencia no
est�a asegurada.
Por lo expuesto, se puede formular el m�etodo iterativo dado en la
demostraci�on del teorema precedente para el siguiente problema:
Sea � : Rn �! Rn continua, determinar x 2 Rn tal que �(x) = x. El m�etodo
iterativo est�a dado por: (x0; arbitrario;
xn = �(xn�1):(IV:2:18)
Teorema IV.2.8.- Si fxng converge hacia x�, y � es continua en x
�,
entonces x� es soluci�on de x = �(x)
Demostraci�on.- Se deja al lector. �
El anterior teorema se~nala claramente que si la funci�on � es continua,
y la sucesi�on de�nida por (IV.2.18) es convergente, entonces el l��mite de esta
sucesi�on es la soluci�on del problema �(x) = x. Por consiguiente, la pregunta
natural que uno puede plantearse es cuando existen condiciones su�cientes
para tener convergencia. De�niendo el error en como
en = xn � x�;
donde x� es la soluci�on exacta, y xn la n-sima iteraci�on, se obtiene:
en+1 = xn+1 � x� = �(xn)� �(x�)
= �0(x�)(xn � x�) +O
�kxn � x
�k2�;
en+1 � �0(x�)en: (IV:2:19)
IV.2 M�etodos Iterativos 171
Si ken+1k � q kenk para q < 1, entonces en ! 0 cuando n ! 1.
Por consiguiente la sucesi�on es convergente, si existe una norma tal que
k�0(x�)k = q < 1.
Teorema IV.2.9.- a) Sea �(x) = Ax+ b, con A matriz, entonces el m�etodo
iterativo (IV.2.18) converge para todo x, si y solamente si �(A) < 1, donde
�(A) = max�j�j j� es un valor propio de A
:
b) Si �(x) es no lineal y dos veces continuamente diferenciable, entonces se
tiene convergencia si:
�(�0(x�)) < 1;
x0 � x� es su�cientemente peque~no:
Demostraci�on.- Se mostrar�a solamente el inciso a), dejando al lector el
inciso b) con las observaciones hechas antes de enunciar el teorema.
) Se supone que el m�etodo converge 8x0 2 Rn . Sea � un valor propio de A,
y e0 un vector propio respecto a este valor propio, entonces
en = Ane0;
�ne0 �! 0;
posible solamente si j�j < 1.
( Se supone que �(A) < 1, sea e0 2 Rn arbitrario, de donde en = Ane0.
Por el teorema de Jordan, existe una matriz T no singular tal que
T�1AT =
0BBBBBBBBBBBB@
�1
. . .
. . . 1
�1
0
0�2
. . .
. . . 1
�2
. . .
1CCCCCCCCCCCCA:
Sea D = diag(1; �; �2; : : : ; �n�1), por consiguiente
D�1T�1ATD =
0BBBBBBBBBBBB@
�1
. . .
. . . �
�1
0
0�2
. . .
. . . �
�2
. . .
1CCCCCCCCCCCCA= J;
172 IV Ecuaciones No Lineales
si � es su�cientemente peque~no, se tiene kJk1
< 1, de donde el m�etodo es
convergente. �
Para el problema f(x) = 0, se vio antes que se puede convertir en
problema de punto �jo, planteando
�(x) = x� Af(x); (IV:2:20)
donde A es una matriz constante A, inversible. Ahora bien, para cumplir
las condiciones del teorema precedente �(�0(x�)) < 1, motivo por el cual es
su�ciente A � (f 0(x�))�1 para que �0(x�) � 0.
Ejemplo
Consid�erese la ecuaci�on siguiente
x2 + y
2 � 1 = 0
sinx+ sin y =1
2
;
se desea determinar las soluciones de esta ecuaci�on. Convirtiendo en un
problema de punto �jo se tiene
�(x; y) =
�x
y
��A
�x2 + y
2 � 1
sinx+ sin y � 1
2
�donde la A es una matriz de 2� 2. La derivada de f en el punto (x; y),
est�a dada por
f0
(x;y) =
�2x 2y
cosx cos y
�;
la inversa de la derivada de f , esta dada por
(f 0(x;y))�1 =
1
2(x cos y � y cosx)
�cos y �2y� cosx 2x
�:
Recorriendo a travez de la circunferencia de radio 1 dada por la primera
ecuaci�on se escogen los valores de x, y para los cuales remplazando en la
segunda ecuaci�on se tiene valores muy cerca a 1=2. Una vez determinados
estos valores se consigue una aproximaci�on de la matriz A para poder
aplicar el m�etodo iterativo. Las soluciones obtenidas con una precisi�on
del orden de 10�10 son:
x = 0:3176821764792814;
x = �0:948197255188055;y = �0; 948197255188055;y = 0; 3176821764792814:
IV.2 M�etodos Iterativos 173
Ejercicios
1.- Sea A una matriz que es diagonal dominante, es decir
jaiij >Xj 6=i
jaij j ; i = 1; : : : ; n;
entonces el m�etodo de Jacobi, formulado en el cap��tulo II, para resolver
Ax = b es convergente.
2.- Consid�erese la ecuaci�on integral
y(x) = f(x) +
Z b
a
K(x; s; y(s))ds; (�)
donde a; b; f;K est�an dados, se busca y(x). Mostrar, si el nucleo K es
degenerado, es decir
K(x; s; y) =
nXi=1
ai(x)bi(s; y);
entonces la soluci�on de (�) est�a dada por
y(x) = f(x) +
nXi=1
ciai(x)
donde las constantes c1; : : : ; cn satisfacen
ci =
Z b
a
bi(s; f(s) +
nXj=1
cjaj(s))ds i = 1; : : : ; n:
3.- Calcular la soluci�on de
y(x) = 1 + �
Z �
0
(2 sinx sin s+ sin 2x sin 2s)ey(s)ds; � =1
10:
Resolver el sistema no lineal para c1; c2 con el m�etodo iterativo.
4.- Sean J = [a; b] un intervalo de R en el cual la funci�on dos veces
continuamente diferenciable f veri�ca las relaciones jf 0(x)j � m,
jf 00(x)j � M , f(a)f(b) < 0. Mostrar que siM
4m(b � a) = q < 1 se
puede, por n aplicaciones sucesivas del m�etodo de la falsa posici�on,
encontrar un intervalo de extremidades an, bn conteniendo la �unica
raiz de f(x) = 0 en [a; b], con
jbn � anj �4m
M
q2n:
IV.3 M�etodo de Newton
En lo que va este cap��tulo, se ha visto dos enfoques para resolver sistemas de
ecuaciones, el primero mediante una f�ormula que de el resultado de manera
expl��cita en funci�on de los datos del problema. El segundo enfoque consiste
en utilizar m�etodos iterativos que permitan aproximar a la soluci�on de una
manera arbitraria. En la secci�on precedente se vio en los diferentes teoremas
de convergencia que la velocidad de convergencia es lineal, lo que puede
constituir una desventaja, desde el momento en que se requiera resolver
grandes y muchos sistemas de ecuaciones. Lo deseable ser��a cambiar el orden
de convergencia, por ejemplo a una reducci�on cuadr�atica del error.
Recordando el m�etodo de la Falsa Pendiente, en lugar de tomar una
secante para determinar una aproximaci�on del cero de la funci�on estudiada,
se podr��a tomar la tangente en un punto de la curva inducida por la funci�on.
El m�etodo iterativo formulado en la secci�on precedente estaba basado en el
teorema del punto �jo y el problema a resolver era de la forma �(x) = x,
para el caso de las ecuaciones de la forma f(x) = 0, era su�ciente considerar
la funci�on �(x) = x � Af(x), donde A es una matriz constante, ahora
bien suponiendo que f0(x) es inversible en un vecindario de una de las
soluciones de la ecuaci�on, en lugar de tomar A constante, se puede plantear
A = (f 0(x))�1.
Las motivaciones est�an dadas para formular un nuevo m�etodo, cuya
velocidad de convergencia sea superior a los m�etodos anteriormente formu-
lados. Para tal efecto, consider�ese la funci�on f : U � Rn �! Rn , U un
abierto de Rn , se supone adem�as que f es continuamente derivable, y la
derivada en todo punto es inversible. Por consiguiente, se tiene el problema
f(x) = 0; (IV:3:1)
cuyas soluciones, si �estas existen son localmente �unicas, por el teorema de
las funciones inversas, dado en la secci�on precedente. Sup�ongase que este
problema tiene al menos una soluci�on, denotandola por x�. Sea x 2 U
bastante pr�oximo de x�, aplicando la de�nici�on de la derivada en el punto x
se obtiene
f(x�) = f(x) + f0(x)(x� � x) +O(kx� � xk2);
de donde despreciando el t�ermino que contieneO se obtiene la ecuaci�on lineal
dada por
f0(x)(x� � x) = �f(x);
que por hip�otesis tiene soluci�on y es �unica. De donde, el m�etodo de Newton
tiene la formulaci�on siguiente, sea x0 un punto bastante pr�oximo de la
IV.3 M�etodo de Newton 175
soluci�on buscada x�, xm se de�ne recursivamente, por las ecuaciones
f0(xm�1)(xm � xm�1) = �f(xm�1): (IV:3:2)
Ejemplos
1.- Consid�erese la ecuaci�on de una sola variable dada por
f(x) = 2x� tanx;
para aplicar el m�etodo de Newton la derivada est�a dada por
f0(x) = 2� 1
cos2 x;
partiendo del punto inicial x0 = 1; 2 se obtiene los siguientes valores
mediante el m�etodo de Newton.
Tabla IV.3.1. Valores obtenidos por el m�etodo de Newton.
k xk f(xk) e2k=ek�1
0 1; 2 �0:1721521 1:16934 �1:69993� 10�2
2 1:16561 �0:213431� 10�3 �3:976643 1:16556 �0:347355� 10�07 �3:446104 1:16556 �:133227� 10�14 �3:38337
2.- Consid�erese el sistema de ecuaciones dado por(x2 + y
2 � 4 = 0
xy � 4 = 0:
Las soluciones de este sistema de ecuaciones est�an dadas por la inter-
secci�on de una circunferencia de radio 2 y centro en el origen y una
hip�erbola inclinada. Realizando un gr�a�co se puede observar que una
de las raices est�a pr�oxima al punto (0:5; 2) que ser�a tomado como punto
inicial. La matriz derivada es igual a
f0(x; y) =
�2x 2y
y x
�;
utilizando el m�etodo de eliminaci�on de Gauss para calcular los valores
de (xk; yk) se obtiene la siguiente tabla con las primeras 23 iteraciones
del m�etodo de Newton.
176 IV Ecuaciones No Lineales
Tabla IV.3.2. Valores obtenidos por el m�etodo de Newton.
k xk yk kf(xk)k2 kekk22 = kek�1k20 0:5 2: 0:25
1 :516666 1:96666 0:134722
2 0:526332 1:94921 0:764322� 10�1 14:3688
3 0:532042 1:93948 0:446506� 10�1 28:3211
22 0:540690 1:92553 0:345530� 10�5 446885:
23 0:540690 1:92553 0:210661� 10�5 732995:
En las tablas IV.3.1 y IV.3.2, se observa que el m�etodo de Newton
converge cuadr�aticamente. Es importante poder con�rmar te�oricamente este
resultado. Analizando el caso de una variable, se supone que f : I �! R es
dos veces continuamente derivable, x� una soluci�on del problema f(x) = 0,
adem�as f 0(x�) 6= 0. Sea xk el valor de la k-esima iteraci�on obtenida del
m�etodo de Newton. El desarrollo de Taylor en xk de la funci�on f y el m�etodo
de Newton para obtener xk+1 est�an dados por:
0 = f(xk) + f0(xk)(x
� � xk) +1
2f00(xk) (x
� � xk)2| {z }
e2k
+O((x� � xk)3);
0 = f(xk) + f0(xk)(xk+1 � xk);
sustrayendo ambas cantidades se obtiene
0 = f0(xk) (xk+1 � x
�)| {z }e2k+1
�12f00(xk)e
2k +O((ek)3);
de donde
ek+1 =1
2
f00(xk)
f0(xk)
e2k +O((ek)3);
mostrando as�� el teorema siguiente:
Teorema IV.3.1.- Sea f : I �! R, tres veces continuamente diferenciable,
x� una soluci�on de la ecuaci�on f(x) = 0. Si f 0(x) 6= 0 en un vecindario de
x�, x0 bastante pr�oximo de x�, entonces
ek+1 =1
2
f00(xk)
f0(xk)
e2k +O((ek)3); (IV:3:3)
IV.3 M�etodo de Newton 177
donde ek = x� � xk.
Para el caso de una funci�on de varias variables, la situaci�on es bastante
similar, en efecto sea
f : U � Rn �! Rn ;
donde U es un abierto de Rn , f es una funci�on tres veces continuamente
derivable, cuya derivada es inversible para todo x 2 U . La derivada de f
en el punto x 2 U es una aplicaci�on lineal, cuya matriz respecto a la base
can�onica est�a dada por
f0(x) =
0BB@@f1
@x1� � � @f1
@xn
......
@fn
@x1� � � @fn
@xn
1CCA ;
donde f1; : : : ; fn son las componentes de la funci�on f ; la segunda derivada
de f en el punto x 2 U es una aplicaci�on bilineal sim�etrica, que respecto a
la base can�onica, est�a dada por
f00(x)(h; k) =
Xi;j
@2f
@xi@xj
(x)hi; kj ;
donde h; k 2 Rn y los hi; kj son las componentes de h y k respecto a las
bases naturales. Para m�as detalle ver Cartan. El desarrollo de Taylor en x
est�a dado por
f(x+ h) = f(x) + f0(x)h+
1
2f00(x)(h; h) +O(khk3):
Teorema IV.3.2.- Sean f : U � Rn �! Rn tres veces diferenciable, con
derivada inversible y x� 2 U con f(x�) = 0. Si fxkg es la sucesi�on de�nida
por el m�etodo de Newton, entonces el error ek = xk � x� satisface
ek+1 =1
2
�f0(xk)
��1f00(xk)(ek; ek) +O(khk3): (IV:3:4)
Demostraci�on.- Similar a la del caso de una sola variable. �
C�alculo de la Derivada
Al implementar el m�etodo de Newton, se debe c�alcular la derivada de f en
cada punto. La primera forma de determinar la matriz f 0(xk) es de manera
anal��tica, construyendo as�� una subrutina para evaluar los coe�cientes de
la matriz jacobiana en cada iteraci�on. Pero lastimosamente, no siempre
178 IV Ecuaciones No Lineales
es posible calcular las derivadas parciales de manera anal��tica por varias
razones: funciones muy complicadas para derivar, c�alculos muy largos,
etc. Otra manera de evaluar los coe�cientes de f0(xk) consiste en hacerlo
num�ericamente. Utilizando un esquema de primer orden para evaluar la
derivada parcial de fj respecto a xi, se tiene
@fj
@xi
(x) = limt!0
fj(x+ tei)� fj(x)
t
;
donde t 2 R, ei es el i-esimo vector de la base can�onica. Ahora bien, se
plantea g(t) = fj(x + tei) dejando �jo x, se tiene
@fj
@xi
(x) = g0(0):
De donde, el problema consiste en calcular g0(0); con un esquema de primer
orden se obtiene
g0(0) � g(t)� g(0)
t
: (IV:3:5)
Cabe recalcar, que se puede aproximar g0(0) con una mejor aproximaci�on,
para eso se puede utilizar los polinomios de interpolaci�on. Una pregunta
natural surge, >cu�al t escoger?, para obtener la mejor aproximaci�on de g0(0).
El error de aproximaci�on est�a dado por
g(t)� g(0)
t
= g0(0) +
1
2g00(0)t+O(t2);
mientras que los errores de redondeo, suponiendo que g es una funci�on
bien condicionada, est�a dado por los siguientes resultados, suponiendo que
g0(t) � g
0(0):
g(t(1 + �1))(1 + �2)� g(0)(1 + �3)
t
� g(t)� g(0)
t
�1t
ng(t) + g
0(0)�1t(1 + �2)� g(0)(1 + �3)� g(t) + g(0)o
�1t
n�2g(t) + g
0(0)�1t� �3g(0)o;
donde j�ij � eps, por consiguiente
error de redondeo � 1
jtj�2 jg(0)j+ jg0(0)tj
eps: (IV:3:6)
IV.3 M�etodo de Newton 179
Lo ideal ser�a, por lo tanto escoger un valor de t de manera que los errores
de aproximaci�on y de redondeo se aproximen, ver �gura IV.3.1.
Err de redon.
Err de aprox
Figura IV.3.1. Error de Aproximaci�on vs Error de Redondeo.
Observando la �gura, se tiene que el error de aproximaci�on es del orden
de t, mientras que el error de redondeo es proporcional a eps=t, de donde
equilibrando ambos errores se obtiene
t =pC eps; (IV:3:7)
donde C es una constante elegida de acuerdo a la funci�on f .
El Teorema de Newton-Misovski
Se ha formulado el m�etodo de Newton de una manera general, dando
inclusive una estimaci�on del error cometido, deduciendo que si el m�etodo
converge, la convergencia es cuadr�atica. Pero sin embargo, no se enunci�o las
condiciones su�cientes para obtener convergencia de este m�etodo. El siguien-
te teorema dar�a las condiciones su�cientes para asegurar la convergencia del
m�etodo, cuando la funci�on f cumple ciertas condiciones.
Teorema IV.3.3.- Newton-Misovski. Sean D � Rn abierto y convexo,
f : D �! Rn continuamente diferenciable, f 0(x) inversible para todo x 2 D,x0 2 D satisfaciendo las siguientes condiciones:
a) k4x0k � �,
b) (f 0(y)�1�f 0�x+ t(x � y)
�� f
0(x)�(y � x)
� !t ky � xk2, 8x; y 2D, t 2 [0; 1];
c) � :=1
2�! < 1;
d) � :=�
1� �
< 1;
e) �B(x0; �) = fx 2 Rn j kx� x0k � �g.
180 IV Ecuaciones No Lineales
Entonces:
i) La sucesi�on fxkg de�nida por el m�etodo de Newton se queda dentro
B(x0; �) y converge hacia una soluci�on x� de f(x) = 0.
ii) Se tiene la estimaci�on k4xkk � !
2 k4xk�1k2.
iii) kxk � x�k � !
2(1� �2k )k4xk�1k2 :
Demostraci�on.- Es claro por la de�nici�on del m�etodo de Newton que si
fxkg es convergente, entonces el l��mite de la sucesi�on es igual a x�, donde
f(x�) = 0. Se mostrar�as la conclusiones por inducci�on. Se supone que
xk; xk�1 2 D, para k � 1, entonces
k4xkk �!
2k4xk�1k2 ;
en efecto
k4xkk = (f 0(xk))�1f(xk)
= (f 0(xk))�1�f(xk)� f(xk�1)� f
0(xk1)4xk�1
=
f 0(xk) Z 1
0
�f0(xk�1 + t4xk�1)� f
0(xk�1)�4xk�1dt
�Z 1
0
f 0(xk)�f 0(xk�1 + t4xk�1)� f0(xk�1)
�4xk�1
dt�Z 1
0
!t k4xk�1k2 dt =!
2k4xk�1k2 :
Se de�ne �k recursivamente por
�k = �2k�1; �0 =
!
2� = �:
Si x0; x1; : : : ; xk 2 D, entonces
!
2k4xkk � �k;
es cierto para k = 0, sup�ongase cierto para k � 1, por consiguiente
!
2k4xkk �
�!
2k4xk�1k
�2� �
2k�1 = �k:
como �0 = �, se tiene �k = �2k , puesto que � < 1;
limk!1
�k = 0:
IV.3 M�etodo de Newton 181
El siguiente paso es mostrar que fxkg es una sucesi�on de Cauchy y que
satisface el punto i). Se supone nuevamente, que x0; : : : ; xk 2 D, 0 � l � k,
obteniendo
kxk+1 � xlk � kxk+1 � xkk| {z }2
!
�k
+ � � �+ kxk+1 � xlk| {z }2
!
�l
� 2
!
(1 + �2l + �
4l + � � �)
� 2
!
�2l
1� �2l
:
Para l = 0, se tiene kxk+1 � x0k �2
!
�2
1� �2<
2
!
�
1� �
=�
1� �
= �; de
donde xk+1 2 B(x0; �).Por otro lado,
kxk+1 � xlk �2
!
�2l
1� �2l
�! 0; cuando k � l!1:
de donde la sucesi�on fxkg es una sucesi�on de Cauchy, y por lo tanto
convergente. Es as�� que se ha mostrado el punto i) y el punto ii) del teorema
quedando pendiente el �ultimo punto. Se tiene
kxl+1 � xkk � kxl+1 � xlk+ � � �+ kxk+1 � xkk ;
se plantea:
�k�1 =!
2k4xk�1k ; �l = �
2l�1;
de donde �k�1 � �k�1 y �k � �k � �2k , adem�as
!
2k4xlk � �l para l � l � 1:
De donde
kxl+1 � xkk �!
2
k4xk�1k2
1� �2k
;
haciendo tender l al in�nito queda demostrado el punto iii) �
Es necesario remarcar el siguiente hecho concerniente a la hip�otesis b)
del teorema que se acaba de demostrar. Si f es 3 veces derivable, utilizando
la f�ormula de Taylor se tiene
[f 0�x+ t(x � y))� f
0(x)�](y � x) = f
00(x)(t(y � x); y � x) +O(ky � xk3);
182 IV Ecuaciones No Lineales
por consiguiente
(f 0(y))�1[f 0�x+ t(x� y))� f 0(x)
�](y� x) = t(f 0(y))�1f 00(x)(y � x; y� x)+
O(ky � xk3);
si D es bastante peque~no, entonces se puede despreciar O(ky � xk3), dedonde (f 0(y))�1[f 0�x+ t(x� y))� f
0(x)�](y � x)
� t
(f 0(y))�1f 00(x) ky � xk2 ;
por consiguiente
! � supx;y2D
(f 0(y))�1f 00(x) (IV:3:8)
Para comprender el teorema, puede ser util estudiar en un ejemplo
tipo, las hip�otesis del teorema y deducir las conclusiones que conducen estas
hip�otesis
Ejemplo
Sea, f : R2 �! R2 de�nida por
f(x) =
�x21 + x
22 � 1
x2 � x21
�;
la soluci�on del problema f(x) = 0 est�a dada por la intersecci�on de una
circunferencia de centro en el origen y radio 1 y una par�abola cuyo v�ertice
se encuentra tambi�en en el origen. Este problema puede ser resuelto
gra�camente, substituyendo x2, pero el proposito del ejemplo es estudiar
el teorema de Misovski.
La derivada de f 0 est�a dada por la matriz jacobiana
f0(x) =
�2x1 2x2�2x1 1
�;
cuya inversa es igual a
(f 0(x))�1 =1
2x1(1 + 2x2)
�1 �2x22x1 2x1
�:
Observando una gr�a�ca del problema se escoge como dominio D a
D =n(x1; x2)j
1
2< x1; x2 < 2
o:
Analizando las condiciones del teorema se tiene:
IV.3 M�etodo de Newton 183
a) Se escoge como valor inicial (1; 1) 2 D, obteniendo4x0 = (�1=6;�1=3), de donde
k4x0k =p5
6� 0; 37 = �:
b) El estudio de la segunda condici�on da:
(f 0(y))�1�f0(x+ t(x � y))� f
0(x)�(y � x)
=1
2y1(1 + 2y2)
�1 �2y22y1 2y1
��2t(y1 � x1) 2t(y2 � x2)
�2t(y1 � x1) 0
��y1 � x1
y2 � x2
�=
t
2y1(1 + 2y2)
�(1 + y2)(y1 � x1)
2 + (y2 � x2)2
2y1(y2 � x2)2
�:
Se observa inmediatamente que las componentes son positivas, mayo-
rando respecto a y, se obtiene���(f 0(y))�1�f 0(x+ t(x� y))� f0(x)
�(y � x)
���� t
2
���� 3(y1 � x1)2 + (y2 � x2)
2
4(y2 � x2)2
���� ;pasando a la norma de la convergencia uniforme, se obtiene (f 0(y))�1�f 0(x+ t(x� y))� f
0(x)�(y � x)
1
� 2t ky � xk infty2;
de donde:
b) ! = 2.
c) � = 0; 37 < 1.
d) � =0; 37
1� 0; 37� 1
2. Ahora bien, �
B(x0; �) 6� D, de donde no se puede
garantizar las conclusiones del teorema. Sin embargo, tomando como x0el valor de la primera iteraci�on a partir del valor inicial del ejemplo se
tiene
x0 =
�5
6;
2
3
�t;
obteniendo
4x0 =��19=213�1=21
�; k4x0k = 0; 066 = �;
de donde
� = 0; 066; � = 0; 07; �B(x0; �) � D:
Por lo tanto, las tres condiciones del teorema son veri�cadas, teniendo
garantizada de esta manera la convergencia del m�etodo de Newton.
El teorema de Newton-Misovski da las ventajas de utilizar el m�etodo
de Newton para resolver el problema f(x) = 0, sin embargo:
184 IV Ecuaciones No Lineales
Desventajas del m�etodo de Newton
| Cada iteraci�on del m�etodo es costosa en operaciones. En efecto el
c�alculo de f 0(x) y la resoluci�on del sistema lineal adyacente cuestan
mucho si la dimensi�on del sistema es grande. Resolver el sistema LR
cuesta aproximadamente n3=3 operaciones.
| Convergencia local. El m�etodo converge solamente si x0 est�a su�cien-
temente pr�oximo de la soluci�on x�.
M�etodo de Newton Simpli�cado
Una de las mayores desventajas que tiene el m�etodo de Newton, consiste en
el hecho de calcular en cada iteraci�on la matriz derivada y el sistema lineal
asociado. Se puede simpli�car el m�etodo de Newton de la siguiente manera:
x0 arbitrario;
4xk = ��f0(x0)
��1f(xk);
xk+1 = xk +4xk:(IV:3:9)
Por consiguiente se debe calcular una sola vez f 0(x0) y calcular una vez la
descomposici�on LR. Por lo tanto, la primera iteraci�on consume aproximada-
mente n3=3 en el c�alculo de la descomposici�on, y las dem�as iteraciones nece-
sitan aproximadamente n2 operaciones. La desventaja de utilizar el m�etodo
de Newton simpli�cado reside en el hecho en que se pierde la convergencia
cuadr�atica, obteniendo una convergencia lineal. En efecto, considerando este
m�etodo como un m�etodo iterativo simple, dado en la secci�on precedente se
tiene:
xk+1 = �(xk); donde ��(x) = x��f0(x0)
��1f(x);
�0(x) = I ��f0(x0)
��1f0(x):
Ahora bien, se tiene convergencia local, si y solamente si
�(I ��f0(x0)
��1f0(x)) < 1;
por el teorema IV.2.9 y la convergencia lineal es consecuencia directa del
teorema citado.
Tanto el m�etodo de Newton, como su versi�on simpli�cada, de�nen
iteraciones de la forma
4xk = �(M(xk))�1f(xk);
xk+1 = xk +4xk;(IV:3:10)
donde M(x), es una matriz que depende de x. Para el m�etodo de Newton
se tiene M(x) = f0(x) y para la versi�on simpli�cada M(x) = f
0(x0). En
IV.3 M�etodo de Newton 185
el primer caso la matriz M es la derivada, en el segundo caso M es la
derivada en un punto arbitrario. Existen muchos problemas, en los cuales
la matriz derivada tiene ciertas particularidades que constituyen en ventajas
y desventajas al mismo tiempo, que puede solucionarse convenientemente
si se escoge una matriz M apropiada; por ejemplo f0(x) puede tener una
estructura de matriz banda, con algunos elementos no nulos fuera de la
banda, es decir
f0(x) =
0BB@� � �� � �
. . .. . .
� � �
1CCA ;
planteando M(x) la matriz cuyos elementos est�an dados por la banda
principal de f 0(x) se tiene una buena aproximaci�on de f 0(x), disminuyendo
de esta manera el costo en operaciones. Las bases te�oricas de utilizar la
matriz M en lugar de f 0(x), est�an dadas por el siguiente teorema.
Teorema IV.3.4.- Newton-Kantorovich. Sean D � Rn abierto y convexo,
f : D �! Rn continuamente diferenciables, M(x0) inversible y x0 2 D.Ademas:
a) M(x0)
�1f(x0)
� �;
b) M(x0)
�1(f 0(y)� f0(x))
� ! ky � xk ; 8x; y 2 D;c) M(x0)
�1(f 0(x) �M(x)) � �0 + � � 1 kx� x0k,
M(x0)�1(M(x) �M(x0)
� � kx� x0k;d) �0 < 1, � := max(!; �+ �1) y
h =��
(1� �0)2� 1
2;
e) B(x0; �) � D, con
� =1�p1� 2h
h
�
1� �0
;
entonces:
i) M(x) es inversible para x 2 B(x0; �),ii) La sucesi�on fxkg de�nida por (IV.3.10) se queda en B(x0; �) y converge
hacia una soluci�on x� de f(x) = 0,
iii) Se de�ne �h =�!
(1� �0)2=
!
�
h,
�� =1�
p1� 2�h�h
�
1� �0
;
entonces x� 2 B(x0; ��) y no hay otra soluci�on de f(x) = 0 en
B(x0; �+) \ D.
186 IV Ecuaciones No Lineales
Antes de demostrar el teorema hay que remarcar que �h � h cuya
veri�caci�on es inmediata y tambi�en �� � �; en efecto considerando los
desarrollos en serie de Taylor se tiene:
p1� x =
Xj�0
�1=2
j
�(�x)j = 1� x
2� c2x
2 � c3x3 � � � � ;
con los cj � 0,
1�p1� 2h
h
= 1 + 4c2h+ 8c2h2 + 16c4h
3 + � � � ;
de donde �� � �. Ver la �gura IV.3.2.
x0ρρ
ρ
+
_D
Figura IV.3.2. Resultado del Teorema de Newton-Kantorovich.
Demostraci�on.- Demostrando el punto i), se tiene:
M(x) =M(x0)�I +M(x0)
�1(M(x) �M(x0))| {z }B
�;
kBk � � kx� x0k < ��;
�� = �
1�p1� 2h
h�!�
�
1� �0
(1� �0)62 ��
�
(1� �0) � 1;
de donde kBk < 1, por lo tanto (I +B) es inversible y su inversa est�a dada
por
(I +B)�1 =
1Xk=0
(�1)kBk;
IV.3 M�etodo de Newton 187
la norma de (I +B)�1, est�a mayorada por
(I +B)�1 � 1
1� kBk �1
1� � kx� x0k;
por consiguiente M(x)�1M(x0)
� 1
1� � kx� x0kkx� x0k < �: (IV:3:11)
La demostraci�on del punto ii) se efectua por inducci�on. Si xk�1; xk 2B(x0; �), entonces xk+1 existe, se tiene:
kxk+1 � xkk = M(xk)
�1f(xk)
� M(xk)
�1�f(xk)� f(xk�1)� f
0(xk�1)(xk � xk1 )�
+ M(xk)
�1�f0(xk�1 �M(xk�1)
�(xk � xk�1)
� M(xk)
�1�f(xk)� f(xk�1)� f
0(xk�1)(xk � xk1 )�
+1
1� � kxk � x0k��0 + �1 kxk�1 � x0k
�kxk � x0k
� M(xk)
�1
Z 1
0
hf0(xk�1+t(xk�xk�1))� f
0(xk � 1)idt(xk � xk�1)
+
1
1� � kxk � x0k��0 + �1 kxk�1 � x0k
�kxk � x0k
� 1
1� � kxk � x0k!
2kxk � xk�1k2
+1
1� � kxk � x0k��0 + �1 kxk�1 � x0k
�kxk � x0k :
De donde
kxk+1 � xkk �1
1� � kxk � x0k
n�
2kxk � xk�1k2+(�0+(��� kxk�1 � x0k) kxk � xk�1k
o:
Para resolver esta desigualdad, se remplaza kxk+1 � xkk por tk+1 � tk y
kxk � x0k por tk, el s��mbolo de desigualdad por el de igualdad, de�niendo
as�� una sucesi�on ftkg � R, que veri�ca:
t0 = 0;
t1 = �;
tk+1 � tk =1
1� �tk
��(tk � tk�1)
2 + (�0 + (� � �)tk�1)(tk � tk�1);
188 IV Ecuaciones No Lineales
Se demuestra facilmente, por inducci�on que:
kxk+1 � xkk � tk+1 � tk;
kxk � x0k � tk;
en efecto, para k = 0 se cumple, sup�ongase cierto para k�1, por consiguiente
kxk � x0k � kxk � xk�1k+ � � �+ kx1 � x0k� tk � tk�1 + � � �+ t0 = tk;
kxk+1 � xkk �1
1� �tk
n�
2(tk � tk�1)
2 + �0 + (� � �)tk�1(tk � tk � tk�1)o
= tk+1 � tk:
El siguiente paso es estudiar la sucesi�on ftkg, se tiene
(1� �tk)(tk+1 � tk) =�
2(t2k � 2tktk�1 + t
2k�1) + �0(tk � tk�1)
+ �tk�1(tk � tk�1)� �tk�1(tk � tk�1);
efectuando algunos arreglos y simplicaciones se obtiene la siguiente igualdad
(1� �tk)(tk+1 � tk)��
2t2k + (1� �0)tk
= (1� �tk�1)(tk � tk�1)��
2t2k�1 + (1� �0)tk�1 = �;
expresi�on que es constante por que no depende de k. Expresando
tk+1 = tk +�2t2k � (1� �0)tk + �
1� �tk
= tk +u(tk)
v(tk)= �(tk);
donde las funciones u y v est�an dadas por
u(t) =�
2t2 � (1� �0)t+ �; v(t) = 1� �t:
Se debe mostrar por consiguiente que tk converge y eso sucede si y solamente
si � tiene un punto �jo, y el radio expectral de �0 en las proximidades del
punto �jo es estrictamente menor a 1.
Se tiene:
�(t) = t () u(t) = 0 () t = �1;2 =1� �0
�
�
s�1� �0
�
�2
� 2�
�
;
IV.3 M�etodo de Newton 189
donde �1;2 son las raices de u(t). Expresando ambas raices en funci�on de h,
se obtiene
�1;2 =1�p1� 2h
h
�
1� �0
;
puesto que h � 1=2, las dos raices de u son positivas, siendo �1 la raiz m�as
peque~na, se tiene:
�1 � �2; �1 = �:
Por otro lado, ambas raices son acotadas, en efecto
�1 + �2
2=
1
h
�
1� �0
=1� �0
�
� 1
�
:
Estudiando la funci�on �(t) se tiene tres casos, que se observan en la �gura
IV.3.3.
α
ρ ρ /µ11 2
�1 � �2 �1
�
α
/µ1
�1 <1
�
< �2
α
/µ1
�2 =1
�
Figura IV.3.3. Gr�a�cas de la funci�on �:
Para 0 < t < �1, se tiene que �0(t) > 0, en efecto:
�(t) = t+u(t)
v(t);
�0(t) =v(t) + u
0(t)
v(t)+ u(t)
v0(t)
v2(t)| {z }> 0
;
v(t) + u0(t) = 1� �t+ �t� (1� �0) = �0 + (� � �)t � 0:
Por consiguiente, � es creciente sobre el intervalo (0; �1), y adem�as tk < �1;
para k = 0 es cierto, sup�ongase cierto para k, entonces
tk+1 = �(tk) < �(�1) = �1;
190 IV Ecuaciones No Lineales
La sucesi�on ftkg es creciente y mayorada, por lo tanto es convergente y
converge al primer punto �jo de �, el cual es �1. De aqu��, se deduce que
xk 2 B(x0; �1):
Ahora se est�a en condiciones de mostrar que fxkg es una sucesi�on con-
vergente, para tal motivo se debe demostrar antes que es una sucesi�on de
Cauchy. Se tiene:
kxk+1 � xlk � kxk+1 � xkk+ � � �+ kxl+1 � xlk� tk+1 � tk + � � �+ tl+1 � tl
< �1 � tl �! 0
cuando k � l �!1:
De donde limk!1
= x� y como M(xk) es acotada se deduce inmediata-
mente
f(x�) = 0;
mostrando as�� el punto ii).
Para la demostraci�on del punto iii) son necesarias algunas convenciones
sobre la escritura de los s��mbolos utilizados. La sucesi�on fxkg est�a de�nidapor
xk+1 = xk �M(x0)�1f(xk);
planteando:
�M(x) =M(x0); �� = �; �! = !; �� = 0:
Por otro lado, M(x0)�1(f 0(x)� �
M(x)) � M(x0)
�1(f 0(x)�M(x))
+ M(x0)
�1(M(x) � �
M(x))
��0 + �1 kx� x0k+ � kx� x0k=��0 + �
�1 kx� x0k
con ��0 = �0, ��1 = �1 + � y �� = �. De�niendo G(x) = x �M(x0)
�1f(x), se
tiene:
G0(x) =I �M(x0)
�1f0(x);
kG(y)�G(xk�1)k �kG(y)�G(xk�1)�G0(xk�1)(y � xk�1)k
+ �G0(xk�1)�G
0(x0)�(y � xk�1)
+ kG0(x0)(y � xk�1)k
� M(x0)
�1�� f(y) + f(xk�1) + f
0(xk�1)(x � yk�1)�
+ M(x0)
�1(f 0(xk�1)� f0(x0))(y � xk�1)
+ M(x0)
�1(M(x0)� f0(x0))(y � xk�1)
IV.3 M�etodo de Newton 191
utilizando una integral como en el punto ii), se obtiene
kG(y)�G(xk�1k �!
2ky � xk�1k
+! kxk�1 � x0k ky � xk�1k+ �0 ky � xk�1k ;
Sea y� 2 D \ B(x0; �+), remplazando y por y� en la �ultima desigualdad, se
obtiene
ky� � xk�1k �!
2ky� � xk�1k
+! kxk�1 � x0k ky� � xk�1k+ �0 ky� � xk�1k ;
y planteando tambi�en y = xk, se obtiene
kxk � xk�1k �!
2kxk � xk�1k
+! kxk�1 � x0k kxk � xk�1k+ �0 kxk � xk�1k ;
Como en el punto ii) se remplazan kxk � x0k por tk � t0 con t0 = 0 y
ky� � xkk por sk � tk, el s��mbolo � por la igualdad, obteniendo as��:
tk+1 � tk =!
2(tk � tk�1)
2 + !tk�1(tk � tk�1) + �0(tk � tk�1);
t0 = 0; t1 = �;
sk � tk =!
2(sk�1 � tk�1)
2 + !tk�1(sk�1 � tk�1) + �0(sk�1 � tk�1);
s0 = ky� � x0k < �+:
Se demuestra por inducci�on que:
kxk+1 � xkk � tk+1 � tk;
kxk � x0k � tk;
ky� � xkk � sk � tk
El siguiente paso en la demostraci�on consiste en estudiar las sucesiones ftkgy sk. Se tiene:
tk+1 � tk =!
2(t2k � 2tktk�1 + t
2k+1) + !tk�1(tk � tk�1) + �0(tk � tk�1);
tk+1 �!
2t2k � �0tk = tk �
!
2t2k�1 � �0tk�1 = �;
sk� tk =!
2(s2k�1�2sk�1tk�1+ t
2k�1)+!tk�1(sk�1� tk�1)+�0(sk�1� tk�1)
sk �!
2s2k�1 � �0sk�1 = tk �
!
2t2k�1 � �0tk�1 = �:
192 IV Ecuaciones No Lineales
De�niendo la funci�on (t) por
(t) =!
2t2 + �0t+ �;
entonces se obtiene, los resultados siguientes para sk y tk:
tk+1 = (tk); t0 = 0;
sk = (sk�1); s0 = ky� � x0k < �+:
Se tiene que, 0(t) = !t+ �0 � 0; si t � 0, para estudiar la convergencia de
las sucesiones, se debe determinar los puntos �jos de , es decir resolver la
ecuaci�on!
2t2 + (�0 � 1)t+ � = 0;
las raices de �esta, est�an dadas por:
��� =1�
p1� 2�h�h
;
se puede observar, que la sucesi�on tk es creciente y tiende hacia ��, por otro
lado la sucesi�on sk es decrecientre y tiende hacia ��. Ver la �gura IV.3.4
t
α
ρ ρ
Ψ (t)
− +
Figura IV.3.4. Gr�a�ca de la funci�on :
Como en el punto ii) se muestra que la sucesi�on fxkg es de Cauchy, por
consiguiente xk �! x� y f(x�) = 0, adem�as se tiene
kx� � x0k � ��;
ky � �x�k � sk � tk �! 0;
y� = x
�:
�
IV.3 M�etodo de Newton 193
Para ilustrar la utilizaci�on del teorema de Newton-Kantorovich, se tiene
el:
Ejemplo
Consid�erese, la funci�on f dada por
f(x) =
�x21 + x
22 � 1
x2 � x21
�;
partiendo del punto (1; 1) y tomando como dominio D = R2 , M(x) =
f0(x), es decir el m�etodo de Newton en su versi�on no modi�cada, se
tiene:
� = 0; 37; ! = 1; 2; �0 = 0; �1 = 0;
� = !; � = 1; 2:
Veri�cando y efectuando c�alculos se obtiene:
h = 0; 444 � 1=2; � = �� = 0; 554; �+ = 0; 981:
M�etodo de Newton con Relajaci�on
Una de las principales desventajas del m�etodo de Newton, tanto en su versi�on
original, como en su versi�on simpli�cada, es que es necesario estar cerca de
la soluci�on del problema. Lamentablemente, en una gran mayor��a de casos
eso no es posible. Por lo tanto, es necesario modi�car el m�etodo de manera
a que la convergencia sea una preocupaci�on menor. El m�etodo de Newton
est�a dado, por las iteraciones
xk+1 = xk � (f 0(xk))�1f(xk);
se tiene convergencia si kx1 � x0k � � su�cientemente peque~no, sin embargo
esta condici�on no se cumple en general. Una soluci�on alternativa ser��a
modi�car el m�etodo de la manera siguiente:
pk = �(f 0(xk))�1f(xk);xk+1 = xk + �kpk;
con 0 < � � 1. La base te�orica de esta modi�caci�on est�a dada por la:
Proposici�on IV.3.5.- Sean D � Rn , f : D ! Rn continuamente diferen-
ciable, x0 2 D, f(x0) 6= 0 y p0 = �(f 0(x0))�1f(x0). Entonces para toda
matriz A inversible, existe �0 > 0 tal que para todo �, 0 < � < �0, se tiene
kAf(x0 + �p0)k < � kAf(x0)k :
194 IV Ecuaciones No Lineales
Demostraci�on.- Se de�ne la funci�on g : R �! R para una matriz A �ja e
inversible, como
g(�) = kAf(x0 + �p0)k22= f(x0 + �p0)
tAtAf(x0 + �p0);
calculando la derivada de g, se obtiene:
g0(�) = 2f(x0 + �p0)
tAtAf
0(x0 + �p0)p0;
g0(0) = �2f(x0)tAt
Af0(x0)(f
0(x0))�1f(x0)
= �2 kAf(x0)k22 < 0;
por consiguiente, existe �0 con las conclusiones requeridas por la proposici�on.
�
Otra de las motivaciones para modi�car el m�etodo de Newton consiste
en el siguiente hecho. Sean D � Rn , f : D �! Rn continuamente
diferenciable con derivada inversible para todo x 2 D. Llamando p(x) =
�(f 0(x))�1f(x) la direcci�on de Newton para la funci�on f , se obtiene la
siguiente ecuaci�on diferencial
x0 = p(x): (IV:3:12)
Una manera de resolver num�ericamente esta ecuaci�on, ver Cap��tulo VII,
consiste en aproximar la soluci�on mediante segmentos poligonales, es decir,
de�nir una sucesi�on de v�ertices, dados por
xk+1 = xk � �kp(xk); (IV:3:13)
este m�etodo de resoluci�on de ecuaciones diferenciales es conocido como el
m�etodo de Euler.
El m�etodo modi�cado se lo conococe como �-estrategia y su formulaci�on
es la siguiente:
�xk = �(f 0(xk))�1f(xk);xk+1 = xk + �k�xk:
(IV:3:14)
Si �k = 1 para todo k, se tiene el m�etodo de Newton usual. La otra situaci�on
es escoger �k, tal que
g(�) = kAf(xk + �k�xk)k �! min; (IV:3:15)
presentandose dos interrogantes:
>C�omo escoger la matriz A?
IV.3 M�etodo de Newton 195
>C�omo calcular el m��nimo de g(�)?
La elecci�on de A, se la realiza considerando los siguientes hechos. Se
desea que
kxk + �k�xk � x�k �! min;
donde x� es la soluci�on de f(x) = 0. No se conoce por el momento x�, pero
se sabe f(x�) = 0. Se tiene, las siguientes aproximaciones:
f(x)� f(x�) � f0(x�)(x� x
�) � f0(xk)(x � x
�)
con x = xk + �k�xk, de donde
xk + �k�xk � x� = (f 0(xk))
�1f(xk + ��xk);
escogiendo, de esta manera
A = (f 0(xk))�1; (IV:3:16)
Por lo tanto (IV.3.15), se convierte en g(�) = (f 0(xk))�1f(xk + ��xk)
y elproblema radica en determinar �, para que g(�) sea m��nimo. A continuaci�on
se da un algoritmo simple que permite determinar este �:
Sup�ongase que se conoce xk y una aproximaci�on �k de �k . Se tiene dos
casos:
a) g(�k) � 0, es decir xk + �k es peor que xk.
Se busca el m�as peque~no de los j > 1, tal que
g(�k2�j) < g(0);
se plantea �k = �k2�j .
b) g(�k) < 0. Se busca el j > 0 m�as peque~no tal que
g(2j+1�k) > g(2j�k)
y se plantea �k = 2j�k .
En ambos casos �k no debe ser m�as grande que 1.
Finalmente surge la �ultima interrogante, >Como determinar �k? Uti-
lizando un desarrollo de Taylor se tiene:
(f 0(xk))�1f(xk + ��xk))
= (f 0(xk))�1
�f(xk) + �f
0(xk)�xk +�2
2f00(xk)(�xk ;�xk) +O(�3)
�
196 IV Ecuaciones No Lineales
Por otro lado f(xk) + �f0(xk)�xk = (1� �)�xk y (f 0(xk))
�1f(xk) = �xk,
de donde utilizando el desarrollo de Taylor, la desigualdad del tri�angulo y
las observaciones anteriores, se tiene
g(�) � k�xkk (1� �+�2
2hk +O(�3))
donde hk = (f 0(xk))�1f 00(xk)(�xk ;�xk) = k�xkk : Despreciando el t�er-
mino O(�3), se obtiene un polinomio de grado 2, cuyo m��nimo se encuentra
en
�k =1
hk
; (IV:3:17)
faltando determinar hk. Como es pr�acticamente imposible determinar con
exactitud hk solo se requiere encontrar una buena aproximaci�on de hk. Para
tal efecto, se supone que se ha efectuado k � 1 iteraciones, teniendo:
�xk = �(f 0(xk))�1f(xk);d�xk = �(f 0(xk�1))�1f(xk);d�xk ��xk = (f 0(xk�1))�1(f 0(xk)� f
0(xk�1))d�xk� (f 0(xk�1))
�1f00(xk)(xk � xk�1;
d�xk):Pasando a las normas se obtiene la siguiente relaci�on: d�xk ��xk
� hk
k�xkk�k�1 k�xk�1k
d�xk ;de donde
�k = min
0@1; �k�1 k�xk�1k k�xkk d�xk ��xk
d�xk 1A: (IV:3:18)
Ejemplo
Consid�erese, la funci�on f de�nida por
f(x) =
��13x1 + x2((5� x2)� 2)
�29 + x1 + x2((1 + x2)x2 � 14)
�Tomando como valor inicial x1 = 0; 5 y x2 = 2; 24, se resolver�a el
problema f(x) = 0, utilizando la �-estrategia, el m�etodo de Newton en
su version original. A continuaci�on se presentan los resultados obtenidos
para ambos:
IV.3 M�etodo de Newton 197
Tabla IV.3.3. Resultados con �-estrategia.
Iteraci�on x1 x2 k�xk �
1 �8:5849058 3:94357758 1183:1361 7:8125� 10�3
2 4:989738 4:0012650 13:574766 1:0
3 4:9999949 4:0000006 1:03345� 10�2 1:0
4 4:9999999 4:000000 5:08213� 10�6 1:0
5 5:0 4:0 0:0 1:0
Tabla IV.3.4. Resultados sin �-estrategia.
Iteraci�on x1 x2 k�xk1 �1162:367 220:297 1183:1
2 �47637:0 147:095 46474:7
3 �21035:69 98:296 26601:42
4 �9256:28 65:77062 11779:45
5 �4049:98 44:09533 5206:34
6 �1755:45 29:658 2294:57
7 �748:669 20:056 1006:82
8 �310:0149 13:688 438:7011
9 �121:126 9:5002 188:934
10 �41:5288 6:8016 79:6434
11 �9:51218 5:16002 32:05875
12 1:887 4:3114 11:4307
13 4:7248 4:03167 2:8516
14 4:9968 4:0003 0:27378
15 4:9999 4:0000 3:149� 10�3
16 4:9999 4:0 4:566� 10�7
17 5:0 4:0 0:0
198 IV Ecuaciones No Lineales
Aproximaci�on de Broyden
Uno de los principales problemas en la implementaci�on del m�etodo de
Newton, tanto en su versi�on con relajaci�on, como en su versi�on original, es
el c�alculo de la matriz jacobiana f 0(xk) en cada iteraci�on y por consiguiente
mediante el algoritmo de eliminaci�on de Gauss determinar la descomposici�on
LR de esta matriz. Existen muchas alternativas para evitar el c�alculo de la
matriz jacobiana y su descomposici�on LR en cada iteraci�on. El siguiente
an�alisis permitir�a encontrar algunas de estas alternativas. Utilizando las
relaciones dadas por (IV.3.17) y (IV.3.18) respecto a la determinaci�on de los
coe�cientes de relajaci�on, la experiencia num�erica indica que, si �khk � 10�1
se puede tomar en el lugar de f0(xk+1) f
0(xk). En este caso se tiene
la versi�on simpli�cada del m�etodo de Newton. Sin embargo, existe otra
alternativa descubierta por Broyden en 1965. Se supone, que se conoce una
aproximaci�on Jk de f 0(xk), es decir
Jk � f0(xk) (IV:3:19)
de donde el m�etodo de Newton est�a dado por
�xk = �Jk�1f(xk);xk+1 = xk +�xk
el objetivo es por consiguiente, encontrar Jk+1 una aproximaci�on simple de
calcular de f 0(xk+1). Para tal efecto, la matriz Jk debe permanecer igual en
las direcciones ortogonales a �xk, es decir:
Jk+1p = Jkp 8p?�xk;Jk+1�xk = Jk�xk + q;
(IV:3:20)
por lo tanto
q = Jk+1�xk � Jk�xk = f(xk) + Jk+1�xk| {z }� f
0(xk+1)�xk| {z }f(xk+1) +Ok�xk2
;
de donde
Jk+1�xk = Jk�xk + f(xk+1): (IV:3:20)
Proposici�on IV.3.6.- Si Jk es inversible y ��xk+1
< k�xkk, donde
�xk = �J�1k f(xk) ��xk+1 = �J�1k f(xk+1);
IV.3 M�etodo de Newton 199
entonces Jk+1 es inversible.
Demostraci�on.- Sean, � 2 R y p?�xk, se va mostrar que kerJk+1 = f0g.En efecto:
0 = Jk+1(��x + p)
= �(Jk�xk + f(xk+1) + Jkp
= Jk(��xk + p) + �f(xk+1)
= ��xk + p� ���xk+1;
introduciendo el producto escalar, multiplicando por �xk , se obtiene:
� k�xkk2 � �
��xk+1;�xk
�= 0;
por la desigualdad de Cauchy-Schwartz, se tiene�� ��xk+1;�xk��� � ��xk+1
k�xkk < k�xkk2 ;de donde � = 0 y por consiguiente p = 0. �
La determinaci�on de �xk+1 y ��xk se propone en los ejercicios.
Ejercicios
1.- Utilizando el teorema de Newton-Kantorovich encontrar � > 0 tal que
la iteraci�on
zk+1 = zk �f(zk)
f0(zk)
f(z) = z3 � 1
converge hacia 1, si z0 2 C satisface jz0 � 1j < �.
2.- Sea D � Rn y f : D ! Rn continuamente diferenciable. Para x0 2 Dsup�ongase que f(x0) 6= 0 y que f 0(x0) sea inversible. Mostrar que
p0 = �f 0(x0)�1f(x0)
es la �unica direcci�on que tiene la propiedad siguiente:
para toda matriz inversible A existe �0 > 0 tal que para 0 < � < �0
kAf(x0 + �p0)k2 < kAf(x0)k2 :
3.- En el art��culo
R.S. Dembo, S.C. Eisenstat & T. Steighaug(1982): Inexact Newton
methods. SIAM J. Numer. Anal., vol. 19,400-408.
200 IV Ecuaciones No Lineales
los autores consideran la modi�caci�on siguiente del m�etodo de Newton:
f0(xk)�xk = �f(xk) + �k
xk+1 = x+ l +�xk:(IV:3:22)
Las perturbaciones �k pueden ser interpretadas como la in uencia de
los errores de redondeo, como el error debido a una aproximaci�on de
f0(xk),... Sup�ongase que �k = �(xk) y que
k�(x)k � � kf(x)k (IV:3:23)
con � < 1.
a) Mostrar el resultado:
Sea D � Rn abierto, f : D ! Rn y � : D ! Rn continuamente
diferenciables en D. Si la condici�on (IV.3.23) es satisfecha con � < 1
y si k�x0k es su�cientemente peque~no, entonces la iteraci�on (IV.3.21)
converge hacia una soluci�on de f(x) = 0.
b) El teorema precedente no es cierto, en general, si se remplaza � < 1
por � � 1. Mostrarlo.
Indicaci�on. Encontrar una matrizM(x) tal que la iteraci�on (IV.3.21) se
vuelva equivalente a
M(xk)�xk = �f(xk);
y aplicar el teorema de Newton-Kantorovich. Utilizar la norma
kukJ = kf 0(x0)uk :
4.- (U. Ascher & Osborne 1987). Considerar una funci�on f : R2 ! R2 que
satisfaga
f(0) = � 1
10
�4p3� 3
�4p3� 3
�;
f(u) =1
5
�4
�3
�;
f0(0) =
�1 0
0 1
�f0(u) =
�1=p3 �1=
p3
1 1
�donde u = �f(0). Aplicar el m�etodo de Newton con el valor inicial
x0 = 0. Para la sucesi�on fxkg obtenida de esta manera mostrar:a) xk+2 = xk para todo k � 0;
b) el test de monotonocidad (f 0(xk))�1f(xk+1) 2<
(f 0(xk))�1f(xk) 2
IV.3 M�etodo de Newton 201
es satisfecho en cada iteraci�on.
5.- Sea f : Rn ! Rn dos veces diferenciable. Mostrar que
kf 00(x)(h; k)k1�M khk
1kkk
1
donde M = maxi
Xj
Xl
���� @2fi
@xj@xl
(x)
����.6.- Sea f : D ! R2 dada por D =
��x1
x2
�j � 1 < x1; x2 < 3
�,
f(x) =
�x1 � x2
(x1 � 8)x2
�; x0 =
�0:125
0:125
�:
Calcular los valores � y ! del teorema de Newton-Misovski. Mostrar
que el metodo de Newton converge hacia una soluci�on de f(x) = 0:
7.- Sean f : D ! Rn 3 veces continuamente diferenciable, Jk una aproxi-
maci�on de la matriz f 0(xk) y p 2 Rn ; p 6= 0. Para la aproximacion de
Broyden
Jk+1 = Jk + (f(xk + p)� f(xk)� Jkp):pt
ptp
se tiene:
a) (Jk+1 � f0(x0 + p))p = (1� )(Jk � f
0(xk))p
+(
2� 1)f 00(xk)(p; p) +O(kpk3):
b) para 2 [0; 2]kJk+1 � f
0(x0 + p)k2 � kJk � f0(xk)k2 + kf
00(xk)(p; :)k2 +O(kpk2):
8.- Sup�ongase que se conoce una aproximaci�on J0 de f0(x0), y su descom-
posici�on LR. Consid�ere la iteraci�on
Jk�xk� = f(xk)
xk+1 = xk +�xk
donde Jk+1 (aproximaci�on de Broyden), est�a de�nido por
Jk+1�xk = Jk�xk + f(xk+1);
Jk+1p = Jkp; si pt�xk = 0:
Sin calcular explicitamente J1 y J2, encontrar f�ormulas para �x1 y �x2.
202 IV Ecuaciones No Lineales
9.- Consid�erese una funci�on f : Rn ! Rm donde m < n. El conjunto
E = fxjg(x) = 0g
representa una super�cie en Rn .
Dado x 2 Rn . Proponer un algoritmo para calcular el punto de E el m�as
pr�oximo de x. Estudiar las hip�otesis para que el algoritmo converga.
10.- Consid�erese la ecuaci�on integrale de Fredholm (cf. Ejercicio 3 secci�on
IV.3)
�y(x) =2
�
Z �
0
(3 sinx sin t+ 2 sin(2x) sin(2t))(y(t) + (y(t))3)dt
(IV:3:24)
y(x) = 0 es soluci�on de (IV.3.24) para todo � 2 R. Con las ideas del
ejercicio 3 de la anterior secci�on se puede escribir (IV.3.24) bajo la forma
G(c1; c2; �) = 0:
Calcular los �, donde det @G@C
(C; 0) = 0:
Interpretar estos puntos con el teorema de las funciones implicitas.
(Soluciones: �1 = 2; �2 = 3)
11.- Mostrar num�ericamente que para �1 = �1 + � (� > 0) el problema
(IV.3.24) posee al menos 3 soluciones, para �1 > �2 al menos 5
soluciones.
Calcular tambi�en todas las soluciones de (IV.3.24) para � = 10, (hay
13).
IV.4 M�etodo de Gauss Newton
El estudio de las ecuaciones realizados en las secciones precedentes, consist��an
en problemas de la forma f(x) = 0 o su variante del punto �jo x = f(x),
donde f : D � Rn ! Rn . Sin embargo, existen muchos problemas donde
intervienen ecuaciones no lineales, que se encuentrar en una diversidad de
problemas, sobre todo en la determinaci�on de param�etros en el an�alisis de
datos. El problema puede formularse de la siguiente manera. Sea
f : D � Rn ! Rm con n � m;
el problema consiste en encontrar x 2 D, tal que
kf(x)k2 �! min : (IV:4:1)
En el cap��tulo II.5, se abord�o el problema bajo su forma lineal, se
formul�o el m�etodo QR para resolver este problema, y as�� mismo se introduj�o
la noci�on de pseudo-inversa de una matriz. Para el problema no lineal, se
sigue el mismo esquema. Pero antes de continuar en esa direcci�on, existe
una alternativa de soluci�on. Se de�ne la funci�on g : D ! Rn de la manera
siguiente
g(x) = kf(x)k22 ; (IV:4:2)
de donde
g0(x) = 2(f 0(x))
tf(x); (IV:4:3)
se busca, por consiguiente, los x 2 D tales que (f 0(x))tf(x) = 0. En principio
se podr��a utilizar el m�etodo de Newton para resolver este problema, pero la
principal desventaja, consiste en calcular la segunda derivada de f . Este
algoritmo da los m��nimos locales.
La otra alternativa de soluci�on de este problema, se la di�o m�as arriba,
es el m�etodo de Gauss-Newton. Al igual que en el m�etodo de Newton, la
idea principal de este m�etodo consiste en linearizar el problema. Sea x0 2 Dun valor inicial. Utilizando un desarrollo de Taylor en x0 se obtiene
kf(x)k22 = kf(x0) + f0(x0)(x � x0) + � � �k22 ;
considerando los t�erminos lineales del segundo miembro de la ecuaci�on se
obtiene, al igual que en el cap��tulo II.5,
x� x0 = �f 0(x0)+f(x0); (IV:4:4)
donde f 0(x0)+es la pseudo inversa de f 0(x).
204 IV Ecuaciones No Lineales
Por lo tanto, se puede formular el m�etodo de Gauss-Newton, como:
�xk = �f 0(xk)+f(xk);xk+1 = xk +�xk:
(IV:4:5)
El c�alculo de �xk se lo realiza, utilizando la descomposici�on QR dada en
el cap��tulo II.5. Como se puede observar, la implementaci�on del m�etodo de
Gauss-Newton es muy simple, y al igual que el m�etodo de Newton existen
muchas variantes o modi�caciones de �este.
Convergencia del M�etodo de Gauss-Newton
Sea, fxkg la sucesi�on de�nida por el m�etodo de Gauss-Newton, si esta
sucesi�on es convergente cuando k !1, se tiene
�xk �! 0; f0(x)
+f(xk) �! 0;
sup�ongase que limk!1
xk = x�, que el rango de f
0(x) es constante en un
vecindario de x�, por que si no f 0(x)+no ser��a continua, ver teorema II.5.6,
entonces
f0(x�)
+f(x�) = 0: (IV:4:6)
Por otro lado, si x 2 D es un m��nimo local de g(x) = kf(x)k22, se tiene
@
@xj
mXi=1
fi(x)2
!= 2
mXi=1
@fi
@xj
(x) � fi(x) = 0; 8j;
de donde
f0(x)
tf(x) = 0: (IV:4:7)
Los resultados (IV.4.6) y (IV.4.7) est�an relacionados por el siguiente:
Proposici�on IV.4.1.- Se tiene
f0(x)
+f(x) = 0 () f
0(x)tf(x): (IV:4:8)
Demostraci�on.- Por el teorema II.5.5 existen dos matrices ortogonales U
y V , tales que
f0(x) = U
0BB@�1
. . .
�k
0
0 0
1CCAVt;
IV.4 M�etodo de Gauss Newton 205
remplazando, se tiene
f0(x)
t= V
0BB@�1
. . .
�k
0
0 0
1CCAUt = 0;
si y solamente si las primeras k componentes de U tf son nulas, si y solamente
si
f0(x)
+V
0BB@��11
. . .
��1k
0
0 0
1CCAUt = 0:
�
A la diferencia del m�etodo de Newton, el m�etodo de Gauss-Newton
ofrece solamente convergencia de tipo lineal, situaci�on que ser�a mostrada a
continuaci�on. Como antes, se de�ne g(x) = (f 0(x))tf(x), si x� es soluci�on
del problema de minimizaci�on de la norma euclidiana, se tiene g(x�) = 0.
El desarrollo en serie de Taylor en punto x de la funci�on g, da el siguiente
resultado
0 = g(x) + g0(x)(x� � x) +O(kx� � xk22);
por otra lado, la funci�on g y sus derivadas parciales satisfacen:
gj(x) =
mXi=1
@fi(x)
@xj
fi(x);
@gj
@xk
(x) =
mXi=1
@2fi(x)
@xj@xk
fi(x) +
mXi=1
@fi
@xj
(x)@fi
@xk
(x);
de donde
g0(x) = B(x)(f(x); ) + f
0(x)tf0(x);
con B(x) una forma bilineal sim�etrica. Por consiguiente el desarrollo de
Taylor de g en xk, el k-esimo valor obtenido en la iteraci�on del m�etodo de
Gauss-Newton, es igual a
0 = f0(xk)
tf(xk) + f
0(xk)tf0(xk)(x
� � xk) +B(xk)(f(xk); x� � xk)
+O(kx� � xkk22);
y por el m�etodo de Gauss Newton, se tiene
xk+1 � xk = �f 0(xk)+f(xk);
206 IV Ecuaciones No Lineales
multiplicando esta �ultima expresi�on por f 0(xk)tf0(xk) se obtiene
0 = f0(xk)
tf0(xk)f
0(xk)+f(xk) + f
0(xk)tf0(xk)(xk+1 � xk);
y utilizando el teorema II.5.7, el inciso d), se tiene �nalmente
f0(xk)
tf(xk) + f
0(xk)tf0(xk)(xk+1 � xk);
sustrayendo esta �ultima expresi�on con aqu�ella concerniente al desarrollo de
Taylor, se obtiene
0 = f0(xk)
tf0(xk)(xk+1 � x
�) +B(xk)(f(xk); x� � xk) +O(kx� � xkk22):
Ahora bien, sup�ongase adem�as que rang f 0(xk) = n, es decir que el rango
sea maximal. De donde se tiene
xk+1 � x� = �
�f0(xk)
tf0(xk)
��1
B(xk)(f(xk); x� � xk) +O(kx� � xkk22);
por consiguiente, el m�etodo de Gauss-Newton converge linealmente si
�
��f0(xk)
tf0(xk)
��1
B(xk)(f(xk); )
�< 1;
y diverge si
�
��f0(xk)
tf0(xk)
��1
B(xk)(f(xk); )
�> 1:
Debe observarse que si f(x�)=0, el m�etodo de Gauss-Newton converge
cuadr�aticamente, en este caso se tiene un problema compatible. Por otro
lado, el problema inicial era buscar x tal que f(x) = 0, motivo por el cual se
debe esperar que la soluci�on encontrada por el m�etodo de Gauss-Newton de
f(x�) bastante peque~no, de manera que el radio espectral sea m�as peque~no
que 1.
Al igual que en el m�etodo de Newton, el c�alculo de f0(x) se lo real-
iza en muchas ocaciones num�ericamente, o en los casos en que se pueda
anal��ticamente. Es indudable que la matriz f0(x) en las iteraciones del
m�etodo de Gauss-Newton tienen un componente de error, utilizando las
relaciones (IV.3.5) y (IV.3.6), este error es del orden depeps, donde eps
es la precisi�on del computador. Por consiguiente la k-esima iteraci�on del
m�etodo de Gauss-Newton, considerando que el error cometido por redondeo
se encuentra solamente en el c�alculo de f 0(x), est�a dada por
�xk = �(f 0(xk) +E)+f(xk);
IV.4 M�etodo de Gauss Newton 207
con kEk2 =peps. Efectuando operaciones con la pseudo inversa, dadas en
el teorema II.5.7 se obtiene:
�xk = ��(f 0(xk) +E)
t(f 0(xk) +E)
��1
(f 0(xk) +E)tf(xk);�
(f 0(xk) +E)t(f 0(xk) +E)
��xk = �(f 0(xk) +E)
tf(xk);�
(f 0(xk) +E)t(f 0(xk) +E)
��xk + (f 0(xk) +E)
tf(xk) = 0;
despreciando E en el primer t�ermino de la �ultima ecuaci�on, se obtiene�f0(xk)
tf0(xk)
��xk + f
0(xk)tf(xk) +E
tf(xk) = 0;
introduciendo en la serie de Taylor, como se hizo m�as arriba, se obtiene
�Etf(xk) = f
0(xk)tf0(xk)(xk+1 � x
�) +B(xk)(f(xk); x� � xk)
+O(kx� � xkk22);
mostrando as�� que si f(x�) 6= 0, es inutil buscar una precisi�on superior apeps.
Modi�caciones del M�etodo de Gauss-Newton
Similarmente al m�etodo de Newton, existen varias modi�caciones del m�etodo
original de Gauss-Newton. Una de las mayores di�cultades en la imple-
mentaci�on de este m�etodo consiste en calcular f 0(xk) en cada iteraci�on.
Por consiguiente, una primera modi�caci�on consiste en utilizar el m�etodo
de Gauss-Newton simpli�cado, el cual est�a dado por:(x0 bastante pr�oximo de la soluci�on;
�xk = �f 0(x0)+f 0(xk);
La principal ventaja de utilizar el m�etodo de Gauss-Newton simpli�cado
consiste en calcular por una vez f 0(x0) y luego efectuar la descomposici�on
QR. Sin embargo existe una desventaja, que no se puede llegar a la soluci�on
x�, si f(x�) 6= 0, esto se ha observado al �nalizar la anterior subsecci�on.
Otra modi�caci�on corrientemente utilizada en el m�etodo de Gauss-
Newton consiste en utilizar coe�cientes de relajaci�on o m�as conocido como la
�-estrategia. Sobre todo, se utiliza la relajaci�on cuando los valores iniciales
utilizados para activar el m�etodo no est�an muy cerca de la soluci�on buscada,
adem�as como un medio de aceleraci�on de convergencia. Por lo tanto el
m�etodo de Gauss-Newton con �-estrategia, est�a dado por8><>:x0 bastante pr�oximo de la soluci�on;
�xk = �f 0(x0)+f 0(xk);xk+1 = xk + �k�xk ; 0 < �k � 1:
208 IV Ecuaciones No Lineales
El valor �k se determina de la mismamanera, que para el m�etodo de Newton,
con la �unica variaci�on de utilizar la pseudo-inversa en el lugar de la inversa.
Ejemplos
1.- Este ejemplo est�a relacionado con la subsecci�on concerniente a la
convergencia del m�etodo de Gauss-Newton. Se busca x 2 R tal que
g(t) = ext ajuste lo mejor posible m puntos (ti; yi), i = 1; : : : ;m; con
m � 1. Por consiguiente, el problema consiste en determinar x tal que
mXi=1
(yi � exti) �! min;
de donde, dentro las caracter��sticas de la aplicaci�on del m�etodo de
Gauss-Newton se tiene:
f(x) =
0B@ ext1 � y1
...
extm � ym
1CA ; f0(x) =
0@ t1ext1
...
tmextm
1A;
continuando con los c�alculos se tiene:
f0(x)
tf0(x) =
mXi=1
(tiexti)2;
B(x)(f(x); ) =
mXi=1
t2i e
xti(exti � yi):
Sea por otro lado � tal que��exti � yi
�� � �exti
i = 1; : : : ;m;
obteniendo, la mayoraci�on siguiente����������
mXi=1
t2i e
xti(exti � yi)
mXi=1
(tiexti)2
����������� �;
se tiene convergencia si � < 1.
2.- Este ejemplo es una ilustraci�on num�erica de la implementaci�on del
m�etodo de Gauss-Newton con relajaci�on. El problema consiste en
determinar la circunferencia que pasa lo m�as cerca posible de los
IV.4 M�etodo de Gauss Newton 209
siguientes puntos: (2; 3), (2; 1), (1; 2), (3; 2) y (2:5; 2:5). Ahora bien la
ecuaci�on de una circunferencia de centro (h; k) y radio r est�a dada por
(x � h)2 + (x� k)2 � r2 = 0;
por consiguiente el problema consiste en determinar h, k y r de manera
que se obtenga la circunferencia m�as pr�oxima a estos puntos. Para la
implementaci�on del m�etodo de Gauss-Newton, se tiene que
f(h; k; r) =
0BBB@(h� 2)2 + (k � 3)2 � r
2
(h� 2)2 + (k � 1)2 � r2
(h� 1)2 + (k � 2)2 � r2
(h� 3)2 + (k � 2)2 � r2
(h� 2:5)2 + (k � 2:5)2 � r2
1CCCADespu�es de un simple gr�a�co, se puede tomar como valores iniciales
h = 2, k = 2 y r = 1, utilizando el m�etodo de Gauss-Newton con
relajaci�on despues de 5 iteraciones, se obtiene los siguientes valores:
h =1:95833333333295;
k =1:95833333333295;
r =0:959239125904873
En la �gura IV.4.1, se tiene la gr�a�ca de la circunferencia resultante
del m�etodo de Gauss-Newton.
.0 .5 1.0 1.5 2.0 2.5 3.0 3.5 4.0.0
.5
1.0
1.5
2.0
2.5
3.0
3.5
4.0
Figura IV.4.1. Circunferencia del m�etodo de Gauss-Newton.
210 IV Ecuaciones No Lineales
El M�etodo de Levenberg-Marquandt
El problema abordado en esta secci�on, es resolver kf(x)k ! min, donde
f : Rn ! Rm , con n � m. El m�etodo propuesto en el anterior paragrafo
fue el m�etodo de Gauss-Newton. Como se ha visto, uno de los mayores
incovenientes es que para iniciar las iteraciones se debe partir de un punto
inicial bastante pr�oximo de la soluci�on, por otro lado los an�alisis hechos se
basan en el supuesto que f 0(x) es de rango igual a n, es decir de rango ma-
ximal, adem�as si f(x) no es lo su�cientemente peque~no el m�etodo de Gauss-
Newton diverge. Por las razones expuestas es necesario formular un m�etodo
alternativo que permita evitar las situaciones enumeradas anteriormente.
El m�etodo de Levenberg-Marquandt que constituye un m�etodo alterna-
tivo para resolver el problema de encontrar x con kf(x)k m��nima, se basa enlas siguientes ideas. Al formular el m�etodo de Gauss-Newton, se consider�o
la serie de Taylor de f(x) en el punto xk, resultado de la k � 1 iteraci�on y
se plante�o
kf(x)k = kf(xk) + f0(xk)(x � xk) +O(kx� xkk)k �! min;
suponiendo que x � xk es lo su�cientemente peque~no, se obten��a como
formulaci�on del m�etodo de Gauss-Newton
kf(xk) + f0(xk)(x � xk)k �! min;
y como condici�on suplementaria deseable
kx� xkk �! min;
La idea de Levenberg fue de considerar el problema siguiente para determinar
el valor de xk+1
kf(xk) + f0(xk)(x � xk)k22 + p kx� xkk22 �! min; (IV:4:9)
donde p > 0 es un param�etro �jo. Si se deriva una vez la expresi�on (IV.4.9),
se obtiene:
2f 0(xk)t(f(xk) + f
0(xk)(x � xk)) + 2p(x� xk) = 0;�f0(xk)
tf0(xk) + pI
�(xk+1 � xk) = �f 0(xk)tf(xk): (IV:4:10)
Dependiendo de la elecci�on del param�etro p, el m�etodo de Levenberg-
Marquandt, tiene los siguientes comportamientos:
Si p �! 0, se tiene el m�etodo de Gauss-Newton, para ver realmente lo
que sucede ver el cap��tulo II, secci�on 5, ejercicio 5.
IV.4 M�etodo de Gauss Newton 211
Si p es muy grande, entonces
�xk �= �1
p
f0(xk)
tf(xk);
de esta manera, se tiene la direcci�on de la pendiente m�as grande, o
llamada tambi�en del gradiente, pero en este caso la convergencia podr��a
ser muy lenta.
La elecci�on de p puede ser variable, en el sentido siguiente, comenzar con p
grande hasta que �xk sea bastante peque~no y luego hacer decrecer p hasta
obtener el m�etodo de Gauss-Newton.
Ejercicios
1.- Encontrar una elipse, una hip�erbola, que pasa lo mejor posible por los
puntos (xi; yi)i=1;:::;m. Por ejemplo m = 10; (�1=2; 1), (�1=2;�0:1),(2:5;�1), (1:5; 1:5), (0:3;�1:5), (0:5;�2), (3; 0:1), (3;�0:3), (2:5; 1),(0:5; 3:5).
Indicaciones.- Plantear
f(x; y) = ax2 + 2bxy + cy
2 + dx+ ey + g
y encontrar a; b; c; d; e; g tales que
mXi=1
�f(xi; yi)
�2 �! min
bajo la condici�on ac � b2 = 1 para la elipse, y ac � b
2 = �1 para la
hip�erbola.
2.- Consid�erese el problema de localizar un barco en el oceano. Para
volver el c�alculo m�as simple, se supondr�a que la curvatura terrestre
es despreciable y que todos los puntos est�an situados en el sistema
de coordenadas rectangulares (x; y). Sobre el barco, se mide el �angulo
entre el eje x y las varias estaciones emisoras, cuyas coordenadas son
conocidas.
i xi yi �i
1 8 6 42
2 �4 5 158
3 1 �3 248
212 IV Ecuaciones No Lineales
Te�oricamente, la posici�on (x; y) del barco satisface la relaci�on
arctan
�y � yi
x� xi
�= �i 8i:
Encontrar la posici�on probable de �este. Las coordenadas aproximadas
del barco son x0 = 3; y0 = 2.
Atenci�on.- Hacer los c�alculos en radianes y utilizar siempre la misma
rama de la funci�on arctan.
Cap��tulo V
C�alculo de Valores Propios
La determinaci�on de valores propios o autovalores de una matriz A es
muy corriente en la resoluci�on de m�ultiples problemas. Sus aplicaciones van
desde problemas de minimizaci�on y maximizaci�on, soluci�on de sistemas de
ecuaciones diferenciales, ecuaciones con derivadas parciales, etc. El c�alculo
de valores propios y la determinaci�on de vectores propios para matriz de
un orden inferior o igual a 3 no presenta mayor problema, puesto que su
soluci�on depende del polinomio caracter��stico cuyo grado en este caso es
inferior o igual a 3. Sin embargo, aqu�ellos problemas, donde se requiere saber
los valores y vectores propios, provienen de matrices cuyo orden es mucho
mas grande que 3 Es por eso, necesario e imprecindible formular m�etodos y
algoritmos, lo mas e�cientes posibles, teniendo en cuenta las particularidades
de las matrices que son estudiadas. Ahora bien, la mayor parte de los m�etodos
consevidos sirven para matrices sim�etricas o matrices normales, pues son
�estas, las que se encuentran en la mayor parte de los problemas.
En este cap��tulo, se estudiar�an y formular�an tales m�etodos, pero se
comenzar�a haciendo una introducci�on te�orica del problema de la deter-
minaci�on de autovalores y vectores propios. Como segunda parte de este
cap��tulo, se tendr�a la formulaci�on de estos m�etodos.
V.1 Teor��a Cl�asica y Condici�on del Problema
En esta secci�on, se tratar�a los aspectos te�oricos indispensables para la
comprensi�on del problema de la evaluaci�on de valores propios de una matriz
A de orden n.
De�nici�on V.1.1.- Sea A una matriz de n � n a coe�cientes complejos o
reales. � 2 C es un valor propio, si existe x 2 C n no nulo, tal que
Ax = �x: (V:1:1)
Si este es el caso, x es un vector propio asociado al valor propio �.
Proposici�on V.1.2.- Sea A 2 Mn(C ), � 2 C es un valor propio, si y
solamente si
ker(A� �I) 6= f0g:
Demostraci�on.- Resultado inmediato de la de�nici�on. �
Consecuencia de la anterior proposici�on, se tiene que � es un valor propio
si y solamente si
det(A� �I) = 0; (IV:1:2)
de donde, se tiene la:
De�nici�on V.1.3.- El polinomio caracter��stico de la matriz A 2 Mn(Cn )
est�a dado por
�A(�) = det(A� �I): (IV:1:3)
Por consiguiente, se deduce facilmente que � es un valor propio de A
si y solamente si � es una raiz de �A(�). Por otro lado, este polinomio es
a coe�cientes complejos, de donde existen n valores propios, contando su
multiplicidad, de la matriz A 2Mn(C ).
Proposici�on V.1.4.- Valor propio es una propiedad invariante por simila-
ridad, es decir si B = T�1AT , con T inversible, entonces A y B tienen los
mismos valores propios.
Demostraci�on.- En efecto, sea � valor propio de A, entonces existe un
vector propio asociado a � que se lo denota por v, se tiene
BT�1v = T
�1ATT
�1v = T
�1Av = �T
�1v;
de donde � es un valor propio de B con T�1v valor propio asociado. �
V.1 Teor��a Cl�asica y Condici�on del Problema 215
De�nici�on V.1.5.- Sea A 2Mn(C ), se de�ne la adjunta de A por
A�
ij = �aji:
De�nici�on V.1.6.- Se dice que una matriz U es unitaria si
U�U = I:
Vale la pena recalcar, que una matriz ortogonal a coe�cientes reales
es unitaria, y rec��procamente una matriz unitaria a coe�cientes reales es
ortogonal, en el caso en que existieran coe�cientes complejos no reales la
situaci�on cambia. Por otro lado, es facil ver que el conjunto de las matrices
unitarias forman un grupo para la multiplicaci�on de matrices.
Teorema V.1.7.- Schur. Para cada matriz A 2 Mn(C ), existe una matriz
Q unitaria, tal que
Q�AQ =
0BB@�1 � � � � �0 �2 �
. . .
0 �n
1CCA :
Demostraci�on.- Sea A una matriz cualquiera, entonces existe �1 que es
raiz de det(A��I), de donde existe v1 vector propio asociado a �1, se puedesuponer, sin perder generalidad, que kv1k2 = 1. Se plantea
Q1 = (v1; v2; : : : ; vn);
con v2; : : : ; vn elegidos de manera que Q1 sea unitaria. Esta elecci�on es
posible con el procedimiento de Gramm-Schmidt en el caso complejo. Se
observa inmediatamente, que
AQ1 = Q1
0BB@�1 � : : : �0...
0
A(1)
1CCA :
De la misma manera se encuentra una matriz �Q2 de orden n� 1, tal que
A(1) �Q2 = Q2
0BB@�2 � : : : �0...
0
A(2)
1CCA ;
216 V C�alculo de Valores Propios
y planteando
Q2 =
�1 0
0 �Q2
�;
se tiene
AQ1Q2 = Q2Q1
0BBBB@�1 �0 �2
� � � � �0...
0
A(2)
1CCCCA :
repetiendo el procedimiento las veces que sea necesario, se tiene el resul-
tado deseado. Cabe recalcar que este procedimiento da la descomposicion
requerida en a lo m�as n pasos. �
Teorema V.1.8.- Si A es normal, es decir A�A = AA�, entonces existe una
matriz unitaria Q tal que
Q�AQ =
0@�1 0. . .
0 �n
1A
Demostraci�on.- Si la matriz A es normal y Q es unitaria, entonces Q�AQ
es normal. En efecto
(Q�AQ)�
(Q�AQ) = Q�A�QQ
�AQ
= Q�AA
�Q
= (Q�AQ) (Q�AQ)�
:
queda por demostrar, que si
B =
0BB@�1 � � � � �0 �2 �
. . .
0 �n
1CCAes triangular y normal, entonces
B =
0@�1 0...
0 �n
1A:
Puesto que BB� = B�B, se tiene
V.1 Teor��a Cl�asica y Condici�on del Problema 217
0BB@��1 0 � � �� �
�2 0. . .
� ��n
1CCA0BB@�1 � � � � �0 �2 �
. . .
0 �n
1CCA
=
0BB@�1 � � � � �0 �2 �
. . .
0 �n
1CCA0BB@��1 0 � � �� �
�2 0. . .
� ��n
1CCA ;
de donde
j�1j2 = j�1j2 + j�j2 + � � �+ j�j2 ;
dando como resultado que la primera �la fuera del coe�ciente de la diagonal
es nulo. Se continua con el mismo procedimiento hasta mostrar que B es
diagonal. �
La condici�on del Problema a Valores Propios
Sea,A una matriz cualquiera a coe�cientes complejos de orden n. Al igual que
en cap��tulo II, es importante conocer la condici�on del problema planteado,
es decir la determinaci�on de valores propios. Para tal efecto sea �A la matriz
con errores de redondeo de A, repasando la secci�on II.1, se tiene que los
coe�cientes de �A satisfacen
�aij = aij(1 + �ij) j�ij j � eps;
donde �aij son los coe�cientes de �A, aij los coe�cientes de A y eps la precisi�on
de la computadora. Por consiguiente, el estudio de los valores propios de �A
pueden estudiarse de manera, m�as general, para A + �C, con cij =�ij
eps
de
donde jcij j � jaij j. De�niendo
f(�; �) = det(A+ �C � �I);
se tiene inmediatamente que
f(0; �) = �A(�):
Sup�ongase que �1 es una raiz simple de �A(�), entonces se tiene
f(0; �1) = 0;
@f
@�
(0; �1) 6= 0:
218 V C�alculo de Valores Propios
Por el teorema de las funciones impl��citas, se deduce que existe un vecindario
de (0; �1) en el cual existe una funci�on �(�), tal que
f(�; �(�)) = 0;
con
�(�) = �1 + ��0
1 +O(�2):
Por consiguiente, se tiene el siguiente:
Teorema V.1.9.- Sea �1 una raiz simple de �A(�), entonces para � ! 0,
existe un valor propio �(�) de A+ �C, tal que
�(�) = �1 + �
u�
1Cv1
u�
1v1
+O(�2) (V:1:4)
donde Av1 = �1v1 y u�1A = �1u�
1, u y v no nulos.
Demostraci�on.- Por el teorema, de las funciones impl��citas se tiene
(A+ �C)v(�) = �(�)v(�);
mas precisamente
(A+ �C)(v1 + �v0
1 +O(�2)) = (�1 + ��0
1 +O(�2))v1;
comparando los t�erminos de igual grado en cada miembro de la ecuaci�on
anterior, se tiene:
�0 : Av1 = �1v1;
�1 : Av
0
1 + Cv1 = �1v0
1 + �0
1v1;
de donde
(A� �1I) v0
1 = �Cv1 + �0
1v1;
multiplicando �esta �ultima por u�1, se obtiene
0 = �u�1Cv1 + �0
1u�
1v1:
�
Corolario V.1.10.- Si A es normal con valores propios diferentes, entonces����u�1Cv1u�
1v1
���� � kCk ;es decir, el problema est�a bien condicionado.
V.1 Teor��a Cl�asica y Condici�on del Problema 219
Demostraci�on.- A es normal, por consiguiente existe una matrizQ unitaria
tal que
Q�AQ =
0@�1 0. . .
0 �n
1A;
una veri�caci�on inmediata muestra que v1 es la primera columna de Q, as��
mismo u�1 es la primera �la de Q�, de donde v1 = v1, por lo tanto, se obtiene����u�1Cv1
u�
1v1
���� �ju�1Cv1jkv1k2
�kv1k kCv1kkv1k2
�kCk :�
Ejemplos
1.- Se considera la matriz A de�nida por
A =
�1 �
0 2
�:
Es muy simple darse cuenta, que � = 1 es un valor propio de A, por
consiguiente por simple inspecci�on, se obtiene:
v1 =
�1
0
�;
u1 =1p
1 + �2
�1
��
�;
de donde
u�
1v1 =1p
1 + �2:
La matriz A es mal condicionada para el c�alculo de los valores propios
cuando �!1, ya que u�1v1 ! 0.
2.- El teorema de descomposici�on de Jordan indica que toda matriz A
es similar a una matriz de tipo Jordan, es decir existe una matriz T
inversible tal que
T�1AT = J;
220 V C�alculo de Valores Propios
donde J es una matriz diagonal por bloques,
J =
0B@ J(n1; �1). . .
J(nk; �k)
1CA ;
y
J(ni; �i) =
0@�i 1. . .
. . .
�i
1A:
Ahora bien, sup�ongase que A es similar a la matriz de tipo Jordan, dada
por 0B@1 1 0 0
0 1 1 0
0 0 1 1
0 0 0 1
1CA ;
entonces se tiene que
det(A+ �C � �I) = (1� �)4 + �+O(�2);
donde C es una perturbaci�on de A.
Calculando los valores propios de A + �C, ver �gura V.1.1, es facil ver
que el problema de determinar valores propios de A es un problema mal
condicionado
1
Figura IV.1.1. Determinaci�on de los valores propios de A+ �C
V.1 Teor��a Cl�asica y Condici�on del Problema 221
Ejercicios
1.- Una matriz A es de tipo Frobenius, si es de la forma
A =
0BB@0 1 0 � � � 0... 0
. . ....
0 � � � 0 1
�a0 �a1 � � � �an�2 �an�1
1CCA :
a) Veri�car que
det(A� �I) = (�1)n��n + an�1�
n�1 + � � �+ a1�+ a0
�:
b) Calcular los vectores propios de A.
2.- Calcular los valores propios de la matriz tridiagonal
A =
0BBBB@a c
b a c 0
b a c
0 b � � �. . .
1CCCCA9>>>>=>>>>;n:
Las componentes del vector propio (v1; v2; � � � ; vn)t satisfacen una ecua-
ci�on de diferencias �nitas con v0 = vn+1 = 0.
Veri�car que vj = Const(�j1 � �
j2) donde
�1 + �2 =a� �
c
; �1�2 =b
c
;
��1
�2
�n+1
= 1:
3.- Mostrar que los valores propios de una matriz A satisfacen
nXi=1
j�ij2 �nX
i;j=1
jaij j2 :
Se tiene igualdad, si y solamente si, A es diagonalizable con una matriz
unitaria.
Indicaci�on.-
nXi;j=1
jaij j2 es la traza de A�A que es invariante respecto a
la transformaci�on A! Q�AQ.
222 V C�alculo de Valores Propios
4.- Sup�ongase que los valores propios de A con aij 2 R son: �+ i�, �� i�;�3; : : : ; �n con � 6= 0, �3; : : : ; �n diferentes. Mostrar que existe una
matriz T inversible con coe�cientes reales tal que
T�1AT =
0BBBB@� �
�� �
0
0
�3
. . .
�n
1CCCCA :
Dar una relaci�on entre las columnas de T y los vectores propios de A.
5.- Sea A una matriz sim�etrica y B una matriz cualquiera. Para cada valor
propio �B de B existe un valor propio de �A de A tal que
j�A � �B j � kA�Bk2 :
Indicaci�on.- Mostrar primero para un cierto v
v = (A� �BI)�1(A�B)v;
deducir que
1 � (A� �BI)
�1(A�B) � kA�Bk
(A� �BI)�1 :
6.- Sea A una matriz sim�etrica. Para cada ��ndice i existe un valor propio �
de A tal que
j�� aiij �sX
j 6=i
jaij j2:
Indicaci�on.- Utilizar el ejercicio 5 con una matriz B conveniente.
V.2 Determinaci�on de Valores Propios
En la actualidad, existen muchos m�etodos num�ericos para el c�alculo de valo-
res propios de una matriz. Sin embargo, la mayor parte de las aplicaciones en
f��sica y otras disciplinas requieren en la mayor��a de los casos, la utilizaci�on
de matrices normales. Motivo por el cual, existen m�etodos espec���cos a este
tipo de matrices. Se comenzar�a, esta secci�on formulando el m�etodo de la
Potencia.
El M�etodo de la Potencia
Sea, A una matriz de n�n con coe�cientes reales o complejos, el objetivo es
determinar el valor propio m�as grande en valor absoluto. Sea y0 2 Rn (C n )arbitrario, se de�ne la sucesi�on fyng � Rn de manera recursiva, como
yn+1 = Ayn; (V:2:1)
es evidente que yn = Any0. Esta sucesi�on tiene propiedades interesantes para
la determinaci�on del valor propio m�as grande, que est�an dadas en el:
Teorema V.2.1.- Sea A diagonalizable, es decir que existe una matriz T
inversible tal que
T�1AT =
0@�1 0. . .
0 �n
1A;
sup�ongase que los valores propios satisfacen
j�1j > j�2j � j�3j � � � � � j�nj
y e�1T�1y0 6= 0. Entonces la sucesi�on fykg de�nida por yk+1 = Ayk satisface:
a) yk = �k1
"a1v1 +O
�����2�1
����k!#
,
donde Av1 = �1v1, Avj = �jvj ,
y0 = a1v1 + a2v2 + � � �+ anvn, y
T = (v1; � � � ; vn).b) Se tiene el cociente de Rayleigh, dado por
y�
kAyk
y�
kyk
= �1 +O �����2
�1
����k!; (V.2:2)
si adem�as, la matriz A es normal, entonces
y�
kAyk
y�
kyk
= �1 +O �����2
�1
����2k!: (V.2:3)
224 V C�alculo de Valores Propios
Demostraci�on.- Los vectores v1; � � � ; vn forman una base del espacio C n ,
de donde
y0 = a1v1 + a2v2 + � � �+ anvn;
deduciendose
yk = a1�k1v1 + a2�
k2v2 + � � �+ an�
knvn;
por consiguiente
yk
�k1
= a1v1 + a2
��2
�1
�kv2 + � � �+ an
��n
�1
�kvn;
con lo queda demostrado el punto a). Para la demostraci�on del punto b), se
tiene:
yk = �k1a1v1 + �
k2a2v2 + � � �+ �
knvn;
Ayk = �k+11 a1v1 + �
k+12 a2v2 + � � �+ �
k+1n vn;
y�
kyk =Xi;j
��ki �
kj v�
i vj�ai�aj ;
y�
kAyk =Xi;j
��ki �
k+1j v
�
i vj�ai�aj ;
obteniendo el cociente de Rayleigh, dado por
y�
kAyk
y�
kyk
= �1 +O �����1
�2
����2!;
ahora bien si A es normal, se tiene que v�i vj = 0, si i 6= j; obteniendo para
y�
kAyk =Xi
�i j�ij2k v�i vi;
y�
kyk =Xi
j�ij2k v�i vi:
�
Ejemplo
Consid�erese, la matriz A de�nida por
A =
0BBB@2 1 0 0 0
1 2 1 0 0
0 1 2 1 0
0 0 1 2 1
0 0 0 1 2
1CCCA ;
V.2 Determinaci�on de Valores Propios 225
utilizando el ejercicio 2 de la secci�on V.1, se obtiene que el valor propio
mas grande est�a dado por
�1 = 2(1 +
p3
2) � 3; 73205;
Tomando y0 = (1; 1; 1; 1; 1)t, se obtiene los valores de �1 dadas en la
tabla V.2.1.
Tabla V.2.1. Valores de �1.
Iter. �1 Iter. �1
1 3:6 2 3:696969
3 3:721854 4 3:729110
5 3:731205 6 3:731808
7 3:731981 8 3:732031
9 3:732045 10 3:732049
11 3:732050 12 3:732051
13 3:732051 14 3:732051
Las componentes del valor propio respecto a �1 est�an dados por
v =
0BBB@1:07735026
1:86602540
2:1547005
1:866025
1:07735026
1CCCA :
Uno de los inconvenientes de utilizar el m�etodo de la potencia es que
la convergencia puede ser muy lenta si j�1=�2j � 1. Sin embargo, existe una
modi�caci�on del m�etodo de la potencia para acelerar la convergencia. Este
m�etodo es m�as conocido como el:
M�etodo de la Potencia Inversa
La modi�caci�on consiste en aplicar el m�etodo de la potencia a
(�I �A)�1
;
donde � es una aproximaci�on del valor propio � buscado de la matriz A. La
justi�caci�on te�orica est�a dada por la siguiente proposici�on:
Proposici�on V.2.2.- � es valor propio de A, si y solamente si,
1
�� �
(V:2:4)
226 V C�alculo de Valores Propios
es valor propio de (�I �A)�1.
Demostraci�on.- � es valor propio de A, si y solamente si existe v 6= 0 tal
que
Av = �v;
si y solamente si
(�I �A)v = (�� �)v;
(�I �A)�1v =1
�� �
v:
�
Por otro lado aplicando, el teorema V.2.1 se tiene que la convergencia
es del orden
O ������ �1
�� �2
����k!:
Sea �� el valor propio m�as grande de (�I �A)�1, entonces se tiene que
�1 = �� 1��
: (V:2:5)
El m�etodo de la potencia da una relaci�on recursiva para los yk, que est�a dada
por
yk+1 = (�I �A)�1yk;
pero en lugar de calcular la inversa de la matriz, se puede resolver la ecuaci�on
(�I �A)yk+1 = yk; (V:2:6)
utilizando para tal efecto el algoritmo de eliminaci�on de Gauss.
En el anterior ejemplo se tenia como valor de �1 = 3:697 despu�es de
2 iteraciones del m�etodo de la potencia inversa. Aplicando el m�etodo de la
potencia inversa con � = 3:697, se obtiene despues de dos iteraciones:
�� = �232:83;�1 = 3:7334052:
Puede suceder que la matriz A sea a coe�cientes reales, sin embargo, el
valor propio buscado no sea real si no que contenga una parte imaginaria.
Sup�ongase que � = � + �i sea una aproximaci�on del valor propio buscado.
Entonces aplicando el m�etodo de la potencia inversa, se tiene�(�+ �i)I �A
�yk+1 = yk; (V:2:7)
V.2 Determinaci�on de Valores Propios 227
por otro lado los vectores yk pueden ser descompuestos en un vector real y
otro imaginario, de la manera siguiente
yk = uk + ivk; uk; vk 2 Rn ;
de donde, se obtiene una nueva formulaci�on para el m�etodo de la potencia
inversa, dada por��I �A ��I�I �I �A
��uk+1
vk+1
�=
�uk
vk
�;
y el cociente de Rayleigh est�a dado por
y�
kyk+1
y�
kyk
=(utk � iv
tk)(uk+1 + ivk+1)
utkuk + v
tkvk
=(utkuk+1 + v
tkvk+1 + i(utkvk+1 � v
tkuk+1)
utkuk + v
tkvk
: (V:2:8)
Formas Tridiagonales y Matrices de Hessenberg
El m�etodo de la potencia y su version de la potencia inversa son m�etodos
aplicables a matrices, donde el valor propio m�as grande en valor absoluto
lo es estrictamente. Por otro lado es necesario darse un vector inicial cuya
proyecci�on sobre el espacio propio, respecto a este valor propio sea no nula,
es decir se debe tener una idea clara de la posible ubicaci�on de los vectores
propios. Ahora bien, en muchos casos es necesario conocer los diferentes
valores propios, situaci�on que no es posible con las dos versiones del m�etodo
de la potencia estudiados m�as arriba.
Una gran clase de m�etodos de c�alculo de valores propios est�an dise~nados
para operar con matrices tridiagonales, sobre todo si �estas son sim�etricas.
El objetivo de este paragrafo es construir algoritmos que permitan tridiago-
nalizar una matriz arbitraria, conservando las propiedades originales en los
casos en que sea posible.
Sea, A una matriz arbitraria de orden n � n, se busca una transfor-
maci�on, T tal que
T�1AT = H =
0BBBBB@� � � � ��
.... . .
.... . .
...
� �
1CCCCCA :
H es conocida bajo el nombre de matriz de Hessenberg. A continuaci�on, se
propone como algoritmo de reducci�on a la forma de Hessenberg, utilizando
matrices de tipo L, del algoritmo de eliminaci�on de Gauss.
228 V C�alculo de Valores Propios
Algoritmo 1.
1.- Sea A una matriz arbitraria,
se busca jak1j = maxj=2;:::;n
jaj1j,se intercambia las �las k y 2 y tambi�en las columnas k y 2,
se de�ne la matriz L2 por
L2 =
0BBBB@1 0
0 1
0 �l32 1...
. . .
0 �ln2 1
1CCCCA ; li2 =ai1
a21
; i = 2; : : : ; n;
se obtiene
L2AL�12 =
0BBBB@� � � � � ��0...
0
A(1)
1CCCCA :
2.- Se aplica el paso 1 a la matriz A(1), y se continua hasta obtener una
matriz de Hessenberg.
La principal desventaja de utilizar este primer algoritmo propuesto es
que, si A es una matriz sim�etrica, H no lo es en general. Recordando el
cap��tulo II.5, existe el algoritmo QR para reducir una matriz A a la forma
triangular. Es facil veri�car que H = QtAQ es sim�etrica, si Q es ortogonal
y A es sim�etrica. Por consiguiente, el segundo algoritmo propuesto utiliza
matrices de Householder para convertir una matriz A en una matriz de
Hessenberg.
Algoritmo 2.
1.- Sea A una matriz arbitraria, que puede escribirse, como
A =
�a11 � � � a1n
A0
1 � � � A0
n
�;
por consiguiente A0k 2 Rn�1 .Se de�ne Q2 por
Q2 =
�1 0
0 Q0
2
�;
donde Q0
2 = I � 2u2ut2, u2 est�a determinado por la condici�on, ver
Cap��tulo V.2,
Q0
2A0
1 =
0BB@�2
0...
0
1CCA ; �2 = signoa21 kA01k2 ;
V.2 Determinaci�on de Valores Propios 229
obteniendo
Q2AQ�12 =
0BBBB@� � � � � ��0...
0
A(1)
1CCCCA :
2.- Se procede como en 1, hasta obtener la forma de Hessenberg.
Teorema de Sturm y M�etodo de la Bisecci�on
Al utilizar el algoritmo 2, de la anterior subsecci�on, a una matriz A sim�etrica
se obtiene una matriz tridiagonal sim�etrica, que se la denota nuevamente por
A, para no cargar la notaci�on. Por consiguiente, A es de la forma
A =
0BBBBB@d1 e2
e2 d2 e3
e3
. . .. . .
. . .. . . en
en dn
1CCCCCA : (V:2:9)
Se de�ne, el polinomio p0(x) por
p0(x) = 1; (V:2:10)
y los polinomios pi(x) i = 1; : : : ; n, como
pi(x) = det(Ai � xI); (V:2:11)
donde
A =
�Ai 0
0 �
�;
Ai es la matriz formada por las primeras i �las y columnas de A. Por lo
tanto, se tiene
Pn(x) = det(A� xI): (V:2:12)
Por otro lado, los determinantes que de�nen estos polinomios cumplen la
siguiente relaci�on recursiva
det(Ai�xI) = (di�x) det(Ai�1�xI)� e2i det(Ai�2�xI); i = 2; 3; : : : ; n;
de donde
pi(x) = (di � x)pi�1(x)� e2i pi�2(x); i = 2; 3; : : : ; n: (V:2:13)
230 V C�alculo de Valores Propios
Teorema V.2.3.- Sea A una matriz tridiagonal y sim�etrica con los coe�-
cientes ei 6= 0 para i = 2; : : : ; n. Entonces:
a) Las raices de pn(x) = �A(x) son simples,
b) p0
n(�i) � pn�1(�i) < 0 si �i es una raiz de pn(x),
c) pj(x�) = 0 (1 � j � n� 1; x� 2 R) ) pj�1(x
�)pj+1(x�) < 0,
d) p0(x) � 0 para todo x 2 R.Demostraci�on.- El punto d) se veri�ca inmediatamente puesto que p0(x) =
1 por de�nici�on.
La demostraci�on del punto c) se la realiza por el absurdo, en efecto,
si se tuviera pj(x�) = 0 y pj+1(x
�) = 0, utilizando (V.2.13), se tendr��a
p0(x�) = 0 lo cual contradice el hecho que p0(x
�) = 1. Ahora bien, utilizando
nuevamente (V.2.13) se tiene en el caso en que pj(x�) = 0
pj�1(x�) = �e2n�j+1pj+1(x
�):
El punto b) implica el punto a), ya que p0n(�i) 6= 0 conduce a que �i sea
raiz simple. S�olo queda el punto b) por demostrar.
Se de�ne, los polinomios:
qi(x) = (�1)ipi(x)1
e2e3 � � � ei+1
; i = 1; : : : ; n;
q0(x) = p0(x);
donde en+1 = 1. Efectuando c�alculos sobre los polinomios qj(x), se tiene
(�1)iqi(x)e2 � � � ei+1 =(di � x)(�1)i�1qi�1(x)e2 � � � ei� e
2i (�1)i�2qi�2(x)e2 � � � ei�1;
de donde
ei+1qi(x) + (di � x)qi�1(x) + eiqi�2(x) = 0; i = 2; : : : ; n:
Esta �ultima relaci�on puede escribirse de manera matricial, como
0BBBBB@d1 � x e2
e2 d2 � x e3
e3
. . .. . .
: : :
. . . en
en dn � x
1CCCCCA| {z }
A� xI
0BB@q0(x)
q1(x)...
qn�1(x)
1CCA| {z }q(x) 6= 0
=
0BB@0...
0
�qn(x)
1CCA :
Si �i es valor propio de A, entonces q(�i) es un vector propio, derivando
la relaci�on matricial, se obtiene
V.2 Determinaci�on de Valores Propios 231
�q(x) + (A� xI)q0(x) =
0BB@0...
0
�q0n(x)
1CCA ;
multiplicando por la traspuesta de q(x), se tiene
�qt(x)q(x) + qt(x)(A � xI)q0(x)| {z }= 0 si x = �i
= qt(x)
0BB@0...
0
�q0n(x)
1CCA ;
de donde
�q0n(�i)qn�1(�i) = �kq(�i)k2< 0;
dando por consiguiente
p0
n(�i)pn�1(�i) < 0:
�
Cabe remarcar que los polinomios pi(x) i = 0; : : : ; n; forman una
sucesi�on de Sturm, cuyo estudio y c�alculo de raices est�an dados en la
primera secci�on del cap��tulo IV concerniente a la resoluci�on de ecuaciones
polinomiales. Por consiguiente el n�umero de valores propios de la matriz A
en el intervalo [a; b], est�a dado por
w(b)� w(a);
donde w(x) indica los cambios de signo de los polinomios pi(x). La
determinaci�on exacta de los valores propios se efectua mediante el algoritmo
de la bisecci�on, ya estudiado en la secci�on IV.1. Ahora bien, el problema
consiste en encontrar un algoritmo simple que permita evaluar w(x).
Algoritmo para calcular w(x)
Se de�ne la sucesi�on fi(x), i = 1; : : : ; n; por
fi(x) =pi(x)
pi�1(x); (V:2:14)
obteniendo de inmediato, la siguiente relaci�on recursiva para fi(x):
f1(x) = (d1 � x);
fi(x) = (di � x)� e2i
1
fi�1(x); i = 2; : : : ; n:
(V:2:15)
232 V C�alculo de Valores Propios
Ahora bien, si por azar, existe x 2 R, i = 2; : : : ; n con fi(x) = 0, (V.2.15)
puede ser modi�cado para evitar la divisi�on por 0, de la manera siguiente:
fi(x) =
8>><>>:(di � x)� e
2i
1
fi�1(x); si fi�1(x) 6= 0;
(di � x)� jeijeps
; si fi�1 = 0:
(V:2:16)
La justi�caci�on de utilizar la sucesi�on fi(x) est�a en la siguiente proposici�on.
Proposici�on V.2.4.- w(x) es igual al n�umero de elementos negativos de�f1(x); f2(x); : : : ; fn(x)
Demostraci�on.- La demostraci�on tiene sus bases te�oricas en el Teorema
de Sylvester, que indica que si A es una matriz, T una matriz no singular,
entonces la matriz B = TtAT tiene el mismo n�umero de valores propios
negativos que la matriz A. Aplicando este teorema a la proposici�on a
demostrar, se tiene
A� xI =
0BB@1
e2=f1(x) 1. . .
en=fn�1 1
1CCA0BB@f1(x)
f2(x). . .
fn(x)
1CCA0BB@1 e2=f1(x)
. . .
1 en=fn�1(x)
1
1CCA ;
de donde A� xI tiene el mismo n�umero de valores propios negativos que el
conjunto ff1(x); f2(x); : : : ; fn(x)g. Por otro lado este n�umero est�a dado porw(x), quedando demostrada la proposici�on. �
Para poder aplicar el algoritmo de la bisecci�on es necesario conocer los
intervalos, donde pueden estar localizados los valores propios, para evitar
busquedas inutiles. El siguiente teorema es muy util para determinar las
regiones donde se encuentran estos.
Teorema V.2.5.- Gerschgorin. Sea � un valor propio de Amatriz, Entonces
existe i tal que
j�� aiij �Xj 6=i
jaij j : (V:2:17)
Demostraci�on.- Sea x 6= 0, el vector propio asociado a �, por consiguiente
x = (x1; x2; : : : ; xn)t. Sea i, tal que
jxij � jxj j 8j;
V.2 Determinaci�on de Valores Propios 233
puesto que x 6= 0, se tiene necesariamente que xi 6= 0. Efectuando c�alculos
se obtiene:nXj=1
aijxj = �xi;Xj 6=i
aijxj = (�� aii)xi;
pasando a valores absolutos se tiene:
j�� aiij jxij �Xj 6=i
jaij j jxj j ;
j�� aiij �Xj 6=i
jaij j :
�
Generalizaci�on del M�etodo de la Potencia
Al formular el m�etodo de la potencia, se buscaba el valor propio, cuyo
valor absoluto era m�aximo, de una matriz A. Ahora bien, existen muchos
problemas en los cuales se requiere conocer no solamente el valor propio m�as
grande en valor absoluto, sino tambi�en los otros valores propios. El prop�osito
de esta subsecci�on es formular un m�etodo que permita calcular los dos valores
propios m�as grandes en m�odulo. Para tal efecto, es necesario suponer que
�1,�2; : : : ; �n valores propios de A satisfacen
j�1j > j�2j > j�3j � � � � j�nj :Recordando el m�etodo de la potencia, se tiene la sucesi�on de los fykg
de�nida por
yj+1 = Ayj ;
si y0 cumple ciertas condiciones, se tiene
yj = �
j1[a1v1 +O
�����2�1
����j!;
donde v1 es el vector propio asociado a �1 y a1 la componente de y0respecto a v1. Para evitar explosiones en los c�alculos de los yj se puede
mejorar el algoritmo de la potencia exigiendo que kyjk2 = 1, y adem�as para
evitar oscilaciones en los yj , se plantea por consiguiente
yj+1 =Ayj
kAyjk2signo
�(Ayj)1
(yj)1
�; (V:2:18)
donde (yj)1 es la primera componente de yj . Puesto que los yj son de
norma igual a 1, haciendo referencia a vectores ortonormales, se cambia la
notaci�on de yj por qj , dando por consiguiente la siguiente de�nici�on recursiva
para los qj :
234 V C�alculo de Valores Propios
q0 arbitrario, tal que kq0k2 = 1;
kqjk2 = 1;
�
(j+1)1 qj+1 = Aqj :
(V:2:19)
Por el teorema V.2.1, se tiene que:
limj!1
qj = v1;
limj!1
�
(j)1 = �1;
con v1 valor propio de norma unitaria respecto a �1. Por otro lado la
velocidad de convergencia de (V.2.19), est�a dada por O�(�2=�1)
j�.
Por consiguiente, el problema consiste en calcular �1 y �2, si es posible
al mismo tiempo. Sup�ongase que conoce de antemano �1 y v1. Considerando
el subespacio vectorial V de C n de�nido por
V =�u 2 C n ju�v1 = 0
;
espacio de dimensi�on n� 1. La matriz A induce una aplicaci�on lineal que se
la denota por la letra A tambien, la cual est�a de�nida por
A : C n �! C n
y �! Ay
;
de�niendo la aplicaci�on lineal f : V �! V como f = p � AjV donde p es
la proyecci�on ortogonal de C n en V , y AjV es la restricci�on de A sobre el
espacio V se tiene el:
Teorema V.2.6.- Los valores propios de f son: �2; : : : ; �n, m�as precisa-
mente se tiene
f(v) = U
0BB@�1 0 0
�2 r22 � � � r2n
. . .
�n
1CCAU�v;
donde v 2 V y
U�AU =
0BBB@�1 r12 � � � r1n
. . .. . .
�n
1CCCAes la descomposici�on de Schur dada en teorema V.1.7.
V.2 Determinaci�on de Valores Propios 235
Demostraci�on.- Sea U = (u1; u2; : : : ; un) matriz unitaria con u1 = v1,
entonces cualquier elemento v 2 V se escribe, como
v =
nXi=2
�iui;
por consiguiente
v = U�; con � =
0BB@0
�2
...
�n
1CCA ;
de donde f(v) = AU�.
Ahora bien, si U es la matriz unitaria de la descomposici�on de Schur de
A, se tiene
f(v) = U
0BBB@�1 r12 � � � r1n
. . .. . .
�n
1CCCAU�U�;
como U� = v, se tiene despu�es de una simple veri�caci�on que
f(v) = U
0BB@�1 0 0
�2 r22 � � � r2n
. . .
�n
1CCAU�v:
�
El teorema precedente proporciona un medio te�orico para calcular �2,
el cual es el m�etodo de la potencia a f . Por lo tanto, si se tiene determinado
�1 y v1 el algoritmo de la potencia, se lo formula de la siguiente manera:
r0; tal que v�1r0 = 0 y kr0k2 = 1;
�j = v�
1Arj ;
krjk2 = 1;
Arj � �jv1 = �
(j+1)2 rj+1:
(V:2:20)
Es facil veri�car que
limj!1
�
(j)2 = �2;
limj!1
rj = u2;
236 V C�alculo de Valores Propios
donde v2 es el vector propio de norma unitaria respecto a �2.
Ser��a interesante poder calcular �1 y �2 al mismo tiempo, sin necesidad
de determinar primero �1 y luego �2, esto es posible mediante el siguiente
algoritmo.
Se da, como vectores iniciales: q0 y r0, tales que:
kq0k = 1; kr0k = 1; y r�0q0 = 0: (V:2:21)
Se supone, que se ha calculado
qj ; con kqjk = 1; rj ; con krjk = 1 y r�j qj = 0;
entonces se aplica el algoritmo de la potencia de la siguiente manera
Aqj = �
(j+1)1 qj+1;
kqj+1k = 1;
��������j+1 = q
�
j+1Arj ;
Arj � �j+1qj+1 = �
j+12 rj+1;
krj+1k = 1:
(V:2:22)
Se puede demostrar que tambi�en
limj!1
�
(j)2 = �2;
limj!1
rj = u2;
donde u2 es la segunda columna de la matriz U de la descomposici�on de
Schur de A. Vale la pena recalcar, el siguiente hecho
A (qj ; rj)| {z }Uj
= (qj+1; rj+1)| {z }Uj+1
��
(j+1)1 �
(j+1)
0 �
(j+1)2
�| {z }
Rj+1
;
de donde planteando U0 = (q0; r0) con U�
0U0 =
�1 0
0 1
�, el algoritmo de la
potencia generalizada, se expresa de manera matricial como
AUj = Uj+1Rj+1;
donde el segundo miembro no es nada m�as que la descomposici�on QR, pero
esta vez utilizando matrices unitarias.
Si la matriz A tiene sus n valores propios diferentes, y adem�as que
veri�can
j�ij > j�2j > � � � > j�nj ;
V.2 Determinaci�on de Valores Propios 237
el m�etodo de la potencia puede ser aplicado para calcular de manera
simult�anea los n autovalores. Se toma U0 una matriz unitaria arbitraria
que puede ser por ejemplo U0 = I . Sup�ongase que se ha calculado Rj y Uj ,
entonces se tiene
AUj = Uj+1Rj+1: (V:2:23)
Se puede demostrar que:
Rj �! R =
0@�1 � � � �. . .
�n
1A;
Uj �! U;
cuando j !1, donde AU = UR es la descomposici�on de Schur.
El M�etodo QR
Al �nalizar la �ultima subsecci�on, se dio una generalizaci�on del m�etodo de la
potencia. Por razones de presentaci�on, se ver�a en esta secci�on un algoritmo
equivalente a este �ultimo, conocido como el m�etodo QR.
La versi�on simple del algoritmoQR es aplicable a matrices, cuyos valores
propios son reales y diferentes en valor absoluto, se lo de�ne recursivamente
de la siguiente manera:
A1 = A = Q1R1;
Aj+1 = RjQj = Qj+1Rj+1;(V:2:24)
donde Qj es una matriz ortogonal, y R es una matriz triangular superior. De
donde, este algoritmo es equivalente al m�etodo de la potencia generalizada.
En efecto, planteando
Uj = Q1 � � �Qj ;
se tiene
Uj+1Rj+1 = Q1Q2 � � �Qj Qj+1Rj+1| {z }RjQj
;
llegando �nalmente a
Uj+1Rj+1 = Q1R1| {z }A
Q1Q2 � � �Qj| {z }Uj
:
Puesto que el m�etodo QR y el algoritmo de la potencia son equivalentes, es
facil ver que
Rj �! R =
0@�1 � � � �. . .
�n
1A;
Qj �! I:
238 V C�alculo de Valores Propios
Por otro lado, las matrices Aj+1 y Aj tienen los mismos valores propios, pues
Aj+1 = Q�
jAjQj
Indudablemente, el m�etodo QR es aplicable a toda matriz cuyos valores
propios son diferentes en m�odulo, sin embargo es conveniente reducir la
matriz A a una de tipo Hessenberg, ya que si A es una matriz de Hessenberg,
las matrices Ak construidas a partir del algoritmo QR lo son tambi�en, ver
ejercicio 5, adem�as el costo de operaciones es menor.
El siguiente resultado, enunciado sin demostraci�on, indica la velocidad
de convergencia del m�etodo QR donde A es una matriz de tipo Hessenberg.
Esta relaci�on esta dada por
a
(j+1)n;n�1
a
(j)n;n�1
��
�n
�n�1
�; (V:2:25)
es decir
a
(j)n;n�1 = O
��n
�n�1
�j!: (V:2:26)
Uno de los problemas con que se confronta es que la convergencia puede
ser demasiado lenta, sobre todo si j�nj � j�n�1j; pero este inconveniente
puede superarse aplicando el algoritmo QR, en lugar de la matriz A, a
A� pI; (V:2:27)
donde p � �n. p se lo conoce con el nombre de shift. En este caso la velocidad
de convergencia est�a dada por
a
(j)n;n�1 = O
��n � p
�n1 � p
�j!: (V:2:28)
El algoritmo QR con shift
Antes de comenzar el algoritmo QR, se supone que la matriz A est�a
expresada bajo la forma de una matriz de Hessenberg. El algoritmo QR
con shift, se lo de�ne de manera recursiva como:
A1 = A;
QjRj = Aj � pjI;
Aj+1 = RjQj + pjI:
(V:2:29)
Las dos maneras m�as corrientes de elegir el shift pk son:
V.2 Determinaci�on de Valores Propios 239
1.- Se plantea pk = a
(k)n;n.
Este procedimiento funciona bien, si todos los valores propios de la
matriz A son reales.
2.- Se toma pk, al valor propio de la matriz a
(k)n�1;n�1 a
(k)n�1;n
a
(k)n;n�1 a
(k)n;n
!;
que es m�as pr�oximo al coe�ciente a(k)n;n.
Una interrogante muy importante surge, cuando detener el algoritmo
QR. Uno de los criterios m�as usados es el siguiente. Si���a(k)n;n�1
��� � eps
����a(k)nn
���+ ���a(k)n�1;n�1
���� ; (V:2:30)
se plantea
�n = a(k)nn : (V:2:31)
Luego se continua con la matriz A(k) de dimension n � 1 resultante, hasta
obtener todos los valores propios de la matriz A.
La experiencia n�umerica muestra que el algoritmo QR converge lineal-
mente, mientras que el algoritmoQR con shift tiene convergencia cuadr�atica.
Ejemplos
1.- Consid�erese, la matriz A de�nida por
A =
0@ 10 7 6
0:1 5 3
0 0:1 1
1Amatriz de tipo Hessenberg. Por lo tanto lista, para ser aplicado el m�etodo
QR y el m�etodoQR con shift. A continuaci�on, se mostrar�a las iteraciones
resultantes del m�etodo QR sin shift
A2 =
10:070493 7:0701525 5:8875209
:49305211� 001 4:9895287 2:8589253
:00000000 :19067451� 001 :93997833
A3 =
10:105227 7:0677632 5:8742925
:24258892� 001 4:9656988 2:8145741
:00000000 :35752960� 002 :92907381
A4 =
10:122222 7:0596308 5:8759333
:11880000� 001 4:9507267 2:7975584
:00000000 :66976513� 003 :92705007
240 V C�alculo de Valores Propios
Puede observarse que la convergencia es lineal y adem�as se tiene
a
(k+1)21
a
(k)21
� 1
2;
a
(k+1)32
a
(k)32
� 1
5;
por consiguiente se necesitan por lo menos 10 iteraciones para obtener
a
(k)32 � 10�8 y por lo menos 23 iteraciones para tener a
(k)21 � 10�8.
Para poder observar la verdadera potencia de aplicar el m�etodo QR con
shift, a continuaci�on se muestran las 6 iteraciones que son necesarias,
para obtener los valores propios de la matriz A.
p1 = 1:0
A2 =
10:078261 7:0950933 5:8540158
:43358029� 001 4:9964769 2:8312527
:00000000 �:19045643� 002 :92526107
p2 = :92526107
A3 =
10:112141 7:0679606 5:8707690
:19226871� 001 4:9612733 2:8312527
:00000000 �:62453559� 006 :92526107
p3 = :92526107
A4 =
10:126953 7:0571468 5:8766286
:84142592� 002 4:9464609 2:7929532
:00000000 �:67414063� 013 :92658424
p4 = :84142592� 002
A5 =10:138415 7:0571468
�:18617346� 004 4:9349986
p5 = �:18617346� 004
A6 =10:138390 7:0497319
�:90446847� 010 4:9350238
obteniendo, as�� los siguientes valores propios:
�1 = 10:138390;
�2 = 4:9350238;
�3 = 0:92658424:
2.- Puede observarse en el ejemplo anterior que la convergencia del m�etodo
QR con shift es cuadr�atica, para ilustrar este hecho, consid�erese
A =
�2 a
� 1
�;
V.2 Determinaci�on de Valores Propios 241
con � bastante peque~no. Aplicando el m�etodoQR con shift se tiene p1 = 1
y
A� p1I =
�1 a
� 0
�;
obteniendo
Q1R1 =
�1=p1 + �
2 ��=p1 + �
2
�=
p1 + �
2 1=p1 + �
2
��p1 + �
2a=
p1 + �
2
0 ��a=p1 + �
2
�;
lo que da
A1 =
�� �
��2=1 + �2 �
�;
de donde la convergencia es cuadr�atica, si a es arbitrario. Si la matriz
es sim�etrica, se puede observar que la convergencia ser��a c�ubica en este
ejemplo, tomar a = �.
Ejercicios
1.- Calcular los valores propios y vectores propios de
A =
0B@2 1
1 2 12
0 1 2 1
1 2
1CA ;
utilizando el m�etodo de la potencia inversa de Wielandt.
2.- Sea
A =
0BBB@88� 7
p6
360296� 169
p6
1800�2 + 3
p6
225296 + 169
p6
180088 + 7
p6
360�2� 3
p6
22516�
p6
3616 +
p6
3619
1CCCA :
Calcular �; �; � y una matriz T a coe�cientes reales, tal que
T�1 =
0@ � � 0
�� � 0
0 0 �
1A:
La matriz A de�ne un m�etodo de Runge-Kutta.
3.- Sea A una matriz de orden s que es diagonalizable, y sea J una matriz
de orden n. Se de�ne el producto tensorial A J por
A J =
0@a11J � � � a1sJ
......
as1J � � � assJ
1A:
242 V C�alculo de Valores Propios
Encontrar un algoritmo e�caz para resolver un sistema lineal con la
matriz
I �A J:
Indicaciones:
a) Mostrar que
(AB)(C C) = (AC) (BD):
b) Sup�ongase que
T�1AT = � =
0@�1
. . .
�s
1Ay utilizar la descomposici�on
I �A J = (T I)(I � � J)(T�1 I) (V2:32)
c) estimar el n�umero de multiplicaciones necesarias, si:
| se calcula la descomposici�on LR de I �A J ,
| se utiliza (V.2.32); el trabajo principal es el c�alculo de la descom-
posic�on LR de I � � J .
4.- Calcular todos los valores propios de
A =
0BBBB@1 �1�1 2 �1
. . .. . .
. . .
�1 2 �1�1 3
1CCCCA9>>>>=>>>>;n
para n = 10 y n = 20. Utilizar el m�etodo de la bisecci�on.
5.- Mostrar que si la matriz A = A1 es una matriz de Hessenberg, las
matrices Ak, k = 2, construidas en el m�etodo QR son igualmente
matrices de Hessenberg.
Cap��tulo VI
Integraci�on Num�erica
En muchos problemas aparecen integrales, ya sean �estas simples, m�ultiples
y de otras clases. En los cursos elementales de C�alculo, la determinaci�on de
primitivas es un t�opico de bastante importancia. Por consiguiente, existen los
elementos te�oricos para evaluar primitivas. Sin embargo la mayor parte de las
aplicaciones n�umericas donde interviene la integraci�on, presenta integrales
cuyo c�alculo de primitivas es imposible en t�erminos de funciones elementales,
o por las caracter��sticas propias de los problemas solo se requiere una
c�omputo aproximado de �estas.
En este cap��tulo se tratar�a las base te�oricas de la integral de Riemann,
luego se abordar�a la noci�on de f�ormula de cuadratura y como consecuencia
l�ogica se de�nir�a el orden de una f�ormula de cuadratura. El segundo
tema que ser�a estudiado, como parte integrante del An�alisis Num�erico,
est�a relacionado con la estimaci�on del error cometido por la utilizaci�on de
m�etodos num�ericos de integraci�on. Se comparar�a, diferentes f�ormulas de
cuadratura haciendo hincapi�e en aqu�ellas de orden elevado. Las f�ormulas
de cuadratura de Gauss ser�an estudiadas como un caso de f�ormulas de orden
elevado y para comprenderlas mejor se introducir�a la noci�on de polinomios
ortogonales. Despu�es, se formular�a un m�etodo adaptativo para determinar
integrales y como corolario se har�a un tratamiento de singularidades, es decir
se implementar�a m�etodos para resolver integrales impropias. Como �ultimo
t�opico, se vera la interpolaci�on trigonom�etrica, es decir se har�a un estudio
de las Transformadas de Fourier discretas, como tambi�en la Transformada
de Fourier R�apida, mas conocida como FTP.
VI.1 Bases Te�oricas
En esta secci�on, se ver�an las bases te�oricas de la teor��a de la integraci�on,
pero �esta limitada a la integral de Riemann. Por otro lado, tambi�en ser�an
abordados las motivaciones para tener la integral como un instrumento
matem�atico de C�alculo.
Uno de los problemas con el cual el hombre ha confortado desde �epocas
lejanas, ha sido el c�alculo de areas, volumenes y otros, tanto por la necesidad
cotidiana, como tambi�en dentro el esp��ritu de re exi�on e investigaci�on que
lo ha caracterizado siempre.
La integral m�as utilizada, desde el punto de vista de c�alculo y pr�actico,
es la integral de Riemann, cuya de�nici�on permiti�o que el c�alculo integral
tuviese bases te�oricas cimentadas. En lo que sigue, se har�a una presentaci�on
te�orica de esta importante noci�on.
De�nici�on VI.1.1.- Sea, [a; b] un intervalo compacto de la recta real. Se
llama subdivisi�on del intervalo [a; b] un conjunto S � [a; b] �nito.
Por consiguiente S puede ser ordenado, como una sucesi�on �nita de
puntos de [a; b] expresada de la manera siguiente
S =�x0 < x1 < � � � < xn
� [a; b]:
De�nici�on VI.1.2.- Sea S una subdivisi�on de [a; b], se llama paso de la
subdivisi�on S a
�(S) = maxi=1;:::;n
jxi � xi�1j :
Ahora bien, la noci�on de integral est�a de�nida para funciones cuyo
dominio son intervalos compactos, adem�as se exige que la funci�on sea
acotada. Como no es proposito del libro hacer una exposici�on sobre la teor��a
de la integraci�on, se dar�a una de las de�niciones de una funci�on integrable
en el sentido de Riemann.
De�nici�on VI.1.3.- Sea f : [a; b] ! R una funci�on acotada sobre un
intervalo compacto. Se dira que f es Riemann integrable si
lim�(S)!0
nXi=1
f(�i)(xi � xi�1) existe,
con �i 2 [xi�1; xi], independientemente de S y de los �i. Si �este es el caso,
este l��mite se lo denota por Z b
a
f(x)dx:
VI.1 Bases Te�oricas 245
Se puede demostrar que las funciones mon�otonas, continuas y en escalera
son Riemann integrables. El c�alculo de la integral como un l��mite puede ser
bastante tedioso, motivo por el cual, los cursos de C�alculo en los niveles
b�asicos universitarios y ultimos cursos de colegio, dan un �enfasis al c�alculo
de primitivas, que para recordar es:
De�nici�on VI.1.4.- Dada una funci�on ' sobre un intervalo I de R. Se dice
que una funci�on � : I ! R es una primitiva de ' si, en todo punto x de I ,
la funci�on � es derivable y si �0(x) = '(x).
Sea f : [a; b] ! R una funci�on integrable en el sentido de Riemann, se
de�ne para todo x 2 [a; b]
F (x) =
Z x
a
f(t)dt:
Proposici�on VI.1.5.- La funci�on F es continua, adem�as si la funci�on
f es continua en un punto x de [a; b], la funci�on F es derivable en x y
F0(x) = f(x).
Corolario VI.1.6.- Una funci�on continua sobre un intervalo compacto
admite una primitiva.
Las demostraciones de la proposici�on y el corolario precedentes se las
puede encontrar en cualquier libro de An�alisis. A continuaci�on, se enuncia
uno de los teoremas fundamentales del c�alculo.
Teorema VI.1.7.- Sea f : [a; b] ! R una funci�on integrable en el sentido
de Riemann que, adem�as admite una primitiva G. Para todo x 2 [a; b], se
tiene:
G(x) �G(a) =
Z x
a
f(t)dt:
Ahora bien, desde el punto de vista num�erico, el c�alculo de primitivas
no tiene mayor utilidad pr�actica, pu�es en la mayor parte de los casos
la determinaci�on anal��tica de �estas es costosa en tiempo. El tratamiento
num�erico que se realiza en el c�alculo de integrales est�a basado en la misma
de�nici�on de integral. Por consiguiente utilizando la de�nici�on, se tiene que
8� > 0, existe S � [a; b] y �i 2 [xi�1; xi] tal que�����nXi=1
f(�i)(xi � xi�1)�Z b
a
f(x)dx
����� < �;
de donde el enfoque num�erico consiste en aproximar la integral utilizando,
sumas �nitas de Riemann. Por otro lado, una de las tareas del An�alisis
Num�erico en lo que respecta el c�alculo de integrales, est�a dada en la cons-
trucci�on de f�ormulas de cuadratura con un costo razonable en operaciones,
y una precisi�on aceptable en la determinaci�on de la integral.
246 VI Integraci�on Num�erica
A continuaci�on, se mostrar�a las f�ormulas de cuadratura o de integraci�on
mas rudimentarias.
a) Regla del Punto Medio
Consiste en utilizar la suma de Riemann con �i =xi�1 + xi
2 , por
consiguiente
nXi=1
f
�xi�1 + xi
2
�(xi � xi�1) �
Z b
a
f(x)dx:
La regla del punto medio, da resultados exactos cuando f es un
polinomio de grado menor o igual a 1. Ver �gura VI.1.1.
x0 x1 x2 x3 xn-1 xn
Figura VI.1.1. Regla del Punto Medio.
b) Regla del Trapecio
Consiste en aproximar f(�i)(xi�1 � xi) con el area de un trapecio de
alturas f(xi�1) y f(xi). Por consiguiente
nXi=1
f(xi�1) + f(xi)
2(xi � xi�1) �
Z b
a
f(x)dx;
de donde, esta suma puede expresarse de manera m�as simple, comoZ b
a
f(x)dx � f(x0)x1 � x0
2+ f(x1)
x2 � x0
2+ � � �
� � �+ f(xn�1)xn � xn�2
2+ f(xn)
xn � xn�1
2:
x0 x1 x2 x3 xn-1 xn
Figura VI.1.2. Regla del Trapecio.
VI.1 Bases Te�oricas 247
Esta f�ormula es exacta para polinomios de grado igual o inferior a 1.
Ver �gura VI.1.2.
c) Regla de Simpson
Consiste en aproximar f(�i)(xi�1�xi), con el area de la super�cie cuyolado superior, ver �gura VI.1.3, esta dada por la par�abola que pasa por
los puntos (xi�1; f(xi�1); (xi�1 + xi
2 ; f(xi�1 + xi
2 )) y (xi; f(xi)). Para
simpli�car los c�alculos se toma para x0, y x1; obteniendo como polinomio
de interpolaci�on
p(x) = f(x0) + 2f(x0) + f((x0 + x1)=2)
x1 � x0
(x� x0)
+2f(x0)� 2f((x0 + x1)=2) + f(x1)
(x1 � x0)2
(x� (x0 + x1)=2)(x� x1):
Ahora bien, integrando este polinomio de segundo grado entre x0 y x1,
se obtieneZ x1
x0
f(x)dx ��1
6f(x0) +
4
6f
�x0 + x1
2
�+1
6f(x1)
�h1;
para �nalmente tenerZ b
a
f(x)dx �nXi=1
�1
6f(xi�1) +
4
6f
�xi�1 +
hi
2
�+1
6f(xi)
�hi:
La f�ormula de Simpson es exacta para polinomios de grado igual o
inferior a 3.
x0 x1
Figura VI.1.3. Regla de Simpson.
d) Regla de Newton
Consiste en aproximar f(�i)(xi�1�xi), con el area de la super�cie cuyolado superior, ver �gura VI.1.4, esta dada por la par�abola c�ubica que
pasa por los puntos (xi�1; f(xi�1), (2xi�1 + xi
3 ; f(2xi�1 + xi
3 )),
248 VI Integraci�on Num�erica
(xi�1 + 2xi
3 ; f(xi�1 + 2xi
3 )) y (xi; f(xi)). De la misma manera que en la
regla de Simpson, se calcula esta par�abola c�ubica utilizando por ejemplo
la f�ormula de Newton para determinar polinomios de interpolaci�on,
luego se integra para obtenerZ x1
x0
f(x)dx��1
8f(x0)+
3
8f
�x0 +
h1
3
�+3
8f
�x0 +
2h1
3
�+1
8f(x1)
�h1:
La regla de Newton es exacta para polinomios de grado menor o igual
a 3.
x0 x1
Figura VI.1.4. Regla de Newton.
F�ormulas de Cuadratura
En los cuatro ejemplos precedentes de la anterior subsecci�on, puede obser-
varse claramente que las reglas de integraci�on formuladas tienen la misma
estructura, la cual de�ne t�acitamente una f�ormula de cuadratura. La mayor
parte de los m�etodos num�ericos est�an basados en este principio.
Se desea integrar la funci�on f : [a; b] ! R, donde f es Riemann
integrable. Para tal efecto se considera una subdivisi�on
S = fa = x0 < x1 < � < xn = bg :
La integral puede ser aproximada mediante la f�ormula de cuadratura si-
guientenXj=1
sX
i=1
bif(xj�1 + cihj)
!; (VI:1:1)
los ci se llaman nudos de la f�ormula de cuadratura y los bi son los coe�cientes
de la f�ormula de cuadratura.
Para la regla del Trapecio, se tiene s = 2, b1 = b2 = 1=2 y c1 = 0, c2 = 1.
As�� mismo, para la regla de Simpson se tiene s = 3, b1 = b3 = j1=6, b = 4=6
y c1 = 0, c2 = 1=2, c3 = 1.
Dada una f�ormula de cuadratura, uno de los objetivos principales es
medir la precisi�on de �esta. Por razones de simplicidad, es preferible estudiar
VI.1 Bases Te�oricas 249
la f�ormula de cuadratura en una funci�on f : [0; 1]! R y considerar h1 = 1, es
decir integrar num�ericamente con un paso de integraci�on. Por consiguiente,
se analizar�a el problema
sXi=0
bif(ci) �Z 1
0
f(x)dx:
El Orden de una F�ormula de Cuadratura
De�nici�on VI.1.8.- Una f�ormula de cuadratura tiene orden p, si y sola-
mente si, p es el entero m�as grande, tal que
sXi=0
bif(ci) =
Z 1
0
f(x)dx; (VI:1:2)
donde f es un polinomio de grado � p� 1.
Proposici�on VI.1.9.- Una f�ormula de cuadratura es de orden p, si y
solamente sisX
i=0
bicq�1i =
1
q
; q = 1; : : : ; p: (VI:1:3)
Demostraci�on. La integraci�on es una operaci�on lineal, por lo tanto es
su�ciente mostrar que (VI.1.2) se cumple para f(x) = xq�1, donde q =
1; : : : ; p� 1. Ahora bien, Z 1
0
xp�1
dx =1
q
:
�
Por simple veri�caci�on, puede comprobarse que la f�ormula de cuadratura
de la regla del Trapecio es p = 2, la de la regla de Simpson es p = 4.
De�nici�on VI.1.10.- Una f�ormula de cuadratura se dice sim�etrica, si:
ci = 1� cs+1�i;
bi = bs+1�i;i = 1; : : : ; s: (IV:1:3)
Teorema VI.1.11.- Una f�ormula de cuadratura sim�etrica tiene un orden
par.
Demostraci�on.- Sup�ongase que la f�ormula de cuadratura sea exacta para
f(x) polinomio de grado � 2k. Por consiguiente se debe demostrar que la
250 VI Integraci�on Num�erica
f�ormula de cuadratura es exacta para los polinomios de grado igual a 2k+1.
Sea f(x) un polinomio de grado igual a 2k + 1. Ahora bien, f(x) puede
expresarse de la siguiente manera
f(x) = c
�x� 1
2
�2k+1
+ g(x);
donde g(x) es un polinomio de grado a lo m�as 2k. Por otro ladoZ 1
0
c
�x� 1
2
�2k+1
dx = 0:
Por consiguiente, es su�ciente mostrar que
sXi=1
bi
�ci �
1
2
�2k+1
= 0;
esto es cierto debido a la simetr��a de la f�ormula de cuadratura. �
Estimacion del Error
Dada una funci�on f : [a; b] ! R, se quiere tener una estimaci�on del error
cometido por la utilizaci�on de una f�ormula de cuadratura. Sea c1; : : : ; cs y
b1; : : : ; bs los coe�cientes y los nudos respectivamente, de una f�ormula de
cuadratura dada. Por consiguiente, se tieneZ b
a
f(x)dx =
nXj=1
hj
sXi=1
bif(xj + cihj) =
nXj=1
h
"Z xj
xj�1
f(x)dx � hj
sXi=1
bif(xj + cihj)
#:
Para poder determinar el error, es decir la diferencia entre la integral y la
f�ormula de cuadratura que aproxima la integral, se de�ne
E(f) =
Z x0+h
x0
f(x)dx� h
sXi=1
bif(x0 + cih): (VI:1:4)
Habiendo de�nido E(f), se puede determinar su valor, el cual est�a dado en
el siguiente:
Teorema VI.1.12.- Sea f 2 Ck[a; b], es decir f k veces continuamente
derivable. Entonces, se tiene
E(f) =
k�1Xj=0
hj+1
j!
"1
j + 1�
sXi=1
bicji
#+ h
k+1
Z 1
0
Pk(t)f(k)(x0 + th)dt
(VI:1:5)
VI.1 Bases Te�oricas 251
donde
Pk(t) = E
(x� t)k�1+
(k � 1)!
!; �
k�1+ =
(�k�1
� � 0
0 � < 0:
Demostraci�on.- Se tiene, efectuando un cambio de variable en la integral,
que
E(f) = h
Z 1
0
f(x0 + th)dt� h
sXi=1
bif(x0 + cih);
por otro lado, el desarrollo en serie de Taylor de f(x0 + �h) con resto en
forma de integral est�a dado por
f(x0 + h) =
k�1Xj=0
hj
j!f(j)(x0) + h
k
Z 1
0
(1� �)k�1
(k � 1)!f(k)(x0 + �h)d�;
por lo tanto
f(x0 + th) =
k�1Xj=0
hj
j!f(j)(x0)t
j + hk
Z t
0
(t� �)k�1
(k � 1)!f(k)(x0 + �h)d�;
introduciendo esta serie en E(f), se obtiene
E(f) =
k�1Xj=0
hj+1
j!f(j)(x0)
h Z 1
0
tjdt| {z }
1j+1
�sX
i=1
bicji
i
+ hk+1
"Z 1
0
Z t
0
(t� �)k+1+
(k � 1)!f(k)(x0 + �h)d�dt
�sX
i=1
bi
Z ci
0
(ci � �)k�1+
(k � 1)!f(k)(x0 + �h)d�
#
remplazando en el l��mite de integraci�on t por 1, se tiene que el �ultimo t�ermino
del lado derecho de la anterior relaci�on, est�a dado por
hk+1
Z 1
0
"Z 1
0
(t� �)k+1+
(k � 1)!dt�
sXi=1
bi
(ci � �)k�1+
(k � 1)!
#f(k)(x0 + �h)d�:
�
La funci�on Pk(t) de�nida en el teorema, es conocida por el nombre de
Nucleo de Peano de la f�ormula de cuadratura c1; : : : ; cs; b1; : : : ; bs.
252 VI Integraci�on Num�erica
Teorema VI.1.13.- El nucleo de Peano de una f�ormula de cuadratura dada,
tiene las siguientes propiedades:
Pk(�) =(1� �)k
k!�
sXi=1
(ci � �)k�1+
(k � 1)!a);
P0
k(�) = �Pk�1(�); para k � 2;b)
Pk(1) = 0; para k � 2; si ci � 1;c)
Pk(0) = 0; para 2 � k � p; si ci � 0 y p orden de la f.q.;d)
e) Si la f�ormula de cuadratura es 0 � c1 < : : : < cs � 1 y
sXi=1
bi = 1;
entonces P1(�) es lineal por trozos, con las siguientes propiedades: P1(0) = 0,
P1j(ci�1;ci)(x) = �x + di, donde di es una constante, adem�as P1(ci+) �P1(ci�) = bi, ver �gura VI.1.4.
0 1c c c1 2 s
Figura VI.1.5. Gr�a�ca de P1(�)
Demostraci�on.- Para el punto a), se tiene que
Pk(�) =
Z 1
0
(x� �)k�1+
(k � 1)!dx�
sXi=1
bi
(x � �)k�1+
(k � 1)!
=
Z 1
�
(x� �)k�1
(k � 1)!dx�
sXi=1
bi
(x � �)k�1+
(k � 1)!
=(1� �)k
k!�
sXi=1
bi
(x� �)k�1+
(k � 1)!:
El punto b), se obtiene del punto a), derivando para k � 2. El punto c) es
veri�caci�on inmediata, remplazando en � = 1, siempre que los ci � 1.
La demostraci�on del punto d) se basa en que la f�ormula de cuadratura,
es exacta para los polinomios de grado inferior a p y
Pk(0) =1
k!�
sXi=1
bi
ck�1i
(k � 1)!
=1
(k � 1)!
"1
k
�sX
i=1
bick�1i
#:
VI.1 Bases Te�oricas 253
El punto e) es una veri�caci�on sencilla que se deja al lector. �
Ejemplo
La regla de Simpson es una f�ormula de cuadratura, dada por
c1 = 0; c2 = 1=2; c3 = 1;
b1 = 1; =6 b2 = 4; =6 b3 = 1=6:
Utilizando las propiedades dadas en el teorema precedente, se tiene:
P1(�) =
8><>:1
6� �; 0 � � � 1
2;
(1� �) � 1
6;
1
2� � � 1:
P2(�) se obtiene integrando P1(�) por el punto b) del teorema prece-
dente. Por consiguiente
P2(�) =
8>><>>:� �
6+�2
2; 0 � � � 1
2;
(1� �)2
2� (1� �)
6;
1
2< � � 1:
De la misma manera, se obtiene P3(�) de P2(�), dando como resultado:
P3(�) =
8>><>>:�2
12� �
3
6; 0 � � � 1
2;
� (1� �)3
6� (1� �)2
12;
1
2< � � 1;
P4(�) =
8>><>>:� �
3
36+�4
24; 0 � � � 1
2;
(1� �)4
24� (1� �)3
36;
1
2< � � 1:
Ver los gr�a�cos en la �gura IV.1.6.
Consecuencia inmediata del teorema VI.1.12, se tiene el siguiente:
Teorema VI.1.14.- Sean, f 2 Ck[a; b], c1; : : : ; cs; b1; : : : ; bs una f�ormula de
cuadratura cuyo orden p � k, entonces
jE(f)j � hk+1
Z 1
0
jPk(�)j d� maxx2[x0;x0+h]
���f (k)(x)��� : (VI:1:6)
254 VI Integraci�on Num�erica
.0 .5 1.0
−.6
−.4
−.2
.0
.2
.4
.6
P1
.0 .5 1.0
−.1
.0
.1 P2
.0 .5 1.0
−.01
.00
.01P3
.0 .5 1.0
−.004
−.003
−.002
−.001
.000
.001
.002
.003
.004 P4
Figura VI.1.6. Nucleos de Peano, para la f�ormula de Simpson.
Para el ejemplo precedente, se tiene que la f�ormula de Simpson es una
f�ormula de cuadratura de orden 4, por consiguienteZ 1
0
jP4(�)j d� = �2Z 1=2
0
P4(�)d� =1
2880;
de donde, si f es cuatro veces continuamente derivable, se tiene que el error
veri�ca
jE(f)j � h5
2880max
x2[x0;x0+h]
���f (4)(x)��� :Teorema VI.1.15.- Si f 2 Ck[a; b], k � p , donde p es el orden de la f�ormula
de cuadratura, entonces������Z b
a
f(x)dx �nXj=1
hj
sXi=1
bif(xj�1 + cihj)
������� h
k(b� a)
Z 1
0
jPk(�)j d� maxx2[a;b]
���f (k)(x)��� ; (VI:6:7)
VI.1 Bases Te�oricas 255
donde h = maxhi.
Demostraci�on.- Se tieneZ b
a
f(x)dx �nXj=1
hj
"sX
i=1
bif(xj�1 + cihj)
#=
=
nXj=1
"Z xj
xj�1
f(x)dx � hj
sXi=1
bif(xj�1 + cihj)
#
� hk+1j
Z 1
0
jPk(�)j d� maxx2[a;b]
���f (k)(x)��� ;por otro lado, se tiene
nXi=1
hk+1j =
nXi=1
hjhkj � (b� a)hk:
�
Por lo tanto, la Regla de Simpson da la siguiente estimaci�on para el error
global
jerrorj � h4(b� a)
2880maxx2[a;b]
���f (4)(x)��� :Los teoremas VI.1.13 a VI.1.15 dan estimaciones te�oricas del error
cometido, cuando se utiliza una f�ormula de cuadratura. Sin embargo, es im-
portante comprobar estas estimaciones te�oricas con experimentos num�ericos.
Suponiendo que la subdivisi�on del intervalo [a; b] es uniforme, de la f�ormula
(VI.1.7), suponiendo f su�cientemente derivable, se deduce,Z b
a
f(x)dx =
nXj=1
h
sXi=1
bif(xj�1 + cih) + Chp +O(hp+1); (VI:1:8)
donde C depende solamente de a; b y f(x). Por consiguiente, el error satisface
Error � Chp: (VI:1:9)
Introduciendo logaritmos, se tiene
log10(Error) = log10 C + p logh;
denotando fe, la cantidad de evaluaciones de la funci�on f(x), en el proceso
de integraci�on num�erica, se tiene
fe =C0
h
;
256 VI Integraci�on Num�erica
donde C 0 es una constante, Por lo tanto, se obtiene
� log10(Error) = C + p log10 fe: (VI:1:10)
De esta �ultima relaci�on, se deduce que � log10(Error) y log10 fe tienen
una relaci�on lineal de pendiente p, donde p es el orden de la f�ormula de
cuadratura. En la �gura VI.1.7, se comprueba este hecho, utilizando como
integral test Z 1
0
cos(�ex)exdx =1
�
sin(�e):
100 101 102 103 10410−1
10−2
10−3
10−4
10−5
10−6
10−7
10−8
10−9
10−10
fe
Err
Punto Medio
Regla del Trapecio
Regla de Simpson
Regla de Newton
Gauss de orden 4
Gauss de orden 6
Figura VI.1.7. Gr�a�ca del Error vs fe.
Ejercicios
1.- Calcular el orden de la regla de Newton:
(ci) = (0;1
3;
2
3; 1); (bi) = (
1
8;
3
8;
3
8;
1
8):
2.- Sean 0 � c1 < c2 < � � � < cs � 1 dados. Mostrar que existe una f�ormula
de cuadratura �unica con nudos ci y con un orden � s.
VI.1 Bases Te�oricas 257
3.- Mostrar que si la f�ormula de cuadratura satisface
ci = 1� cs+1�i;
y si es de orden � s, entonces se tiene tambi�en
bi = bs+1�i:
4.- >C�omo se debe elegir c1; c2? para que la f�ormula de cuadratura
b1f(c1) + b2f(c2)
tenga un orden maximal. >C�ual es el orden?, >La f�ormula de cuadratura
es sim�etrica?
5.- Calcular
Z 2
1
dx
x
= ln2 mediante la regla del trapecio, la regla de Simpson
y la regla de Newton. >C�ual f�ormula es la mejor? Hacer un gr�a�co
logar��tmico para el n�umero de evaluaciones de la funci�on f respecto
al error.
6.- Lo mismo que el ejercicio 5, pero paraZ 2�
0
exp(sinx)dx:
7.- Calcular � utilizando
� = 4
Z 1
0
dx
1 + x2
y � = 4
Z 1
0
p1� x
2dx:
>Por qu�e el segundo resultado es menos bueno?
8.- Mostrar que el resultado obtenido por la regla del trapecio, o por la regla
de Simpson, es una suma de Riemann.
9.- Sean h = (b� a)=n, xi = a+ ih y
T (h) = h
�1
2f(x0) + f(x1) + � � �+ f(xn�1) +
1
2f(xn)
�:
Demostrar que para f su�cientemente derivableZ b
a
f(x)dx � T (h) = �h2
12(f 0(b)� f
0(a)) +O(h3):
10.- Calcular los nucleos de Peano para la f�ormula del ejercicio 4 y hacer sus
gr�a�cas.
11.- Calcular la expresi�on �R baf(x)dx� T (h)
�h2
;
para f(x) = 1=x, a = 1, b = 10; con varios valores de h. Veri�car la
f�ormula del ejercicio 9.
VI.2 Cuadraturas de Orden Elevado
En esta secci�on, se dar�an las herramientas te�oricas, para construir f�ormulas
de cuadratura de orden elevado. El inter�es que se tiene para utilizar f�ormulas
de cuadratura del mayor orden posible, reside sustancialmente en el hecho
de aumentar la precisi�on en el c�alculo de integrales de�nidas, como tambi�en
de disminuir el n�umero de evaluaciones de la funci�on a integrar, ver la �gura
VI.1.7.
Mediante el ejercicio 2, de la secci�on precedente, se demuestra que si
c1; : : : ; cs dados, existe una �unica formula de cuadratura que es de orden
� s, es decirsX
i=1
bicq�1i =
1
q
; (VI:2:1)
para q = 1; : : : ; s.
Sea m un entero no negativo, la f�ormula de cuadratura c1; : : : ; cs;
b1; : : : ; bs; es de orden � s+m, si y solamente si, la f�ormula de cuadratura
es exacta para polinomios de grado � s + m � 1. Ahora bien, se de�ne el
polinomioM(x) de grado s, por
M(x) = (x � c1)(x� c2) � � � (x� cs); (VI:2:2)
donde los ci son los nudos de la f�ormula de cuadratura estudiada. Sea f(x)
un polinomio de grado � s+m� 1, por la divisi�on con resto se tiene que
f(x) = q(x)M(x) + r(x);
donde q(x) y r(x) son polinomios con deg q � m � 1 y deg r � s � 1. Por
consiguiente Z 1
0
f(x)dx =
Z 1
0
q(x)M(x)dx +
Z 1
0
r(x)dx:
Utilizando la f�ormula de cuadratura en la anterior expresi�on, se obtiene
sXi=1
bif(ci) =
sXi=1
biq(ci)M(ci)| {z }= 0
+
sXi=1
bir(ci);
suponiendo que el orden de la f�ormula de cuadratura sea � s, se acaba de
demostrar el:
VI.2 Cuadraturas de Orden Elevado 259
Teorema VI.2.1.- Sea (bi; ci); i = 1; : : : ; s; una f�ormula de cuadratura con
orden � s. Entonces
el orden de la f�ormula de
cuadratura es � s+m
�()
8>>><>>>:Z 1
0
q(x)M(x)dx = 0;
para todo polinomio q(x)
con deg q � m� 1.
Ejemplo
El ejercicio 4 de la secci�on precedente demanda la construcci�on de una
f�ormula de cuadratura del orden m�as elevado posible. En consecuencia,
se de�ne
M(x) = (x� c1)(x � c2):
Se tiene que la f�ormula de cuadratura es de orden � 3 si y solamente siZ 1
0
M(x)dx = 0;
1
3� 1
2(c1 + c2) + c1c2 = 0;
la f�ormula de cuadratura es de orden m�as grande o igual a 4, si adem�asZ 0
1
xM(x)dx = 0;
1
4� 1
3(c1 + c2) +
1
2c1c2 = 0;
obteniendo as�� un sistema de dos ecuaciones y dos incognitas. Una vez
determinados los ci, el siguiente paso es determinar los bi.
Polinomios Ortogonales
Uno de los mayores inconvenientes en la construcci�on de f�ormulas de
cuadratura de orden elevado utilizando el teoremaVI.2.1, consiste en el hecho
siguiente: se deben resolver sistemas de ecuaciones no lineales para determi-
nar los nudos de la f�ormula de cuadratura. Est�a claro que para f�ormulas de
cuadratura con una cantidad no muy grande de nudos esto es posible, sin
embargo para s ya m�as grande esto presenta una desventaja. En esta sub-
secci�on se estudiar�an polinomios ortogonales, cuyas raices son precisamente
los nudos.
260 VI Integraci�on Num�erica
Se iniciar�a esta subsecci�on, de�niendo un conjunto de funci�ones particu-
lares. Sea ! : (a; b)! R una funci�on, llamada funci�on de peso. Sea
E =(f : (a; b)! Rj
Z b
a
!(x) jf(x)j2 dx <1): (VI:2:3)
Puede mostrarse que E es un espacio vectorial para la adici�on de funciones yla multiplicaci�on por escalares reales. Para las aplicaciones en general, puede
suponerse que f es una funci�on continua.
Suponiendo que !(x) > 0, puede de�nirse un producto escalar sobre E ,de la siguiente manera,
hf; gi =Z b
a
!(x)f(x)g(x)dx: (VI:2:4)
Hay que remarcar dos hechos importantes; el primero E es en realidad
un conjunto de clases de equivalencia de funciones, donde la relaci�on de
equivalencia est�a de�nida por
f � g () f(x) 6= g(x) en un conjunto de medida nula.
La segunda observaci�on es consecuencia de la primera, se puede suponer
por lo tanto que E est�a constituida por funciones continuas, a lo sumo por
funciones continuas por trozos, y con ciertas condiciones impuestas a !(x)
puede demostrarse que
hf; fi = 0 () f = 0:
De�nici�on VI.2.2.- f es ortogonal a g, que se denota por f ? g, si
hf; gi = 0: (VI:2:5)
El objetivo central ser�a, por consiguiente, encontrar M(x) ? q(x) si
deg q � m� 1.
Teorema VI.2.3.- Sea !(x) dado, entonces existe una sucesi�on de poli-
nomios p0(x); p1(x); p2(x); : : :, tal que:
deg pj = j;
hpk; qi = 0; 8q polinomio de grado � k � 1:
Si se supone que pk(x) = xk + r(x) con deg r(x) � k� 1, los polinomios son
�unicos.
VI.2 Cuadraturas de Orden Elevado 261
Los polinomios satisfacen la siguiente relaci�on recursiva:
p�1(x) := 0; p0(x) = 1; (VI:2:6a)
pk+1 = (x� �k+1)pk(x) � 2k+1pk�1(x); (VI:2:6b)
donde
�k+1 =hxpk; pkihpk; pki
; 2k+1 =
hpk; pkihpk�1; pk�1i
: (VI:2:6c)
Demostraci�on.- El primer punto del teorema, se obtiene a partir del
proceso de ortogonalizaci�onde Gramm-Schmidt. Las relaciones entre los dife-
rentes polinomios ortogonales se demuestra por inducci�on. Por consiguiente,
se supone cierto para los polinomios p0; p1; : : : ; pk. Ahora bien, se tiene
pk+1(x) = xpk(x) +
kXj=0
cjpj(x);
por que el coe�ciente dominante de pk es 1. Aplicando el producto escalar
se tiene0 = hpk+1; pki
= hxpk; pki+kX
j=0
cjhpj ; pki
= hxpk; pki+ ckhpk; pki;
de donde
ck = �hxpk; pkihpk; pki
:
Por otro lado, aplicando nuevamente el producto escalar se tiene
0 = hpk+1; pk�1i
= hxpk; pk�1i+kX
j=0
cjhpj ; pk�1i
= hxpk; pk�1i+ ck�1hpk�1; pk�1i
Ahora bien, se veri�ca facilmente, utilizando la de�nici�on del producto
escalar de�nido en E , que
hxpk ; pk�1i = hpk; xpk�1i;
262 VI Integraci�on Num�erica
con la hip�otesis de inducci�on, se veri�ca inmediatamente que
hpk; xpk�1i = hpk; pki;
de donde
ck�1 =hpk; pki
hpk�1; pk�1i:
Los restantes cj , son nulos, utilizando la hip�otesis de inducci�on sobre la
ortogonalidad. �
Consecuencia de este teorema, es que si los nudos de una f�ormula de
cuadratura son las raices del polinomio ps, de�nido en el teorema precedente,
se tiene M(x) = ps(x) y por el teorema VI.2.1 el orden de la f�ormula de
cuadratura es igual o mayor a 2s.
Teorema VI.2.4.- Sean los pk, como en el teorema VI.2.3, entonces las
raices de pk(x) son reales, simples y est�an localizadas en el intervalo (a; b).
Demostraci�on.- Se donota por �1; : : : ; �T las raices distintas de pk donde
la funci�on pk(x) cambia de signo. Se de�ne el polinomio g(x) por
g(x) = (x � �1) � � � (x� �T );
por consiguiente, se tiene que
g(x)pk(x)
no cambia de signo, de donde
hg(x); pk(x)i 6= 0;
por lo tanto deg g � k, y por la hip�otesis inicial se tiene necesariamente que
T = k. �
En la tabla VI.2.1, se tienen los diferentes tipos de polinomios ortonor-
males para diferentes tipos de funci�on de peso !(x).
Tabla VI.2.1. Ejemplos de Polinomios Ortonormales
!(x) (a; b) Notaci�on Nombre
1 (�1; 1) Pk(x) Polinomios de Legendre
1p1� x
2(�1; 1) Tk(x) Polinomios de Chebichef
(1� x)�(1 + x)� (�1; 1) P
(�;�)
k (x) Jacobi, �; � > �1x�e�x (0;1) L
(�)
k (x) Pol. de Laguerre, �>�1e�x2 (�1;1) Hk(x) Polinomios de Hermite
VI.2 Cuadraturas de Orden Elevado 263
Teorema VI.2.5.- F�ormula de Rodriguez. Sea !(x) una funci�on de peso
de�nida como antes. Entonces
pk(x) = Ck
1
!(x)
dk
dxk
�!(x)(x � a)k(b� x)k
: (VI:2:7)
Demostraci�on.- Una veri�caci�on simple sobre pk(x), muestra que se tratan
efectivamente de polinomios. Para la relaci�on de ortogonalidad con k dado,
es su�ciente mostrar que si q(x) es un polinomio de grado � k � 1 entonces
q ? pk. En efectoZ b
a
!(x)pk(x)q(x)dx =
Z b
a
dk
dxk
�!(x)(x � a)k(b� x)k
q(x)dx
=dk�1
dxk�1
�!(x)x � a)k(b� x)k
q(x)
����ba| {z }
= 0
�Z b
a
dk�1
dxk�1
�!(x)x � a)k(b� x)k
q0(x)dx
...
= �Z b
a
�!(x)x � a)k(b� x)k
q(k)dx
= 0:
�
La mayor parte de los c�alculos de integrales de�nidas, tienen como funci�on de
peso !(x) = 1. A continuaci�on se estudiar�a con mayor detalle los polinomios
de Legendre.
Los Polinomios de Legendre
Los polinomios de Legendre son los polinomios ortogonales para la funci�on
de peso !(x) = 1 de�nida en el intervalo (�1; 1), ver la tabla VI.2.1. Por otrolado, utilizando la f�ormula de Rodriguez se puede elegir los Ck de manera
que Pk(1) = 1. Por consiguiente, se tiene
1 = Pk(1) = Ck
dk
dxk
�(1� x)k(1 + x)k
����x=1
= Ck(�2)kk!;
de donde
Ck =(�1)k
2kk!;
264 VI Integraci�on Num�erica
por lo tanto
Pk(x) =(�1)k
2kk!
dk
dxk
�(1� x
2)k�: (VI:2:8)
Los polinomios de Legendre pueden ser calculados mediante la f�ormula
de Rodriguez, o mediante una relaci�on recursiva, ver ejercicio 1. En la tabla
VI.2.2, se da los cuatro primeros polinomios de Legendre.
Tabla VI.2.2. Polinomios de Legengre
k Pk(x)
0 1
1 x
23
2x2 � 1
2
35
2x3 � 3
2x
Puede observarse que si k es par, entonces Pk(x) = Q(x2) donde Q es un
polinomio; de la misma manera si k es impar, se tiene que Pk(x) = xQ(x2).
Las F�ormulas de Cuadratura de Gauss
La veri�caci�on del orden de una f�ormula de cuadratura, se la realiza en el
intervalo [0; 1]. Efectuando una transformaci�on af��n, se tiene que M(x) del
teorema VI.2.1, es igual a
M(x) = (x� c1) � � � (x � cs) = Ps(2x� 1) (VI:2:9)
con Ps el s-simo polinomio de Legendre, si se desea que orden de la f�ormula
cuadratura sea al menos s. El siguiente teorema, tiene una importancia en
lo concerniente al orden de una f�ormula de cuadratura.
Teorema VI.2.6.- El orden de una f�ormula de cuadratura dada por (bi; ci),
i = 1; : : : ; s; es menor o igual a 2s.
Demostraci�on.- Por el absurdo. Sup�ongase que existe una f�ormula de
cuadratura de orden superior o igual a 2s+1, de donde para todo polinomio
l(x) de grado s, se tiene Z 1
0
l(x)M(x)dx;
VI.2 Cuadraturas de Orden Elevado 265
sin embargo, tomando l(x) =M(x) se tieneZ 1
0
M2(x)dx = 0;
lo que conduce a una contradicci�on �
El objetivo, ser�a por consiguiente, encontrar una f�ormula de cuadratura
de orden m�aximo, es decir 2s. Por la observaci�on hecha al inicio de esta
�ultima subsecci�on, los nudos ci de la f�ormula de cuadratura de orden s son
las raices de Ps(2x � 1) polinomio de Legendre. Como consecuencia de lo
anteriormente expuesto se tiene el siguiente teorema formulado por Gauss
en 1814.
Teorema VI.2.7.- Una f�ormula de cuadratura (ci; bi), i = 1; : : : ; s; es de
orden 2s si y solamente si c1; : : : ; cs son las raices de Ps(2x � 1), Ps(t)
polinomio de Legendre y los bi est�an determinados por
sXi=1
bicq�1i =
1
q
; q = 1; : : : ; s: (VI:2:10)
Por otro lado, debe observarse que los coe�cientes de una f�ormula de
cuadratura de Gauss son extrictamente positivos, en efecto, se de�ne
li(x) =
sYj=1
j 6=i
x� cj
ci � cj
el i-esimo polinomio de Lagrange para la subdivsi�on c1 < � � � < cs. El grado
de este polinomio es igual a s� 1 y veri�ca
li(cj) =
(0; j 6= i;
1; j = i:
Ahora bien, se tiene
bi =
sXj=1
bj(li(cj))2 =
Z 1
0
(li(x))2dx > 0;
ya que, deg l2i = 2s� 2 < 2s.
El c�alculo de los coe�cientes bi de una f�ormula de cuadratura de Gauss,
pueden ser resueltos mediante el sistema lineal dado por (VI.2.10). Sin
embargo este procedimiento no es el mejor, debido a la acumulaci�on de los
266 VI Integraci�on Num�erica
errores de redondeo. Existe un procedimiento que determina los bi de una
manera sencilla, el est�a dado en el:
Teorema VI.2.8.- Para la formula de cuadratura de Gauss de orden 2s, se
tiene
bi =1
(1� x2i )P
0
s(xi)2; i = 1; : : : ; s; (VI:2:11)
donde xi = 2ci � 1.
Demostraci�on.- Se tiene,
bi =
sXj=1
bjli(cj) =
Z 1
0
li(t)dt;
realizando la transformaci�on x = 2t� 1, se obtiene
bi =1
2
Z 1
�1
li
�x+ 1
2
�dx;
por otro lado, se tiene
li
�x+ 1
2
�= C
Ps(x)
x� xi
;
de donde pasando al l��mite, se obtiene
limx!xi
C
Ps(x)
x� xi
= CP0
s(xi) = 1;
despejando C, bi est�a dado por
bi =1
2
Z 1
�1
Ps(x)
(x� xi)P0
s(xi)dx: (VI:2:12)
Adem�as,
bi =
sXj=1
bjli(cj) =1
2
Z 1
�1
�Ps(x)
(x� xi)P0
s(xi)
�2
dx; (VI:2:13)
esta integral se la resulve por partes, obteniendo as��
bi =1
2(P 0s(xi))2
Z 1
�1
(Ps(x))2 1
(x� xi)2dx
VI.2 Cuadraturas de Orden Elevado 267
=1
2(P 0s(xi))2
��1
1� xi
+1
�1� xi
�+
Z 1
�1
P0
s(x)
P0
s(xi)
�Ps(x)
(x � xi)P0
s(xi)
�| {z }= li
�x+ 1
2
�dx
=1
2(P 0s(xi))2
�11� x
2i
+
sXj=1
bj
P0
s(xj)
P0
s(xi)li
�xj + 1
2
�=
1
2(P 0s(xi))2
�11� x
2i
+ 2bi
�
En el ejercicio 1 de esta secci�on, se mostrar�a que los polinomios de
Legendre veri�can la siguiente relaci�on recursiva
(1� x2)P 0s(x) = �sxPs(x) + sPs�1(x);
de donde
(1� x2i )P
0
s(xi) = sPs�1(xi);
obteniendo
bi =1� x
2i
s2(Ps�1(xi))
2: (VI:2:14)
En la tabla VI.6.3, se dan las primeras f�ormulas de cuadratura de Gauss.
Tabla VI.6.3. Primeras F�ormulas de Cuadratura de Gauss.
s c1 c2 c3 b1 b2 b3
11
21
21
2�p3
6
1
2+
p3
6
1
2
1
2
31
2�p15
10
1
2
1
2+
p15
10
5
18
8
18
5
18
Ejercicios
1.- Para los polinomios de Legendre, demostrar que:
(k + 1)Pk+1(x) = (2k + 1)xPk(x)� kPk�1(x);
(1� x2)P 0k(x) = �kxPk(x) + kPk�1(x):
268 VI Integraci�on Num�erica
2.- Los polinomios de Chebychef est�an de�nidos por
Tk(x) = cos(k arccosx):
Veri�car que:
T0(x) = 1; T1(x) = x;
Tk+1(x) = 2xTk(x) � Tk�1(x);Z 1
�1
1p1� x
2Tk(x)Tj(x); para i 6= j:
3.- Calcular las raices de P8(x) con un m�etodo iterativo, como por ejemplo
el m�etodo de la bisecci�on.
4.- Mostrar que el nucleo de Peano Pk(t) de una f�ormula de cuadratura
satisface Z 1
0
Pk(t)dt =1
k + 1�
sXi=1
bicki :
5.- Sea p el orden de una f�ormula de cuadratura y sup�ongase que el nucleo
de Peano Pp(t) no cambia de signo sobre [0; 1]. Mostrar que
Z x0+h
x0
f(x)dx�hsX
i=1
bif(x0+cih) = hp+1
1
p+ 1� h
sXi=1
bicpi
!f(p)(�);
con � 2 (x0; x0 + h).
Indicaci�on.- Utilizar el teorema VI.1.15 con k = p.
6.- Mostrar que para las f�ormulas de cuadratura de Gauss de orden 2s, el
nucleo de Peano P2s(t) no cambia de signo.
VI.3 Implementaci�on Num�erica
El c�alculo num�erico de integrales de�nidas, requiere la implementaci�on de
las f�ormulas de cuadratura en forma de programas o subrutinas. Dada una
funci�on f : [a; b]! R, el c�alculo de
Z b
a
f(x)dx; (VI:3:1)
se lo realiza teniendo en cuenta el error que se desea cometer. Generalmente
se da una tolerancia que se la denota por TOL, por consiguiente se busca una
aproximaci�on I , tal que�����Z b
a
f(x)dx� I
����� � TOL
Z b
a
jf(x)j dx: (VI:3:2)
Ahora bien, una manera de conseguir (VI.3.2), es subdividir el intervalo
[a; b] en subintervalos y aplicar el teorema VI.1.16 de manera de obtener
un h �optimo. Sin embargo este procedimiento presenta dos incovenientes:
es necesario conocer de antemano este h �optimo; adem�as de conocer las
propiedades de la funci�on f a integrar. La segunda manera de resolver
(VI.3.2) es de concevir un algoritmo, donde el c�alculo del error se haga de
manera autom�atica es decir utilizando un m�etodo adaptativo.
Lo primero que se debe tener en la implementaci�on de un programa que
permita evaluar la integral de una funci�on f , es una estimaci�on del error. Sea
(bi; ci) i = 1; : : : ; s, una f�ormula de cuadratura y a = x0 < x1 < � � � < xn = b,
una subdivisi�on de [a; b]; se de�ne el error en cada subintervalo [xi; xi+1] a
E(f; xi; xi+1) =
Z xi+1
xi
f(x)dx � (xi+1 � xi)
sXj=1
bjf(xi + cj(xi+1 � xi)):
(VI:3:3)
Por lo tanto, el programa que va calcular num�ericamente la integral debe
tener en cuenta dos aspectos:
1.- Estimaci�on del error.
2.- Elecci�on de la subdivisi�on de [a; b], x0 < x1 < � � � < xn; tal que
nXj=0
jE(f; xj ; xj+1)j � TOL
Z b
a
jf(x)j dx:
270 VI Integraci�on Num�erica
Por consiguiente, denotando por:
res[a;b] = I; resabs[a;b] =
Z b
a
jf(x)j dx; err[a;b] =
�����Z b
a
f(x)dx � I
����� ;se tiene el siguiente algoritmo.
Algoritmo
| Calcular: res[a;b], resabs[a;b] y err[a;b].
err[a;b] � TOLresabs[a;b]: si es cierto se ha terminado, si no continuar
el siguiente paso.
| Plantear c = c =a+ b
2y calcular:
res[a;c]; err[a;c]; resabs[a;c];
res[c;b]; err[c;b]; resabs[c;b];�err[a;c] + err[c;b]
�� TOL
�resabs[a;c] + resabs[c;b]
�: si es cierto se ha
terminado, si no dividir el subintervalo con error maximal y continuar
con el siguiente paso.
| Continuar hasta queXerr[aj ;cj ] � TOL
�Xresabs[aj ;cj ]
�:
Una vez planteado el algoritmo, el principal problema consiste en estimar
el error cometido en el c�alculo de la integral, en cada subintervalo [xi; xi+1].
El teorema VI.1.12 da una estimaci�on cuando la f�ormula de cuadratura tiene
un orden p, la cual est�a dada por
E(f; x0; x1) = hp+1
Z 1
0
Pp(t)f(p)(x0 + th)dt;
donde Pp(t) es el k-simo nucleo de Peano, para la f�ormula de cuadratura. El
principal inconveniente de utilizar esta estimaci�on radica en que el c�alculo
de la derivada de orden p de f puede ser tan complicado, como encontrar
una primitiva de f , y por otro lado, determinar el nucleo de Peano no es una
tarea nada simple, motivos por los cuales, la estimaci�on del teorema VI.1.12
no es nada pr�actica desde el punto de vista computacional.
Ahora bien, existen dos m�etodos num�ericos que permiten encontrar una
estimaci�on del error cometido en cada subintervalo, sin necesidad de conocer
las propiedades del nucleo de Peano y de las derivadas de la funci�on a
VI.3 Implementaci�on Num�erica 271
integrar. Por consiguiente sea (ci; bi), una f�ormula de cuadratura dada de
orden p, se desea estimar
E(f; x0; x1) =
Z x1
x0
f(x)dx � (x1 � x0)
sXi=1
bi(f(x0 + ci(x1 � x0)):
El primer m�etodo para estimar E es conocido como QUADPACK, algoritmo
implementado en algunas bibliotecas de programas. La idea central de este
m�etodo es tomar una segunda f�ormula de cuadratura (ci; bi) con un orden
p > p y estimar E(f; x0; x1), como
E(f; x0; x1)=(x1�x0)"
sXi=1
bif(x0 + ci(x1 � x0)�sX
i=1
bif(x0 + ci(x1 � x0))
#;
(VI:3:4)
Para evitar demasiadas evaluaciones de la funci�on f , es deseable que
fc1; : : : ; csg � fc1; : : : ; csg ;
es decir
fc1; : : : ; csg = fc1; : : : ; csg [ fcs+1; : : : ; cs+mg ;con s+m = s. Sin embargo m debe ser m�as grande que s, si la f�ormula de
cuadratura (ci; bi) es una de tipo Gauss; en efecto, si m � s, se tiene:
s+mXi=1
bicj�1i =
1
j
; j = 1; : : : ; s+m;
sXi=1
bicj�1i =
1
j
; j = 1; : : : ; 2s;
lo cual conduce a que
bi =
(bi; i = 1; : : : ; s;
0; i = s+ 1; : : : ; s+m;
obteniendo as��, la misma f�ormula de cuadratura. Por consiguiente es nece-
sario elegir m > s, por ejemplo m = s+ 1.
Por otro lado, se pueden elegir los ci restantes de manera que la f�ormula
de cuadratura (ci; bi), i = 1; : : : ; 2s + 1; tenga un orden igual a 3s + 2.
Esta f�ormula de cuadratura lleva el nombre de Konrad, en honor a su
descubridor. El m�etodo QUADPACK, toma como resultado de la integral al
resultado num�erico proporcionado por la f�ormula de cuadratura de Konrad,
es decir
res = (x1 � x0)
2s+1Xi=1
bif(x0 + ci(x1 � x0)); (VI:3:5)
272 VI Integraci�on Num�erica
la estimaci�on del error cometido es de la f�ormula de cuadratura de Gauss y
no as�� de la de Konrad. No obstante, se puede obtener una estimaci�on de
este error. En efecto los errores de las f�ormulas de cuadratura est�an dados
por:
errGauss = Ch2s+1 + : : : ;
errKonrad = Ch3s+3 + : : : :
Para simpli�car los c�alculos se puede suponer que tanto C, como C son
iguales y valen 1, obteniendo as��, cuando h tiende a 0�h2s+1
�3=2 � h3s+3
;
de donde la estimaci�on del error de la f�ormula de cuadratura multiplicada
por una constante de seguridad est�a dada por:
err =
"(x1 � x0)
2s+1Xi=1
bif(x0 + cih)�sX
i=1
bif(x0 + cih)
!#3=2� 100;
(VI:3:6)
�nalmente se tiene
resabs = (x1 � x0)
2s+1Xi=1
bi jf(x0 + ci(x1 � x0))j : (VI:3:7)
El segundo m�etodo es conocido como GAUINT,GAUSS. Al igual que en el
m�etodo QUADPACK, se considera una formula de cuadratura de tipo Gauss
(ci; bi), i = 1; : : : ; s; pero s impar, de manera que uno de los nudos sea igual
a 1=2. Luego se considera la f�ormula de cuadratura de orden al menos s� 1
obtenida de la f�ormula original, cuyos nudos est�an dados por
fc1; : : : ; cs�1g = fc1; : : : ; csg n f1=2g :Con los mismos argumentos desarrollados para el m�etodo QUADPACK, pero
esta vez tomando el resultado num�erico proporcionado por la f�ormula de
cuadratura de Gauss, se obtiene:
res = (x1 � x0)
sXi=1
bif(x0 + cih); (VI:3:8)
err =
"(x1 � x0)
sX
i=1
bif(x0 + cih)�sX
i=1
bif(x0 + cih)
!#2� 100; (VI:3:9)
resabs = (x1 � x0)
sXi=1
bi jf(x0 + cih)j : (VI:3:10)
Las experiencias num�ericas muestran que en la mayor��a de los casos las
estimaciones del error cometido son demasiado pesimistas, ver en la tabla
VI.3.1, las experiencias num�ericas han sido realizadas por el m�etodo GAUINT.
El programa GAUINT, para estas experiencias num�ericas, utiliza una f�ormula
de cuadratura de Gauss de orden 30.
VI.3 Implementaci�on Num�erica 273
Tabla VI.3.1 Error exacto vs Error estimado.
f(x) [a; b] Error exacto err
1
x4 + x
2 + 1[0; 2] 0:23� 10�10 0; 90� 10�10
25e�25x [0; 1] 0; 14� 10�11 0:23� 10�5
px [0; 1=2] 0; 98� 10�5 0:14� 10�8
Puede observase que la tercera funci�on a ser integrada es una excepci�on de la
regla anteriormente formulada, eso se debe a quepx no es lo su�cientemente
derivable, y el algoritmo ha sido concebido para funciones lo su�cientemente
lisas.
Tratamiento de singularidades
Los m�etodos desarrollados en la anterior subsecci�on, tal como se puede
observar en la tabla precedente, son utilizables para funciones lo su�ciente-
mente derivables. Por lo tanto, no son muy e�cientes para resolver integrales
de�nidas de funciones no muy lisas, adem�as existen integrales impropias cuyo
c�alculo es frecuente en diversas aplicaciones, como por ejemplo integrales de
los tipos: Z 1
0
f(x)px
dx;
Z 1
0
(logx)f(x)dx:
Ejemplo
Consid�erese, la funci�on
f(x) = � 4x logx
x4 + 100
;
se desea calcularR 10f(x)dx. Esta integral es impropia, no obstante que
una f�ormula de cuadratura de tipo Gauss proporciona resultados que
se aproximan al valor exacto de esta integral. Esto se debe a que los
nudos de la f�ormula utilizada son diferentes de 0 y que la funci�on f(x)
es singular en x = 0. Ahora bien, el error exacto al integrar sobre el
intervalo [0; 1] es del orden de 0:18� 10�4, el cual est�a cerca del 5% del
274 VI Integraci�on Num�erica
valor exacto, valor muy grande. Un procedimiento para obtener un error
que este en el orden de TOL, es de�nir la sucesi�on Sk dada por
Sk =
kXj=0
Z bj
aj
f(x)dx;
donde bj = 2j�k y aj = bj=2, para j > 0. Con este procedimiento,
solamente se debe calcular la integral en el intervalo m�as peque~no.
Para poder comparar los resultados obtenidos con el m�etodo num�erico,
el valor exacto de la integral, calculada mediante series, es igual aZ 1
0
� 4x logx
x4 + 100
dx =
Z 1
0
1
100
�4x logx1 + x
4=100
dx
=1
100
Z 1
0
(�4x logx)1Xk=0
(�1)k x4k
100kdx
=�4100
1Xk=0
(�1)k
100k
Z 1
0
x4k+1 logxdx
1
100
1Xk=0
(�1)k
100k1
(2k + 1)2;
lo que es igual con 16 cifras de precisi�on aZ 1
0
� 4x logx
x4 + 100
dx = 9:9889286860336184� 10�03:
Aplicando el procedimiento mencionado m�as arriba, se obtiene la tabla
VI.3.2.
Tabla VI.3.2. C�alculo Integral.
Sk Error Exacto
S0 1:748733098830973E� 07
S1 4:371832748595316E� 08
S2 1:092958187148829E� 08
S3 2:732395467872073E� 09
S4 6:830988674016991E� 10
S5 1:707747172841056E� 10
S6 4:269368018838815E� 11
Sk Error Exacto
S7 1:067342048077790E� 11
S8 2:668355120194476E� 12
S9 6:670896474103571E� 13
S10 1:667728455334582E� 13
S11 4:169407874510255E� 14
S12 1:042395336714463E� 14
S13 2:605554660917164E� 15
VI.3 Implementaci�on Num�erica 275
Se puede observar inmediatamente, que la convergencia para calcular la
integral es muy lenta, es necesario, efectuar 13 subdivisiones para obtener
un error igual o inferior a 2:61 � 10�15. Cada utilizaci�on del programa
GAUINT requiere 15 evaluaciones de la funci�on f , por consiguiente para
obtener el error mencionado, es necesario por lo menos 14� 15 evalua-
ciones de la funci�on f .
Para evitar tantas evaluaciones de la funci�on f , es necesario construir
un algoritmo que permita acelerar la convergencia. Una forma de hacerlo es
utilizar procedimientos de extrapolaci�on al l��mite dado en el cap��tulo III.3.
Ahora bien, el m�etodo que ser�a estudiado para acelerar la convergencia en
el c�alculo de estas integrales ser�a tratado con un procedimiento equivalente,
el cual consiste en utilizar diferencias �nitas.
A partir de la tabla precedente puede observarse, el siguiente hecho:
Den�otese por S el valor exacto de la integral, entonces
Sn+1 � S � 1
4(Sn � S);
es decir
Sn+1 � S � �(Sn � S): (VI:3:11)
Sup�ongase, que se conoce tres valores consecutivos de la sucesi�on fSkg, pordecir: Sn; Sn+1 y Sn+1, utilizando la notaci�on de diferencias �nitas dada en
el cap��tulo III.1, se tiene el siguiente sistema lineal(Sn+1 � S = �(Sn � S)
Sn+2 � S = �(Sn+1 � S); (VI:3:12)
de donde sustrayendo ambas ecuaciones, se obtiene
�Sn+1 = ��Sn;
por consiguiente
� =�Sn+1
�Sn: (VI:3:13)
Despejando S de la segunda ecuaci�on de (VI.3.12), se tiene
S =Sn+1 �1
�� 1�Sn+1
=Sn+1 ��Sn�Sn+1
�Sn+1 ��Sn;
obteniendo as��
S0
n = Sn+1 ��Sn�Sn+1
�2Sn
: (VI:3:14)
276 VI Integraci�on Num�erica
El m�etodo que acaba de ser formulado por (VI.3.14), es conocido por el
procedimiento �2 de Aitken. En la tabla VI.3.3, se dan los valores obtenidos
por este procedimiento, para el ejemplo precedente.
Tabla VI.3.3. Procedimiento � de Aitken.
S0
k Valor integral Error Exacto
S0
0 9:988928686033609E� 03 0:35E � 14
S0
1 9:988928686033618E� 03 0:26E � 14
S0
2 9:988928686033618E� 03 0:26E � 14
Con la �nalidad de comparar la e�ciencia, del procedimiento �2 de Aitken,
para obtener un error del orden de 0:26� 10�14 solo se necesitan 3 evalua-
ciones de integrales de f , mientras que, sin el procedimiento de aceleraci�on
es necesario 14 evaluaciones de integral.
El siguiente paso en lograr una convergencia m�as rapida en el c�alculo de
integrales, consiste en generalizar el procedimiento �2 de Aitken, para tal
efecto se supuso que
Sn+1 � S = �(Sn � S);
por consiguiente
Sn � S = C�n:
Ahora bien, para ser m�as precisos se puede suponer que
Sn � S = C1�1 + C2�2 + � � �Ck�k; (VI:3:15)
con los �i diferentes dos a dos, de donde la diferencia �n = Sn � S satisface
una ecuaci�on de diferencias �nitas o relaci�on recursiva de la forma
�n+k + a1�n+k�1 + � � �+ ak�n = 0: (VI:3:16)
La teor��a de ecuaciones de diferencias �nitas, tiene como resultado central,
que los �i, i = 1; : : : ; k; son raices del polinomio caracter��stico de (VI.3.16)
dado por
�k + a1�
k�1 + � � �+ ak: (VI:3:17)
Se tiene un problema inverso, pues no se conocen los valores de los ak, pero
si los valores de �n, los cuales pueden servir para determinar los valores de
los ak a partir del sistema lineal0B@ Sn � S � � � Sn+k � S
......
Sn+k � S � � � Sn+2k � S
1CA0@ ak
...
a1
1A = 0: (VI:3:18)
VI.3 Implementaci�on Num�erica 277
Este sistema tiene soluciones no triviales para el sistema lineal homogeneo,
por lo tanto el determinante de la matriz es nulo. Efectuando sustracciones
sobre las �las de la matriz, se obtiene
det
0BB@Sn � S Sn+1 � S � � � Sn+k � S
�Sn �Sn+1 � � � �Sn+k...
...
�Sn+k�1 � � � � � � �Sn�k�1
1CCA = 0;
luego, se tiene��������Sn Sn+1 � � � Sn+k
�Sn �Sn+1 � � � �Sn+k...
...
�Sn+k�1 � � � � � � �Sn�k�1
�������� =
= S
��������1 1 � � � 1
�Sn �Sn+1 � � � �Sn+k...
...
�Sn+k�1 � � � � � � �Sn�k�1
�������� ;efectuando sustracciones sobre la columna de la matriz del lado derecho de
la ecuaci�on, se obtiene �nalmente
S =
��������Sn Sn+1 � � � Sn+k
�Sn �Sn+1 � � � �Sn+k...
...
�Sn+k�1 � � � � � � �Sn�k�1
����������������2
Sn � � � �2Sn+k�1
......
�2Sn+k�1 � � � �2
Sn+k�2
�������(VI:3:19)
Por ultimo la relaci�on (VI.3.19), puede mejorarse si al determinante del
numerador se agrega la primera linea a la segunda linea, la segunda linea a
la tercera y as�� sucesivamente, convirtiendose en
S(k) =
��������Sn Sn+1 � � � Sn+k
Sn+1 Sn+1 � � � Sn+k+1
......
Sn+k � � � � � � Sn�k
����������������2
Sn � � � �2Sn+k�1
......
�2Sn+k�1 � � � �2
Sn+k�2
������� :(VI:3:20)
278 VI Integraci�on Num�erica
Este resultado constituye una joya desde el punto de vista te�orico, pero es una
cat�astrofe, si se quiere implementar num�ericamente, las razones son obvias.
Por lo tanto es necesario construir un algoritmo que permita determinar
S(k), sin necesidad de calcular expl��citamente los determinantes encontrados
en la �ultima expresi�on. El m�etodo que ser�a explicado constituye el algoritmo
epsilon o m�as simplemente �-algoritmo.
Algoritmo Epsilon
El siguiente teorema formulado por Wynn en 1956, permite calcular S(k).
Teorema VI.3.1.- Dados S0; S1; S2; : : : ; se de�ne la sucesi�on �
(n)
k k =
�1; 0; : : : ; n = 0; 1; : : : ; de manera recursiva, como
�
(n)�1 = 0;
�
(n)0 = Sn;
�
(n)
k+1 = �
(n+1)
k�1 +1
�
(n+1)
k � �
(n)
k
;
(VI:3:21)
entonces
�
(n)2 = S
0
n; �
(n)4 = S
00
n; �
(n)6 = S
(3)n ; : : : (VI:3:22)
Demostraci�on.- Una demostraci�on completa y una explicaci�on detallada
puede encontrarse en Brezinski. �
La sucesi�on de�nida por el teorema precedente permite formular el �-
algoritmo en forma de una tablero, ver la �gura VI.3.1.
�
(0)
�1
�(0)
0
�
(1)
�1
&������!%
�(0)
1
�(1)
0
&������!%
�(0)
2
�
(2)
�1
&������!%
�(1)
1
&������!%
�(0)
3
�(2)
0
&������!%
�(1)
2
&������!%
�(0)
4
�
(3)
�1
&������!%
�(2)
1
&������!%
�(1)
3
&������!%
�(0)
5
�(3)
0
&������!%
�(2)
2
&������!%
�(1)
4
&������!%
�(0)
6
Figura VI.3.1. Esquema �-algoritmo.
VI.3 Implementaci�on Num�erica 279
En la �gura VI.3.4, podr�a apreciarse la verdadera potencia del �-
algoritmo. La sucesi�on de�nida por
Sn = 4
nXk=0
(�1)k2k + 1
; (VI:3:23)
converge hacia �, sin embargo la convergencia de esta sucesi�on es muy
lenta. Para obtener una precisi�on de 10�35, son necesarias por lo menos 1035
evaluaciones de esta sucesi�on, lo cual es imposible: por el tiempo de c�alculo
y por el error de redondeo. Aplicando el epsilon-algoritmo, se obtiene la
precisi�on requerida, los errores de �(n)
k son dados en la �gura VI.3.4.
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 1510−20
10−18
10−16
10−14
10−12
10−10
10−8
10−6
10−4
10−2
100
k=0
k=2
k=4
k=6
k=8
k=10
k=24 k=22
k=0
k=2
k=4
k=6
k=8
k=10
k=24 k=22
Figura VI.3.4. Error de �(n)
k en funci�on de n.
Otro medio para acelerar la convergencia en el c�alculo de integrales
impropias, consiste en efectuar un cambio de variable conveniente. A conti-
nuaci�on se presentar�a algunos ejemplos donde el c�alculo de la integral
converge con mas rapidez o mayor lentitud dependiendo del cambio de
variable elegido.
Ejemplos
a) Consid�erese, la integral impropiaZ 1
0
logx
x2 + 100
dx:
280 VI Integraci�on Num�erica
Se observa inmediatamente que f(x) no est�a acotada en las proximidades
del origen. Aplicando la funci�on GAUINT con una tolerancia igual a
TOL = 10�14. Si se desea obtener el valor exacto de esta integral con
un error exacto inferior a 10�13 son necesarias 69 � 15 evaluaciones de
la funci�on f .
Efectuando el cambio de variable x = t2, se obtiene la integralZ 1
0
4t log t
t4 + 100
dt;
integral que ha sido ya evaluada, ver la tabla VI.3.2. La funci�on a integrar
es acotada, y son necesarias 27�15 evaluaciones de la funci�on integrada.Si nuevamente se realiza otro cambio de variable, como por ejemplo,
t = s2, se obtiene la integralZ 1
0
16s3 log s
s8 + 100
ds;
denotando por h(s) a la funci�on integrada, se puede mostrar que h(s)
es dos veces continuamente diferenciable. Resolviendo por la funci�on
GAUINT son necesarias 7� 15 evaluaciones de h.
b) Las integrales de la forma Z 1
0
f(x)px
dx;
pueden ser calculadas con menos evaluaciones, si se hace el cambio de
variable x = t2, obteniendo as��
2
Z 1
0
f(t2)dt:
c) Las integrales impropias del tipoZ1
1
f(x)dx;
mediante el cambio de variable x = 1=t se convierten enZ 1
0
f(1=t)1
t2dt:
Por lo tanto, para acelerar la convergencia, puede utilizarse de manera
combinada el �-algoritmo, con un cambio de variable adecuado. Vale la pena
VI.3 Implementaci�on Num�erica 281
recalcar que el objetivo principal del cambio de variable es volver la funci�on
integrada m�as lisa, es decir que sea lo su�cientemente derivable para poder
aplicar la subrutina GAUINT en el m�aximo de su e�ciencia. Sin embargo el
cambio de variable puede volver m�as complicada la funci�on a integrar, motivo
por el cual la ganancia obtenida en una disminuci�on de evaluaciones de la
funci�on integrada puede perderse con las mismas evaluaciones de la funci�on.
Uno de los tipos de integral donde mejor se ajusta los m�etodos de
aceleraci�on propuestos, como el cambio de variable conveniente o el algoritmo
epsilon consiste en:
Funciones con Oscilaciones
Escapando un poco a la rutina del libro de presentar las bases te�oricas de
la soluci�on de un problema, para luego tratar algunos ejemplos, se analizar�a
este tipo de evaluaci�on de integral impropia con un ejemplo.
Consid�erese la integral de Fresnel, dada porZ1
0
sin(x2)dx =1
2
r�
2:
La funci�on sin(x2) se anula en x2 = k� con k 2 N, de�niendo as�� una sucesi�onde n�umeros positivos fxkg, dada por
xk =pk�:
Planteando
Ik =
Z xk+1
xk
sin(x2)dx; k = 0; 1; 2; : : : ;
donde Ik pueden ser calculadas por GAUINT se de�ne la sucesi�on fSkg, por
Sk =
kXj=0
Ij ;
teniendo como resultado Z1
0
sin(x2)dx = limk!1
Sk:
Ahora bien la convergencia de Sk es muy lenta, utilizando �-algoritmo
la velocidad de la convergencia hacia la integral, se aumenta de manera
ostensible. Ver la tabla VI.3.4.
282 VI Integraci�on Num�erica
Tabla VI.3.4. C�alculo de la integral de Fresnel
k Sk S0
k S00
k S(3)
S(4)
S(5)
0 :89483147 :63252334 :62682808 :62666213 :62665722 :62665721
1 :43040772 :62447449 :62660885 :62665582 :62665582
2 :78825896 :62773451 :62667509 :62665746 :62665746
3 :48624702 :62603581 :62664903 :62665692
4 :75244267 :62705261 :62666112 :62665713
5 :51172983 :62638728 :62665483
6 :73311637 :62685063 :62665838
7 :52703834 :62651269
8 :72060138 :62676812
9 :53751806
10 :71165881
Ejercicios
1.- Para una sucesi�on fSngn�0, el �-algoritmo est�a de�nido por:
�
(n)�1 = 0;
�
(n)0 = Sn;
�
(n)
k+1 = �
(n+1)
k�1 +1
�
(n+1)
k � �
(n)
k
:
Si la aplicaci�on del �-algoritmo a fSngn�0 y a fSngn�0 = faSn + bgproporciona respectivamente las cantidades �
(n)
k y �(n)
k . Mostrar que
�
(n)
2l = a�
(n)
2l + b; �
(n)
2l+1 =1
a
�
(n)
2l+1: :
2.- Utilizar el �-algoritmo para el c�alculo de las integrales:
a)1
100
Z 1
0
x�0:99
dx; b)
Z 1
0
logxpx
dx:
VI.3 Implementaci�on Num�erica 283
3.- Sup�ongase que la sucesi�on fSng satisface
Sn+1 � S = (�+ �n)(Sn � S)
con j�j < 1, limn!1
�n = 0 y consid�erese el procedimiento �2 de Aitken
S0
n = Sn+1 ��Sn�Sn+1
�2Sn
; n = 0; 1; : : : :
Demostrar que la sucesi�on fS0ng converge m�as r�apidamente hacia S que
la sucesi�on fSng; es decir
limn!1
S0
n � S
Sn � S
= 0:
Indicaci�on.- Veri�car que �Sn = (�� 1 + �n)(Sn � S) y encontrar una
f�ormula similar para �2Sn
VI.4 Transformaci�on de Fourier
En est�a secci�on ser�a abordado el c�alculo num�erico de las transformadas de
Fourier, es decir los coe�cientes de las series de Fourier para una determinada
funci�on. Se iniciar�a un repaso te�orico sobre las series de Fourier, luego se
introducir�a la transformada discreta de Fourier, cuya abreviaci�on usual es
TDF , para �nalmente ver la transformaci�on r�apida de Fourier m�as conocida
como FFT .
Las motivaciones de la utilizaci�on de series de Fourier est�an dadas por
sus diferentes aplicaciones en numerosas �areas de la ciencia, como de la
tecnolog��a; para citar algunas de ellas, se tiene el tratamiento de se~nales, la
resoluci�on de ecuaciones diferenciales, la construcci�on de m�etodos espectrales
en la resoluci�on de ecuaciones a derivadas parciales, etc.
La teor��a de la transformaci�on de Fourier est�a ��ntimamente ligada a
las funciones 2�-peri�odicas e integrables. En este libro se supondr�a que las
funciones son integrables en el sentido de Riemann, y no se considerar�a el
caso m�as general. Recordando la:
De�nici�on VI.4.1.- La serie de Fourier de una funci�on 2�- peri�odica e
integrable, est�a dada de manera formal por
f(x) �Xk2Z
f(k)eikx; (VI:4:1)
donde los coe�cientes de Fourier est�an de�nidos por
f(k) =1
2�
Z 2�
0
f(x)e�ikxdx: (VI:4:2)
Denotando por E , el espacio de las funciones 2�-peri�odicas, tales queZ 2�
0
f(x)f(x)dx <1; 8f 2 E ;
se tiene que E es un espacio vectorial provisto del producto sesquilinial, dadopor
hf; gi =Z 2�
0
f(x)g(x)dx: (VI:4:3)
Una simple veri�caci�on muestra que las funciones de�nidas por
'k(x) = eikx
; (VI:4:4)
VI.4 Transformaci�on de Fourier 285
constituyen una familia ortogonal de funciones, es decir
h'k ; 'ji = 0; si j 6= k:
Para conocer m�as respecto a las propiedades de espacios de Hilbert, familias
ortonormales y series de Fourier existe una ambundante bibliograf��a, por
ejemplo Rudin.
La de�nici�on VII.4.1 es una de�nici�on formal, es decir la serie de Fourier
de una funci�on dada, no necesariamente debe converger hacia la funci�on.
Sin embargo existen condiciones su�cientes sobre la funci�on f , para que
la serie de Fourier converga hacia f o por lo menos en casi todos los
puntos. A continuaci�on se enunciar�a estas condiciones su�cientes y el tipo
de convergencia que uno puede esperar obtener.
Teorema VI.4.2.- Dirichlet. Sea f : R ! C una funci�on de clase C1 por
trozos y peri�odica de periodo 2�. La serie de Fourier de f es convergente en
todo punto de R. En un punto x donde la funci�on es continua, el l��mite de
la serie es f(x). En un punto x donde f no es continua, la suma de la serie
es1
2(f(x�) + f(x+)): (VI:4:5)
Adem�as, la convergencia de la serie de Fourier de f es uniforme en todo
intervalo compacto que no contiene ning�un punto de discontinuidad de f .
Demostraci�on.- Una demostraci�on de este teorema puede encontrarse en
Gramain. �
Con la formulaci�on de este teorema, se conoce la clase de funciones
de las cuales la serie de Fourier es igual a la funci�on, en todo caso en los
puntos donde la funci�on es continua. Es prop�osito de esta secci�on estudiar
los m�etodos num�ericos que permitan calcular los coe�cientes de Fourier, y
por ende la serie de Fourier asociada. Una primera alternativa de c�alculo de
estos coe�cientes consiste en utilizar un m�etodo de integraci�on propuesto en
las secciones precedentes de este cap��tulo. Sin embargo existen alternativas
menos costosas y m�as simples que dan excelentes resultados.
Sea f : [0; 2�] ! C , sup�ongase que la funci�on f(x) es conocida para los
x dados por la subdivisi�on equidistante
xl =2�l
N
; l = 0; 1; : : : ; N: (VI:4:6)
Como f(xN ) = f(x0) por hip�otesis, el c�alculo de (VI.4.2) puede realizarse
mediante la regla del trapecio, obteniendo como aproximaci�on de f(k)
fN(k) =1
N
N�1Xl=0
f(xl)e�ikxl
: (VI:4:7)
286 VI Integraci�on Num�erica
Ahora bien, (VI.4.7) induce las de�niciones siguientes.
Consid�erese, el espacio de las sucesiones N -peri�odicas
PN = f(yk)k2Zjyk 2 C ; yk+N = ykg: (VI:4:8)
De�nici�on VI.4.3.- La transformada discreta de Fourier (DFT) de y 2 PNes la sucesi�on (zk)k2Z, donde
zk =1
N
N�1Xl=0
yle�ikxl =
1
N
N�1Xl=0
yl!�kl
; con ! = e2i�=N
:
Se la denota z = FNy.Proposici�on VI.4.4.- La transformada discreta de Fourier satisface las
siguientes propiedades:
a) Para y 2 PN , se tiene que FNy 2 PN .b) La aplicaci�on Fn : PN ! PN es lineal y biyectiva.
c) La aplicaci�on inversa de FN est�a dada por
F�1N = N � �FN ; (VI:4:9)
donde
( �FNz)k := (FN �z)k =1
N
N�1Xl=0
zl!kl: (VI:4:10)
Demostraci�on.- Utilizando el hecho que !N = e
2�i = 1 y !�lN =
(!N )�l = 1, se obtiene
zk+N =1
N
N�1Xl=0
yl!�(k+N)l =
1
N
N�1Xl=0
yl!�kl = zk;
mostrando as�� la periocidad de zk. La linearidad de FN resulta de una
veri�caci�on inmediata. Para mostrar la biyectividad y al mismo tiempo la
f�ormula (VI.4.10), se calcula
( �FNFNy)j =1
N
N�1Xk=0
(FNy)k!kj
=1
N2
N�1Xk=0
N�1Xl=0
yl!�kl
!kj
=1
N2
N�1Xl=0
yl
1
N
N�1Xk=0
!k(j�l)
!
=1
N
yj :
VI.4 Transformaci�on de Fourier 287
La �ultima igualdad de este c�alculo, es consecuencia de
N�1Xk=0
!km =
N�1Xk=0
(!m)k =
�N si m = 0modN
!mN�1
!m�1= 0 si no.
Hay que remarcar que !m = 1 si m = 0modN . �
Estudio del Error
Sup�ongase que
yl = f(xl); xl =2�l
N
; l = 0; 1; : : : ; N ;
para una funci�on f : R ! C que es 2�-peri�odica. La f�ormula siguiente des-
cribe c�omo la transformada de Fourier discreta dada por (VI.4.7) aproxima
los coe�cientes de Fourier dados por (VI.4.2).
Teorema VI.4.5.- Si la serieXk2Z
f(k) es absolutamente convergente, en-
tonces
fn(k)� f(k) =Xj2Z
j 6=0
f(k + jN): (VI:4:11)
Demostraci�on.- La hip�otesis sobre los coe�cientes de Fourier implica que
se tenga igualdad en la f�ormula (VI.4.1), ver Gramain. Por lo tanto, se tiene
fN(k) =1
N
N�1Xl=0
Xn2Z
f(n)einxl
!!�kl =
Xn2Z
f(n)
1
N
N�1Xl=0
!(n�k)l
!| {z }
=
�1 si n = k((mod)N
0 si no
=Xj2Z
f(k + jN)
�
Corolario VI.4.6.- Sea f : R ! C , p veces continuamente derivable (p � 2)
y 2�-peri�odica. Entonces,
fN (k)� f(k) = O(N�p); para jkj � N
2: (VI:4:12)
288 VI Integraci�on Num�erica
En particular, con h = 2�=N , se tiene
h
2�
N�1Xj=0
f(xj)�1
2�
Z 2�
0
f(x)dx = O(hp); (VI:4:13)
lo que signi�ca que, para funciones lisas y peri�odicas, la f�ormula del trapecio
es muy precisa.
Demostraci�on.- Se mostrar�a primero que los coe�cientes de Fourier satis-
facen ���f(k)��� � C:k�p: (VI:4:14)
En efecto, varias integraciones por partes dan
f(k) =1
2�
Z 2�
0
f(x)e�ikxdx
= f(x)e�ikx
�ik
����2�0| {z }
0
+(i�)�1
2�
Z 2�
0
f0(x)e�ikxdx
...
=(ik)�p
2�
Z 2�
0
f(p)(x)e�ikxdx
teniendo as��, (VI.4.14) con C =1
2�
Z 2�
0
���f (p)(x)��� dx:Para jkj � N=2 y j 6= 0 se tiene que jk + jN j � (jjj � 1=2)N , utilizando
(VI.4.11), se obtiene���fN(k)� f(k)��� �X
j�1
C(j � 1=2)�pN�p = C1 �N�p:
Obs�ervese que la serie en esta f�ormula converge para p > 1. �
Es muy importante remarcar que fn(k) es una sucesi�on N -peri�odica,
propiedad de la transformada discreta de Fourier, y que por otro lado f(k)
converge muy rapidamente hacia 0 por (VI.4.14). Por consiguiente para k
grande, por ejemplo k � N , fN es una mala aproximaci�on de f(k); mientras
que para jkj � N=2 la aproximaci�on es en general muy buena.
Interpolaci�on Trigonom�etrica
Para la divisi�on equidistante (VI.4.6) del intervalo [0; 2�] y para
y0; y1; : : : ; yN�1 dados, se busca un polinomio trigonom�etrico, es decir una
VI.4 Transformaci�on de Fourier 289
combinaci�on lineal �nita de funciones eikx, que pase por (xl; yl), para
l = 0; 1; : : : ; N � 1: La existencia de tal polinomio trigonom�etrico est�a
asegurada por el siguiente:
Teorema VI.4.7.- Sea y 2 PN y z = FNy su transformada discreta de
Fourier. Entonces, el polinomio trigonom�etrico
pN (x) =
N=2Xk=�N=2
0
zkeikx :=
1
2
�z�N=2e
�iNx=2 + zN=2eiNx=2
�+
Xjkj<N=2
zkeikx
;
(VI:4:15)
satisface pn(xl) = yl para l = 0; 1; : : : ; N � 1:
Hay que remarcar que si los yk son reales, fzkg es una sucesi�on herm��tica,es decir z�k = �zk y por lo tanto el polinomio pN (x) es un polinomio a
coe�cientes reales.
Demostraci�on.- Para l �jo, la sucesi�on fzkeikxlg es N -peri�odica, por
consiguiente
pN (xl) =
N�1Xk=0
zkeikxl = N � ( �FNz)l = N( �FNFNy)l = yl:
�
El siguiente teorema a ser enunciado provee una estimaci�on del error
de la interpolaci�on trigonom�etrica con consecuencias importantes, que ser�an
explicadas posteriormente.
Teorema VI.4.8.- Sea f : R ! C una funci�on 2�-peri�odica tal queXk2Z
f(k)
sea absolutamente convergente. Entonces, el polinomio trigonom�etrico dado
por (VI.4.15), para yl = f(xl) satisface para todo x 2 R
jpN (x)� f(x)j � 2pN (x) =X
jkj�N=2
0
���f(k)��� : (VI:4:16)
Demostraci�on.- Restando (VI.4.1) de (VI.4.15) se obtiene
pN (x) � f(x) =
N=2Xk=�N=2
0
�fN(k)� f(k)
�eikx �
Xjkj�N=2
0f(k)eikx:
La aserci�on es pues consecuencia de (VI.4.11) y de la desigualdad del
tri�angulo �
290 VI Integraci�on Num�erica
Este teorema permite una interpretaci�on interesante. Consid�erese una
funci�on 2�-peri�odica de frecuencia maximal M , es decir f(k) = 0 para
jkj > M . Entonces, el polinomio trigonom�etrico da el resultado exacto
pN (x) = f(x) para todo x, si
N > 2M: (VI:4:17)
Este resultado, el Teorema del Muestreo, da una f�ormula para el n�umero de
muestras necesarias para obtener una representaci�on exacta de una funci�on.
La evaluaci�on de FN requiere N2 multiplicaciones y adiciones, si se
la realiza directamente. Sin embargo existe un procedimiento que permite
descender el costo en operaciones a N log2N . Este procedimiento ser�a visto
en la siguiente subsecci�on.
Transformaci�on R�apida de Fourier (FFT)
El algoritmo que ser�a estudiado, se debe a Cooley & Tukey en 1965, se basa
sobre las ideas de Runge 1925. Para poder formular �este, es necesario la
siguiente:
Proposici�on VI.4.9.- Sean u = (u0; u1; : : : ; uN�1) 2 PN ,v = (v0; v1; : : : ; vN�1) 2 PN y def��nase
y = (u0; v0; u1; v1: : : : ; uN�1; vN�1) 2 P2N : (VI:4:18)
Entonces, para k = 0; 1; : : : ; N � 1; se tiene (!2N = e2i�=2N = e
�i=N )
2N(F2Ny)k = N(FNu)k + !�k2NN(FNv)k;
2N(F2Ny)k+N = N(FNu)k � !�k2NN(FNv)k:
(VI:4:18)
Demostraci�on.- Utilizando el hecho que !22N = !N , un c�alculo directo da
para k arbitrario
2N(F2Ny)k =2N�1Xj=0
yje�2�ijk=2n
=
2N�1Xj=0
yj!�jk2N
=
N�1Xl=0
y2l|{z}ul
!�2lk2N| {z }!�lkN
+
N�1Xl=0
y2l+1| {z }vl
!
�(2l+1)k2N| {z }
!�k2N���!�lk
N
= N(FNu)k + !�k2NN(FNv)k:
VI.4 Transformaci�on de Fourier 291
La segunda f�ormula de (VI.4.18) resulta de !�N2N = �1: �
La f�ormula (VI.4.18) permite calcular, con N multiplicaciones y 2N
adiciones, la transformada discreta de Fourier de y 2 P2N a partir de FNuy FNv. El mismo procedimiento puede ser aplicado recursivamente a las
sucesiones u y v, si �estas tienen una longitud par.
Si se supone que N = 2m, se obtiene el algoritmo presentado en el
esquema siguiente (para N = 8 = 23).
FN
0BBBBBBBBB@
y0
y1
y2
y3
y4
y5
y6
y7
1CCCCCCCCCA*FN=2
0B@y0
y2
y4
y6
1CA*FN=4
�y0
y4
�*FN=8y0 = y0
FN=8y4 = y4
FN=4
�y2
y6
�*FN=8y2 = y2
FN=8y6 = y6
FN=2
0B@y1
y3
y5
y7
1CA*FN=4
�y1
y5
�*FN=8y1 = y1
FN=8y5 = y5
FN=4
�y3
y7
�*FN=8y3 = y3
FN=8y7 = y7
(VI:4:19)
Figura VI.4.1. Esquema para C�alculo de FFT.
La programaci�on de este algoritmo se la realiza en dos �etapas. La
primera, se ordena los yi en el orden exigido por (VI.4.19), es decir es
necesario invertir los bits en la representaci�on binaria de los indices:
0=(0; 0; 0) 0=(0,0,0)
1=(0; 0; 1) 4=(1,0,0)
2=(0; 1; 0) 2=(0,1,0)
3=(0; 1; 1) ! 6=(1,1,0
4=(1; 0; 0) 1=(0,0,1)
5=(1; 0; 1) 5=(1,0,1)
6=(1; 1; 0) 3=(0,1,1)
7=(1; 1; 1) 7=(1,1,1)
Despu�es, se efectua las operaciones de (VI.4.18) de la manera como indica
el esquema (VI.4.19).
292 VI Integraci�on Num�erica
Para pasar de una columna a otra en el esquema (VI.4.19) son necesarias
N=2 multiplicaciones complejas y de otrasN adiciones o sustracciones. Como
m = log2N pasajes son necesarios, entonces se tiene el:
Teorema VI.4.10.- Para N = 2m, el c�alculo de FNy puede ser realizado
con:N
2log2N multiplicaciones complejas y
N log2N adiciones complejas.
Para ilustrar mejor la importancia de este algoritmo, ver la tabla VI.4.1
para comparar el c�alculo de FNy con o sin FFT.
Tabla VI.4.1. Comparaci�on de FFT con DFT.
N N2
N log2N cociente
25 = 32 � 103 160 � 6:4
210 � 103 � 106 � 104 100
220 � 106 � 1012 � 2 � 107 5� � 104
Aplicaciones de la FFT
La transformada r�apida de Fourier, tiene una gran cantidad de aplicaciones,
desde el c�alculo de espectrogramas, resoluci�on de ecuaciones diferenciales
ordinarias o a derivadas parciales, hasta la soluci�on de sistemas lineales.
De�niendo el producto de convoluci�on de dos sucesiones N -peri�odicas
y 2 PN y z 2 Pn, por
(y � z)k =N�1Xl=0
yk�lzl: (VI:4:20)
Se tiene la siguiente propiedad, ver ejercicio 1,
FN (y � z) = N � FNy � FNz; (VI:4:21)
de donde (VI.4.20) puede ser calculado mediante O(N log2N) operaciones.
La resoluci�on de un sistema lineal con una matriz de Toeplitz circular
puede ser resuelto utilizando FFT. En efecto, un tal sistema es de la forma0BBBB@a0 aN�1 aN�2 � � � a1
a1 a0 aN�1 � � � a2
a2 a1 a0 � � � a3
......
... � � �...
aN�1 aN�2 aN�3 � � � a0
1CCCCA0BBBB@
x0
x1
x2
...
xN�1
1CCCCA =
0BBBB@b0
b1
b2
...
bN�1
1CCCCA : (VI:4:22)
VI.4 Transformaci�on de Fourier 293
Evidentemente, el sistema lineal (VI.4.22) es equivalente a a � x = b, si se
considera (ai), (xi) y (bi) como sucesiones de PN .La multiplicaci�on de una matriz de Toeplitz arbitraria con un vector0BBBB@a0 a�1 a�2 � � � a�N+1
a1 a0 a�1 � � � a�N+2
a2 a1 a0 � � � aN+3
......
... � � �...
aN�1 aN�2 aN�3 � � � a0
1CCCCA0BBBB@
x0
x1
x2
...
xN�1
1CCCCA =
0BBBB@b0
b1
b2
...
bN�1
1CCCCA ; (VI:4:23)
puede ser resuelta utilizando FFT, considerando las sucesiones en P2N
a = (a0; a1; : : : ; aN�1; 0; a�N+1; a�N+2; : : : ; a�1);
x = (x0; x1; : : : ; xN�1; 0; 0; : : : ; 0):
Se puede veri�car facilmente que el resultado del producto (VI.4.23) es la
primera mitad del producto de convoluci�on a�x. Por consiguiente, el c�alculocon FFT da un algoritmo r�apido para efectuar el producto (VI.4.23).
Ejercicios
1.- Mostrar que
Fn(y � z) = N � FNy � FNz;
para el producto de convoluci�on
(y � z)k =N�1Xl=0
yk�lzl;
de dos suceciones N -peri�odicas. Deducir que
y � z = N � F�1N (FNy � FNz):
2.- Resolver la ecuaci�on diferencial con valores en la frontera
u00(x) = �1 u(0) = u(2�) = 0;
gra�car la soluci�on.
Cap��tulo VII
Ecuaciones Diferenciales
El estudio de una gran cantidad de fen�omenos de las m�as diversas ca-
racter��sticas se traducen en ecuaciones diferenciales. La descripci�on de un
fen�omeno mediante ecuaciones diferenciales tiene un proposito primordial
que es la predecibilidad. Por otro lado, permite obtener conclusiones de
car�acter local, que ser�an extrapoladas para tener informaciones globales
del modelo estudiado. El �enfasis que se hace a la resoluci�on anal��tica de
las ecuaciones diferenciales en los cursos de Ecuaciones Diferenciales que
se dictan en los primeros niveles de las universidades, tienen el objetivo de
encontrar soluciones generales a los diversos problemas diferenciales que se
encuentran en el transcurso de los estudios universitarios, como tambi�en en
el ejercicio profecional. Este hecho se debe fundamentalmente que hasta hace
no mucho, no se contaban con los medios tecn�ologicos que permitan resolver
ecuaciones diferenciales con la precisi�on que se requer��a. Por consiguiente, el
objetivo de estos cursos eran esencialemte obtener las soluciones en forma de
f�ormulas, perdiendose as�� el car�acter esencial de las ecuaciones diferenciales
que es el estudio local de los fen�omenos. Adem�as cuestiones como existencia
y unicidad no son abordadas por falta de tiempo.
Este cap��tulo tiene como objetivo principal la formulaci�on de m�etodos
num�ericos de resoluci�on de problemas diferenciales a valores iniciales o
problemas de Cauchy. La primera parte tratar�a sobre cuestiones de existencia
y unicidad de las ecuaciones diferenciales. Luego se abordar�a los m�etodos a
un paso y como expresi�on de estos; los m�etodos de Runge-Kutta, desde la
construcci�on de estos, estimaciones de error y como corolario los metodos
encajonados del tipo Dormand & Prince. La tercera parte de este cap��tulo
tratar�a los m�etodos num�ericos a paso m�ultiple, se ver�a la construcci�on de
estos, cuestiones de estabilidad y convergencia.
VII.1 Generalidades
En este cap��tulo I , I0 designan intervalos abiertos de R no reducidos a un
punto y t0 un punto �jo de I0; se da una funci�on f de�nida y continua sobre
I0 � Rm con valores en Rm , un elemento y0 2 Rm , y se desea encontrar una
funci�on y continua y derivable sobre el intervalo I0, con valores en Rm , tal
que:
y0(t) = f(t; y(t)); 8t 2 I0; (VII:1:1)
y(t0) = y0: (VII:1:2)
Este problema se lo conoce con el nombre de problema de Cauchy para el
sistema diferencial (VII.1.1); la condici�on (VII.1.2) se llama una condici�on
de Cauchy. Una funci�on y que satisface el sistema (VII.1.1) es llamada una
integral del sistema (VII.1.1). En numerosos ejemplos f��sicos, la variable t
representa el tiempo, el instante t0, es por consiguiente, llamado instante
inicial y la condici�on (VII.1.2) llamada condici�on inicial.
Se puede remarcar que si se denota por y1; y2; : : : ; ym las componentes
de y, por f1(t; y1; : : : ; ym); : : : ; fm(t; y1; : : : ; ym) las componentes de f(t; y)
la ecuaci�on (VII.1.1) es equivalente al sistema8>>>><>>>>:y0
1(t) = f1(t; y1(t); : : : ; ym(t))
y0
2(t) = f2(t; y1(t); : : : ; ym(t))
...
y0
m(t) = fm(t; y1(t); : : : ; ym(t))
: (VII:1:3)
Las ecuaciones del sistema VII.1.3 son de primer orden, pues en �estas, el
orden de derivaci�on m�as alto que aparece es el primero. Consid�erese ahora
un problema diferencial de orden p, de la forma
y(p)(t) = f(t; y(t); y0(t); : : : ; y(p�1)); (VII:1:4)
el cual puede convertirse en problema de la forma (VII.1.1), planteando
z1(t) = y(t); z2(t) = y0(t); : : : ; zp(t) = y
(p�1)(t);
el problema diferencial (VII.1.4), por consiguiente es equivalente al sistema8>>>>><>>>>>:
z0
1(t) = z2(t)
...
z0
p�1(t) = zp(t)
z0
p(t) = f(t; z1(t); : : : ; zp(t))
:
VII.1 Generalidades 297
de donde planteando
z = (z1; z2; : : : ; zp)t y F (t; z) = (z2; : : : ; zp; f(t; z1; : : : ; zp))
t;
se tiene
z0(t) = F (t; z(t)): (VII:1:5)
La condici�on de Cauchy para el problema (VII.1.5) est�a dada por
y(t0); y0(t0); : : : ; y
(p�1)(t0).
Ahora bien, en este cap��tulo no ser�a tratado el problema diferencial
general de orden p, dado por
F (t; y(t); y0(t); : : : ; y(n)(t)) = 0; 8t 2 I0: (VII:1:6)
Cuando se puede aplicar el teorema de las funciones implicitas, (VII.1.6) es
localmente equivalente a la ecuaci�on de la forma (VII.1.4) y la teor��a que
ser�a desarrollada en este cap��tulo podr�a ser aplicada a este tipo de problema
sin inconvenientes. Si el teorema de las funciones implicitas no es aplicable,
serias di�cultades matem�aticas y num�ericas pueden aparecer, en este caso se
habla de ecuaciones diferenciales algebraicas, para saber m�as sobre este tipo
de ecuaciones referirse a Hairer & Wanner.
Finalmente es necesario remarcar que, si bien I0 es un intervalo abierto,
el estudio de las soluciones de los problemas diferenciales permite considerar
los intervalos de la forma [t0; t0 + T ) y (t0 � T; t0], obteniendo el intervalo
abierto por recolamiento de ambos subintervalos semiabiertos.
Teoremas de Existencia y Unicidad
En esta subsecci�on se supondr�a que la terminolog��a b�asica es conocida por
el lector. No obstante, se enunciar�a dos teoremas muy importantes en lo que
concierne el an�alisis num�erico de ecuaciones diferenciales. El primer teorema
a enunciarse da condici�ones su�cientes para asegurar la existencia y unicidad
de las soluciones de los problemas a valores iniciales. El segundo teorema
est�a relacionado con la condici�on misma del problema, pues cuando se trata
num�ericamente un problema es de suponer que se trabaja con una soluci�on
aproximada del problema.
Teorema VII.1.1.- Cauchy-Lipschitz. Sup�ongase que f es continua sobre
I0 � Rm y que satisface una condici�on de Lipschitz, es decir que existe un
real L tal que
kf(t; z)� f(t; y)k � L kz � yk 8(t; y) y (t; z) 2 I0 � Rm ; (VII:1:7)
entonces el problema (VII.1.1,2) admite una soluci�on y una sola.
Demostraci�on.- Se dar�a una demostraci�on directa que tiene la ventaja de
ser valida cuando se remplaza Rn por un espacio de Banach.
298 VII Ecuaciones Diferenciales
Paa �jar las ideas, sup�ongase que I0 = [t0; t + t0] y consid�erese la
aplicaci�on � que a y 2 C0([t0; t + t0]) asocia �(y) 2 C0([t0; t + t0]) de�nida
por
�(y)(t) = y0 +
Z t
t0
f(s; y(s))ds:
Introduciendo la norma
kykL = maxs2I0
(e�2L(s�t0) ky(s)k)
que dota C0(I0) de una estructura de espacio de Banach. Se tiene
k(�(y)��(y�))(t)k �Z t
t0
kf(s; y(s))� f(s; y�(s))k ds
�Z t
t0
Le2L(s�t0)
ds ky � y�kL
� 1
2e2L(t�t0) ky � y
�kL ;
deduciendose
k�(y)��(y�)kL �1
2ky � y
�kL :
El teorema del punto �jo implica que � tiene un solo punto �jo en C0(I0),de donde se tiene el resultado. �
Teorema VII.1.2.- Sea f : V ! Rn continua, donde V � Rn+1 abierto.
Sup�ongase que: y(x) es una soluci�on de y0 = f(x; y) sobre [x0; �x], tal que
y(x0) = y0; v(x) una soluci�on aproximada de la ecuaci�on diferencial sobre
[x0; �x0] tal que
kv0(x) � f(x; v(x))k l � � (VII:1:8)
y f satisface una condici�on de Lipschitz sobre un conjunto que contenga
f(x; y(x)); (x; z(x))g, es decir
kf(x; y)� f(x; z)k � L ky � zk : (VII:1:9)
Entonces
ky(x)� v(x)k � ky0 � v(x0)k eL(x�x0) +�
L
�eL(x�x0) � 1
�: (VII:1:10)
Demostraci�on.- Se tiene:
y(x)� v(x) = y(x0)� v(x0) +
Z x
x0
(y0(s)� v0(s))ds
= y(x0)� v(x0) +
Z x
x0
(f(s; y(s))� f(s; v(s)) + f(s; v(s))� v0(s)) ds;
VII.1 Generalidades 299
pasando a las normas y aplicando las hip�otesis (VII.1.8) y (VII.1.9), se
obtiene
ky(x)� v(x)k � ky0 � v(x0)k+Z x
x0
(L ky(s)� v(s)k+ �) ds:
Planteando
u(x) = ky0 � v(x0)k+Z x
x0
(L ky(s)� v(s)k+ �) ds;
se deduce
u0(x) = L ky(x)� v(x)k+ � � Lu(x) + �;
de esta manera se obtiene la desigualdad diferencial
u0(x) � Lu(x) + �
u(x0) = ky0 � v(x0)k :(VII:1:11)
Para resolver este desigualdad, se considera la familia de ecuaciones:
w0
n(x) = Lwn(x) + �; wn(x0) = u(x0) +1
n
; (VII:1:12)
cuyas soluciones est�an dadas por:
wn(x) = wn(x0)eL(x�x0) +
�
L
�eL(x�x0) � 1)
�:
El siguiente paso en la demostraci�on es mostrar que
u(x) � wn(x): (VII:1:13)
Sup�ongase lo contrario, es decir que existe un n y s > x0, tales que
u(s) > wn(s). Consid�erese el conjunto
A = fx > x0ju(x) > wn(x)g
y sea x1 = inf A. Por continuidad se tiene u(x1) = wn(x1). De donde:
wn(x1)� wn(x0) =
Z x1
x0
w0
n(s)ds =
Z x1
x0
(Lwn(s) + �)ds
�Z x1
x0
(Lu(s) + �)ds �Z x1
x0
u0(s)ds
= u(x1)� u(x0);
300 VII Ecuaciones Diferenciales
por lo tanto
w(x0) � u(x0);
llegando a una contradicci�on con �1=n � 0.
�
Problemas con Valores en la Frontera
La teor��a de existencia y unicidad de ecuaciones diferenciales son general-
mente formuladas para problemas de Cauchy o problemas a valores iniciales,
sin embargo existe una gran variedad de problemas diferenciales de otras ca-
racter��sticas que ser�an tratados en esta subsecci�on.
Toda ecuaci�on diferencial puede expresarse como un sistema de ecua-
ciones diferenciales de primer orden de la manera siguiente
y0 = f(x; y); (VII:1:14)
donde f : R � Rn ! Rn .Un problema diferencial con valores en la frontera es darse una ecuaci�on
diferencial del tipo (VII.1.14) con n condiciones para y(a) y y(b), donde
a; b 2 R. Existe una gama de problemas diferenciales con valores en la
frontera. A continuaci�on se mostrar�a los ejemplos m�as representativos.
Ejemplos
a) Problemas a valores iniciales. Son de la forma
y0 = f(x; y);
y(x0) = y0:
Este tipo de problema tiene soluci�on �unica si f es continua y veri�ca las
condiciones de Lipschitz.
b) Consid�erese el problema
y00 = y;
y(a) = A;
y(b) = B:
La ecuacion diferencial de segundo orden puede reducirse al siguiente
sistema de primer ordeny0
1 = y2;
y0
2 = y1;
con condiciones de borde dadas por y1(a) = A y y1(b) = B. Este
problema siempre tiene soluci�on �unica cuando a 6= b.
VII.1 Generalidades 301
c) Encontrar una soluci�on T peri�odica de una ecuaci�on diferencial, por
ejemplo
y0 = y + cosx:
Es muy facil deducir que T = 2�k, con k entero. El problema es encontrar
una soluci�on de la ecuaci�on diferencial que satisfaga
y(x) = y(x+ T ):
d) Determinar el par�ametro � 2 Rp de la ecuaci�on
y0 = f(x; y; �);
donde la soluci�on buscada veri�ca y(a) = ya y g(y(a)) con g : Rn ! Rp .
Ahora bien, este problema puede expresarse como el problema diferencial
equivalentey0 = f(x; y; �);
�0 = 0;
con condiciones de frontera
y(a) = ya;
g(y(b)) = 0:
e) Problemas a frontera libre, son de la forma
y00 = f(x; y; y0);
y(0) = A;
y(l) = B;
y0(l) = 0;
con l desconocido. Este problema mediante una transformaci�on af��n de
x, puede expresarse de la siguiente forma
z00 = l
2f
�lt; z;
z0
l
�;
l0 = 0;
con condiciones de borde dadas por
z(0) = A; z(1) = B; z0(1) = 0:
En base a los ejemplos expuestos m�as arriba, el problema diferencial con
valores en la frontera puede expresarse como
y0 = f(x; y);
r(y(a); y(b));(VII:1:15)
302 VII Ecuaciones Diferenciales
donde f : R � Rn ! R y r : Rn � Rn ! Rn .Por consiguiente la funci�on r en los diferentes ejemplos, ser�a igual a:
r(y(a); y(b)) = y(a)� ya ejemplo a);
r
��y1(a)
y2(a)
�;
�y1(b)
y2(b)
��=
�y1(a)�A
y1(b)�B
�ejemplo b);
r(y(x0); y(x0 + T )) = y(x0)� y(x0 + T ) ejemplo c);
Introduciendo la notaci�on siguiente
y(x; a; ya) (VII:1:16)
para expresar la soluci�on y(x) que satisface y(a) = ya, el problema diferencial
con condiciones en la frontera consiste en encontrar ya, tal que
r(ya; y(b; a; ya)) = 0: (VII1:17)
De�niendo la funci�on F : Rn ! Rn por
F (ya) = r(ya; y(b; a; ya)); (VII:1:18)
resumiendose el problema diferencial con valores en la frontera a encontrar
ya tal que
y0 = f(x; y);
F (ya) = 0:(VII:1:19)
Sup�ongase que y�(x) sea una soluci�on de (VII.1.19), es decir y�a = y�(a),
adem�as que F0(y�a) sea inversible, por el teorema de la inversi�on local la
soluci�on y�a es localmente �unica y por consiguiente y�(x) lo es tambi�en.
La ecuaci�on F (ya) se resuelve generalmente por un m�etodo iterativo,
si F no es lineal, se utiliza por ejemplo el m�etodo de Newton. Para poder
aplicar el m�etodo de Newton es necesario conocer F 0(ya). Ahora bien, se
tiene
F0(ya) =
@r
@ya
(ya; y(b; a; ya)) +@r
@yb
(ya; y(b; a; ya))@y
@ya
(b; a; ya): (VII:1:20)
Diferenciabilidad respecto a los Valores Iniciales
En la expresi�on (VII.1.20) puede observarse que existe una expresi�on que es
derivada respecto al valor inicial ya. Retomando la notaci�on de la secci�on
precedente se tiene y(x; x0; y0) es la soluci�on que pasa por (x0; y0) de la
VII.1 Generalidades 303
ecuaci�on diferencial y0 = f(x; y), donde f : R � Rn ! Rn . El problemaconsiste en determinar
@y
@y0
(x; x0; y0): (VII:1:21)
En el caso lineal, se tiene que la ecuaci�on diferencial es de la forma
y0 = A(x)y (VII:1:22)
donde A(x) es una matriz de coe�cientes (aij(x) continuos. La soluci�on
general de (VII.1.22) est�a dada por
y(x; x0; y0) =
nXi=1
y(x; x0; ei)y0i = R(x; x0)y0 (VII:1:23)
donde los ei son los vectores de la base can�onica de Rn . La matriz R(x; x0)
se llama el nucleo resolvente o la resolvente de la ecuacion (VII.1.22). Es
facil de veri�car que@y
@y0
(x; x0; y0) = R(x; x0) (VII:1:24)
Para el caso no lineal la situaci�on es un poco m�as complicada. Se tiene
@y
@x
(x; x0; y0) = f(x; y(x; x0; y0)) (VII:1:25)
suponiendo que @y=@y0 existe y el orden de derivaci�on conmuta, se obtiene
@
@x
�@y
@y0
(x; x0; y0)
�=
@f
@y
(x; y(x; x0; y0))@y
@y0
(x; x0; y0)
con@y
@y0
(x0; x0; y0) = I;
de donde@y
@y0
(x; x0; y0) es la resolvente de la ecuaci�on diferencial lineal
0 =@f
@y
(x; y(x; x0; y0)): (VII:1:26)
Shooting Simple
Retomando el problema con valores en la frontera formulado bajo la forma
de las ecuaciones (VII.1.18) y (VII.1.19) puede ser resuelto utilizando el
m�etodo conocido como shooting simple, que en s��ntesis es utilizar un m�etodo
304 VII Ecuaciones Diferenciales
n�umerico para resolver (VII.1.19). Este m�etodo puede ser Newton u otro
m�etodo num�erico adaptado al problema. Sin pretender dar una teor��a que
justi�que tal m�etodo, para tal efecto referirse a Stoer, se mostrar�a este
m�etodo implementado en ejemplos.
Ejemplos
a) Consid�erese el problema con valores en la frontera dado por:
y00 = �ey;
y(0) = 1;
y(1) =1
2:
(VII:1:27)
Utilizando la notaci�on de la subsecci�on precedente, se plantea
y(x; �);
la soluci�on del problema diferencial a valores iniciales
y00 = �ey;
y(0) = 1;
y0(0) = �:
(VII:1:27b)
El problema (VII.1.27) se traduce en encontrar �, tal que
y(1; �) =1
2:
En la �gura VII.1.1, puede observarse en la gr�a�ca los valores de y(1) en
funci�on de �.
0 2 4 6 8 10
−1
0
1
2
α
y(1)
Figura VII.1.1. Valores de y(1) en funci�on de �.
VII.1 Generalidades 305
Observando la gr�a�ca, se puede deducir que el problema (VII.1.27) tiene
dos soluciones. El siguiente paso es aplicar el m�etodo del shooting simple,
obteniendo de esta manera dos soluciones. La primera con
� = 0:9708369956661049;
la segunda soluci�on con
� = 7:93719815816973:
Puede apreciarse las gra�cas de las dos soluciones, en la �gura (VII.1.2)
0 10
1
2
3
4
5
0
1
2
3
4
5
Figura VII.1.2. Soluciones del Problema (VII.1.26).
b) En este ejemplo se analizar�a un problema de soluciones peri�odicas.
Consid�erese la ecuaci�on diferencial de Van der Pol, dada por
y00 = (1� y
2)y0 � y: (VII:1:28)
El problema consiste en determinar si existe una soluci�on peri�odica y
sobre todo c�omo es �esta. Ahora bien, (VII.1.28) puede escribirse como
el sistema de ecuaciones diferenciales
y0
1 = y2;
y0
2 = (1� y21)y2 � y1:
(VII:1:29)
Planteando y(x) = (y1(x); y2(x)), el problema se resume en encontrar
T > 0, tal que y(T ) = y(0), que puede formularse de la siguiente manera
F (T; y0) = y(T; 0; y0)� y0 = 0: (VII:1:30)
Sup�ongase que T; y0 sean una aproximaci�on de la soluci�on del problema
(VII.1.30), de donde
F (T +�T; y0 +�y0) = 0;
306 VII Ecuaciones Diferenciales
con �T , �y0 escogidos convenientemente. Desarrollando en serie de
Taylor, se deduce:
F (T; y0) +@F
@T
(T; y0)�T +@F
@y0
(T; y0)�y0 = 0;
y(T; 0; y0)� y0 + f(y(T; 0; y0))�T +
�@y
@y0
(T; 0; y0)� I
��y0 = 0:
Por consiguiente, se tiene n ecuaciones lineales, con n + 1 incognitas,
agregando la condici�on suplementaria
�y0 ? f(y(T; 0; y0)); (VII:1:31)
se obtiene� @y
@y0(T; 0; y0)� I f(y(T; 0; y0))
ft(y(T; 0; y0)) 0
���y0�T
�= �
�y(T; 0; y0)� y0
0
�:
(VII:1:32)
Partiendo de los valores iniciales
y1(0) = 1:;
y2(0) = 2:;
T = 7:;
luego de 14 iteraciones se obtiene con una precisi�on del orden de 10�13,
los valores iniciales y el periodo
y1(0) = 2:00861986087296;
y2(0) = 0:;
T = 6:66328685933633:
La soluci�on peri�odica de la ecuaci�on Van der Pol puede apreciarse en la
�gura VII.1.3
−3 −2 −1 0 1 2 3
−3
−2
−1
0
1
2
3
Figura VII.1.3. Soluciones Periodica de Van der Pol.
VII.1 Generalidades 307
Shooting M�ultiple
La soluci�on del problema con valores en la frontera
y0 = f(x; y); r(y(a); y(b)) = 0;
requiere que para todo punto x de la regi�on donde est�a de�nida la soluci�on y
se tenga una aproximaci�on num�erica de y(x). En el m�etodo shooting descrito
en la anterior subsecci�on, solamente el valor inicial y(a) = ya es determinado.
En muchos problemas es su�ciente conocer este valor, sin embargo en una
gran variedad de problemas con valores en la frontera conocer este valor no
es nada �able. Para ilustrar esto, consid�erese la ecuaci�on diferencial.
y00 � y
0 + 110y = 0; (VII:1:33)
cuya soluci�on general est�a dada por
y(x) = C1e�10x + C2e
11x; (VII:1:34)
donde C1 y C2 son constantes reales arbitrarias. El problema a valor inicial
y(0) = y0 y y0(0) = y
0
0 tiene como soluci�on
y(x) =11y0 � y
0
0
21e�10x +
y0
0 + 10y0
21e11x
: (VII:1:35)
Ahora bien, consid�erese el problema con valores en la frontera dado por
y(0) = 1; y(10) = 1;
la soluci�on de este problema consiste en determinar y0
0 de la f�ormula
(VII.1.35). Por consiguiente, resolviendo la ecuaci�on lineal
11� y0
0
21e�100 +
10 + y0
0
21e110 = 1;
se obtiene
y0
0 =21� 10e110 � 11e�100
e110 � e
100:
Debido a la aritm�etica de punto otante que las computadoras poseen, en
lugar de y00, se manipula la cantidad
�y00 = �10(1 + �); con j�j � eps: (VII:1:36)
Suponiendo que los c�alculos se hacen en doble precisi�on, se puede tomar por
ejemplo � = 10�16. Remplazando y00 en (VII.1.35), se obtiene
y(100) � 10�15
21e110 � 2:8� 1031:
308 VII Ecuaciones Diferenciales
Otra de las di�cultades mayores en la implementaci�on del m�etodo
shooting en su versi�on simple, es la necesidad de contar con una buena
aproximaci�on de ya, lo que en general no sucede. Por otra lado, los valores
que pueden tomar los ya, en muchas situaciones, est�an con�nados a regiones
demasiado peque~nas; por ejemplo considerese el problema
y00 = y
3;
y(0) = 1;
y(100) = 2;
(VII:1:37)
los valores que puede tomar y0(0), para que y(x) est�e de�nida en el intervalo
[0; 100], est�an restringidos a un intervalo de longitudo no mayor a 10�6. Por
este motivo puede deducirse la di�cultad de implementar el m�etodo shooting
simple.
El remedio a estas di�cultades enumeradas m�as arriba est�a en la im-
plementaci�on del m�etodo shooting m�ultiple, que consiste en subdividir el
intervalo [a; b] en subintervalos de extremidades xi, es decir tomar una sub-
divisi�on a = x0 < x1 � � � < xn = b. Luego, se denota por yi = y(xi). De esta
manera se obtiene el sistema de ecuaciones8>>>>>>><>>>>>>>:
y(x1; x0; y0)� y1 = 0
y(x2; x1; y1)� y2 = 0
...
y(xn; xn�1; yn�1) = 0
r(y0; yn) = 0:
(VII:1:38)
La soluci�on de (VII.1.38) se la encuentra utilizando un m�etodo iterativo,
que puede ser Newton si el problema no es lineal. Como ilustraci�on de este
M�etodo se tiene los siguientes dos ejemplos.
Ejemplos
a) Consid�erese el problema (VII.1.37). Para su resoluci�on se ha subdivi-
dido equidistantemente en 100 subintervalos. La soluci�on del sistema
(VII.1.38) se la hecho utilizando el m�etodo de Newton. Las iteraciones
y las gr�a�cas pueden apreciarse en la �gura VII.1.4.
VII.1 Generalidades 309
0 20 40 60 80 1000
1
2
3iter=0
0 20 40 60 80 1000
1
2
3iter=1
0 20 40 60 80 1000
1
2
3iter=2
0 20 40 60 80 1000
1
2
3iter=3
0 20 40 60 80 1000
1
2
3iter=4
0 20 40 60 80 1000
1
2
3iter=11
Figura VII.1.4. Implementaci�on M�ultiple Shooting.
b) Este ejemplo est�a relacionado con un problema ingen��eril. Un granjero
desea un silo cuya base sea un c��rculo de radio 5m, de altura 10m y
el techo sea un c��rculo de radio 2:5m, la capacidad del silo debe ser
exactamente de 550m3. Suponiendo que el costo es proporcional al �area
del silo. >C�ual es la forma de �este?
310 VII Ecuaciones Diferenciales
Matem�aticamente el problema puede ser formulado como:
area lateral �! min;
v�olumen = 550:
Por la simetr��a del problema, se puede deducir que el silo es una super�cie
de revoluci�on, por lo tanto el problema puede expresarse de la manera
siguiente: Encontrar una funci�on y(x), tal que
Z 10
0
y
p1 + y
02dx �! min;
�
Z 10
0
y2dx = 550;
y(0) = 5;
y(10) = 2:5:
Planteando
L(�; y; y0) = y
p1 + y
02 � �
�y2 � 55
�
�;
el problema es equivalente, por los Multiplicadores de Lagrange a
Z 10
0
L(�; y; y0)dx! min :
Este problema es de tipo variacional. Aplicando las ecuaciones de Euler-
Lagrange se convierte en el problema diferencial siguiente
d
dx
�@
@y0
�y
p1 + y
02 � �(y2 � 55
�
���
@
@y
�y
p1 + y
02 � �(y2 � 55
�
)
�= 0:
La soluci�on de este problema ha sido efectuada utilizando el m�eto de
shooting m�ultiple. Como soluci�on inicial se ha utilizado una par�abola
que satisfaga las condiciones de contorno y la condici�on de v�olumen. El
intervalo [0; 10] ha sido subdivido en 10 subintervalos de igual longitud.
Despues de 5 iteraciones se llega a una precisi�on de 10�10. Las iteraciones
VII.1 Generalidades 311
del m�etodo pueden apreciarse en la �gura VII.1.5.
0 10012345678
iter=0
0 10012345678
iter=1
0 10012345678
iter=2
0 10012345678
iter=3
0 10012345678
iter=4
0 10012345678
iter=5
Figura VII.1.4. Determinaci�on del Silo �optimo.
A continuaci�on se presenta una serie de ejercicios, cuya �nalidad es
recordar las nociones b�asicas sobre las ecuaciones diferenciales.
Ejercicios
1.- Resolver:y0 = �x signo(y)
pjxj;
y0 = exp(y) sin(x);
y0 = (x� y + 3)2:
Dibujar los campos de vectores.
2.- Dibujar el campo de vectores de la ecuaci�on
xy0 =
px2 � y
2 + y:
Encontrar una f�ormula explicita para las soluciones.
3.- La ecuaci�on de un cuerpo en caida libre est�a dada por
r00 = � M
r2; r(0) = R; r
0(0) = v0: (VII:1:39)
312 VII Ecuaciones Diferenciales
Plantear r0 = p(r), deducir una ecuaci�on diferencial para p y resolverla.
Encontrar una condici�on para v0, tal que r(t) ! 1 si t ! 1. Calcular las
soluciones de (VII.1.39) que tienen la forma a(b� x)�.
4.- Transformar la ecuaci�on de Bernoulli
y0 +
y
1 + x
+ (1 + x)y4 = 0;
en una ecuaci�on lineal. Plantear y(x) = z(x)q con q conveniente.
5.- Resolver la ecuaci�on de Riccati
y0 = y
2 + 1� x2: (VII:1:40)
Dibujar el campo de vectores considerando las curvas donde y0 = cons,
las isoclinas. Deducir una soluci�on particular �(x) de (VII.1.40). Calcular
las otras soluciones mediante la transformaci�on z(x) = y(x)� �(x):
6.- Encontrar la soluci�on de
y00 � 3y0 � 4y = g(x); g(x) =
�cosx; 0 � x � �=2;
0; �=2 � x;
que satisface y(0) = y0(0) = 0.
7.- Resolver las ecuaciones lineales
y0 =
�3 6
�2 �3
�y; y
0 =
�1 �14 �3
�:
VII.2 M�etodo de Euler
En esta secci�on ser�a estudiado el m�etodo m�as sencillo de resoluci�on de
ecuaciones diferenciales con valores iniciales.
Se considera el problema a valor inicial o problema de Cauchy dado por(y0 = f(x; y);
y(t0) = y0;(VII:2:1)
donde f : V ! Rn continua, con V � R�Rn . Se desea determinar y(t0+T ),
para eso se considera la subdivisi�on del intervalo [t0; t0 + T ] dada por
t0 < t1 < t2 < � � � < tn = t0 + T;
de�niendo
hi = xi+1 � xi; i = 0; : : : ; n� 1: (VII:2:2)
La idea fundamental del m�etodo de Euler consiste en aproximar la soluci�on
exacta en x1, utilizando una tangente que pase por (x0; y0), es decir
y1 = y0 + h0f(x0; y0): (VII:2:3)
De manera generalxi+1 = xi + hi;
yi+1 = yi + hif(xi; yi):(VII:2:4)
La soluci�on num�erica proporcionada por el m�etodo de Euler es, por consi-
guiente una funci�on poligonal, ver �gura VI.2.1, denotada por yh(x), llamada
pol��gono de Euler; esta funci�on esta de�nida por:
h = (h0; : : : ; hn);(x 2 [xk; xk+1];
yh(x) = yk + (x � xk)f(xk; yk):
(VII:2:5)
y
yy
yy
yy
0
1
2
3
4
56
x x x x x x1 2 3 4 5 6
y(x)
Figura VII.2.1. El Pol��gono de Euler
314 VII Ecuaciones Diferenciales
Una pregunta muy natural, que uno puede plantearse, consiste en determinar
bajo que condiciones el m�etodo de Euler converge hacia la soluci�on exacta
del problema diferencial de Cauchy, cuando n!1.
Consid�erese el problema
y0 = f(x; y);
y(x0) = y0;(VII:2:6)
donde f : U ! Rn , con U � R � Rn abierto. Se de�ne
jhj = maxi=0;:::;n�1
hi: (VII:2:7)
Proposici�on VII.2.1.- Sea D = f(x; y)jx 2 [x0; x0+a]; ky � y0k � bg � U .Sup�ongase que f jfD continua, A = max
(x;y)2Dkf(x; y)k, � = min(a; b=A).
Entonces para cada divisi�on h del intervalo [x0; x0 + �] se tiene:
a) kyh(x) � yh(�x)k � A kx� �xk; x; �x 2 [x0; x0 + �].
b) si kf(x; y)� f(x0; y0)k � � sobre D, entonceskyh(x) � (y0 + (x� x0)f(x0; y0))k � � jx� x0j :
Demostraci�on.-El punto a) es trivial, ya que es consecuencia de la
de�nici�on de yh, A y la desigualdad del tri�angulo aplicada una cantidad
�nita de veces.
La demostraci�on del punto b) es la siguiente. Sea x 2 [x0; x0 + �], por
consiguiente x 2 [xk�1; xk], de donde
yh(x) = yk + (x� xk�1)f(xk�1; yk�1)
= y0 + h0f(x0; y0) + h1f(x1; y1) + � � �+ hk�2f(xk�2; yk�2)
+ (x� xk�1)f(xk�1; yk�1):
Ahora bien,
y0 + (x� x0)f(x0; y0) = y0 + h0f(x0; y0) + : : : hk�2f(x0; y0)
+ (x� xk�1)f(xk�1; yk�1);
obteniendo �nalmente b). �
Proposici�on VII.2.2.- Sea h una divisi�on del intervalo I . Sean yh(x) el
pol��gono de Euler para (x0; y0) y zk(x) el pol��gono de Euler para (x0; z0). Si
kf(x; y)� f(x; z)k � L ky � zk ; 8(x; y); (x; z) 2 D; (VII:2:8)
entonces
kyh(x) � zh(x)k � kx0 � z0k eL(x�x0): (VII:2:9)
VII.2 M�etodo de Euler 315
Antes de demostrar esta proposici�on vale la pena recalcar que si f
satisface una condici�on de Lipschitz, es decir (VII.2.8), el pol��gono de Euler
es �unico paa h dado.
Demostraci�on.- Se tiene:
y1 = y0 + h0f(x0; y0);
z1 = z0 + h0f(x0; z0);
obteniendo como desigualdad
ky1 � z1k � ky0 � z0k+ h0L ky0 � z0k� (1 + h0L) ky0 � z0k� e
h0L;
procediendo de manera recursiva, se obtiene
kyk � zkk � eLhk�1 kyk�1 � zk�1k
� eL(x�x0) ky0 � z0k :
�
Teorema VII.2.3.- Cauchy. Sea D = f(x; y)jx0 � x � x0 + a; ky � y0kg �U ; sup�ongase:i) f jD continua, A = max
(x;y)2Dkf(x; y)k, � = min(a; b=A),
ii) kf(x; y)� f(x; z)k � L ky � zk si (x; y); (x; z) 2 D;entonces:
a) Si jhj ! 0, entonces los pol��gonos de Euler yh(x) convergen uniforme-
mente sobre [x0; x0 + �] hacia una funci�on '(x).
b) '(x) es soluci�on de y0 = f(x; y), y(x0) = y0.
c) La soluci�on es �unica sobre [x0; x0 + �].
Demostraci�on.- Inicialmente se mostrar�a, que si hk es una sucesi�on de sub-
divisiones de [x0; x0 + �] con jhkj ! 0, entonces la sucesi�on de poligonos de
Euler asociada, es una sucesi�on de Cauchy para la norma de la convergencia
uniforme. Para tal efecto, se mostrar�a que
8� > 09� > 0 tal que jhj < �;
���h��� < �
=) 8x 2 [x0; x0 + �] se tiene yh(x) � yh(x)
< �:
donde h es una divisi�on con jhj < � y h una divisi�on m�as �na que h.
316 VII Ecuaciones Diferenciales
Sea � > 0 dado, entonces existe � > 0 tal que si jx� �xj � � y
ky � �yk � A� implica que kf(x; y)� f(�x; �y)k � �. Esto es cierto por que
f es uniformemente continua sobre D.Por la proposici�on VII.2.1, se tiene
kyh(x)� fy0 + (x� x0)f(x0; y0)gk � � jx� x0j ;
de donde yh(x)� yh(x)
� �
h(x1 � x0)e
L(x�x1) + � � �+ (x� xk)eL(x�xk)
i�Z x
x0
eL(x�s)
ds = �
eL(x�x0) � 1
L
� �
eL� � 1
L
;
por consiguiente, fyh(x)g es una sucesi�on de Cauchy, con � que no depende
de x. Como consecuencia inmediata, se tiene que la sucesi�on converge hacia
una funci�on '(x) que adem�as es continua.
La demostraci�on del punto b) se basa en los siguientes hechos: yh(x0) =
y0 implica que '(x0) = y0, se considera el m�odulo de continuidad de f ,
de�nido por
�(�) = supfkf(x; y)� f(�x; �y)k j jx� �xj � �; ky � �yk � A�g;
se observa inmediatamente, que �(�)! 0 si � ! 0. Utilizando la proposici�on
VII.2.2, se obtiene
kyh(x+ �)� yh(x) � �f(x; yh(x))k � ��(�);
de donde, se tiene
k'(x + �)� '(x) � �f(x; '(x))k � ��(�);
efectuando el pasaje al l��mite, se obtiene
'0(x) = f(x; '(x)):
La unicidad del punto c) ha sido ya demostrada en el corolario VII.1.12 �
Corolario VII.2.4.- f : U ! Rn (U � �Rn ) continuamente diferenciable.
D = f(x; y)jx0 � x � x0 + �; ky � y0k � bg � U :
VII.2 M�etodo de Euler 317
Sobre D se tiene kf(x; y)k � A,
@f@y
(x; y)
� L,
@f@x
(x; y)
�M .
Entonces
ky(x) � yh(x)k �M + AL
L
�eL(x�x0) � 1
�jhj ; (VII:2:10)
donde y(x) es soluci�on de y0 = f(x; y), y(x0) = y0.
Demostraci�on.- Remontando la demostraci�on del teorema precedente, se
tiene
kyh(x) � y(x)k � �
eL(x�x0) � 1
L
:
Puesto que f es diferenciable, se tiene
kf(x; y)� f(�x; �y)k � L ky � �yk+M jx� �xj� A jhj+ jhj ;
de donde planteando � = (LA+M) jhj se tiene (VII.2.10). �
Efectos de los Errores de Redondeo
Generalmente no se puede calcular la soluci�on exacta del esquema (VII.2.4);
se calcula solamente la soluci�on del esquema perturbado dado por
y�
n+1 = y�
n + hnf(tn; y�
n) + hn�n + %n (VII:2:11)
donde �n designa el error con el cual es calculado la funci�on f y %n los errores
de redondeo cometidos por la computadora. Se supondr�a que j�nj � � y
j%nj � %.
Con la hip�otesis suplementaria que f es continuamente diferenciable,
como en en el corolario VII.2.4, se tiene planteando en = y�
n � yn y
sustrayendo (VII.2.11) con (VII.2.4),
e�
n+1 = e�
n + hn[f(tn; y�
n)� f(tn; yn)] + hn�n + %n: (VII:2:12)
Puesto que f es diferenciable, se obtiene de (VII.2.12) el siguiente esquema
e�
n+1 = e�
n + hn[@f
@y
(tn; yn)e�
n] + hn�n + %n +O(ke�nk2): (VII:2:13)
Planteando zn = hne�
n, despreciando O(ke�nk2) y suponiendo que hn = h
constante, se obtiene el siguiente esquema para zn, con
zn+1 = zn + h[@f
@y
(tn; yn)zn] + h(h�n + %n); (VII:2:14)
318 VII Ecuaciones Diferenciales
de donde zn es la soluci�on num�erica exacta obtenida a partir del m�etodo de
Euler de la ecuaci�on
z0(t) = [
@f
@y
(t; y(t))]z(t) + (h�(t) + %(t)): (VII:2:15)
En lugar de estudiar la soluci�on num�erica de (VII.2.15), se estudiar�a la
soluci�on de este problema cuando h tiende a 0. Qualquier soluci�on de
la ecuaci�on diferencial (VII.2.15) no puede ser identicamente nula por
la existencia del t�ermino no homogeneo no nulo, para h su�cientemente
peque~no este t�ermino no homogeneo es no nulo. Sea C = maxkz(t)k cuandoh = 0, por otro lado denotando zh(t) la soluci�on de (VII.2.15) para un h �jo,
se tiene que zh(t) converge uniformente hacia z0(t) cuando h tiende a 0. Por
lo tanto, existe un intervalo cerrado J � [t0; t0 + T ] y h0 para los cuales
kzh(t)k �C
28t 2 J;8h � h0:
Puesto que e�n � z(tn)=h, se tiene que
limh!0
e�
n =1:
Acaba de observarse que cuando la longitud de paso hn tiende a 0,
el error debido al redondeo toma un lugar preponderante, distorsionando
completamente cualquier resultado num�erico. En la �gura VII.2.2 puede
verse un comportamiento aproximado del error de redondeo en funci�on de
h.
h
Err
or
Figura VII.2.2. Error de Redondeo en el M�etodo de Euler.
La pregunta natural que surge es: >C�ual es el h m��nimo que se puede
tomar sin que el error de redondeo sea preponderante? La respuesta a esta
VII.2 M�etodo de Euler 319
pregunta tiene dos fuentes, la primera que radica en la pr�actica num�erica,
y la segunda en un an�alisis sobre el origen de los otros errores que ocurren
durante la implementaci�on del m�etodo. Ambos estudios llegan a la conclusi�on
de
hmin � C
peps; (VII:2:16)
donde eps es la precisi�on de la computadora.
Las mayoraciones que se acaban de dar son por lo general demasiado
pesimistas, por ser rigurosos matem�aticamente, uno se situa en la situaci�on
m�as desfavorable posible. Por otro lado si se toma h muy peque~no, inferior
a eps, el algoritmo se mantiene estacionario.
Estabilidad del M�etodo de Euler
En la anterior subsecci�on se pudo observar la incidencia directa del error de
redondeo. En esta parte se analizar�a la propagaci�on del error de redondeo
en la soluci�on num�erica. Consid�erese el problema siguiente
y0 = �y; y(0) = y0: (VII:2:17)
El m�etodo de Euler con paso constante, da el siguiente esquema
yn+1 = yn + h�yn; (VII:2:18)
sup�ongase que en lugar de y0, se introduce una aproximaci�on �y0, planteando
en = �yn � yn donde �yn es la soluci�on num�erica de la ecuci�on (VII.2.17) con
valor inicial �y0. Los en veri�can la siguiente relaci�on:
en+1 = en + h�en; e0 = (�y0 � y0);
de donde
en = (�h+ 1)ne0: (VII:2:19)
Por consiguiente, el esquema (VII.2.17) ser�a estable siempre y cuando
limn!1
en = 0;
situaci�on que sucede cuando j�h+ 1j < 1. Por consiguiente, para obtener un
m�etodo estable es necesario que
hmax =2
j�j : (VII:2:20)
Por lo expuesto en la anterior subsecci�on y en �esta, se tiene necesariamente
que la longitud de paso est�a acotada inferiormente e superiormente. La
cota inferior impide que el error de redondeo distorsione completamente
320 VII Ecuaciones Diferenciales
la soluci�on num�erica del problema, mientras que la cota superior en los
problemas lineales impide que el m�etodo diverga. La idea de estabilidad
puede generalizarse a problemas diferenciales lineales de mayor dimensi�on.
Por ejemplo, consid�erese el problema
y0 = Ay; y(0) = y0:
Con el procedimiento utilizado anterioremente e introduciendo normas en
los lugares apropiados es facil mostrar que el m�etodo de Euler es estable si
�(A+ I)h < 1; (VII:2:21)
donde �(A+ I) es el radio espectral de la matriz A+ I . Planteando z = �h,
se tiene estabilidad en el m�etodo, si y solamente si jz + 1j < 1. De donde, se
tiene de�nida una regi�on de estabilidad, dada en la �gura VII.2.3, la parte
achurada del c��rculo corresponde a la regi�on donde el m�etodo es estable.
1−1
i
−i
Figura VII.2.3. Regi�on de Estabilidad del M�etodo de Euler
El siguiente ejemplo ilustra, que el m�etodo de Euler no es un m�etodo
muy apropiado para resolver ciertos problemas diferenciales a valor inicial.
Consid�erese, el problema
y0(x) = �100y(x) + cosx;
y(0) = 0:(VII:2:22)
La soluci�on de este problema, est�a dada por
y(x) =100
10001cosx+
1
10001sinx+ Ce
�100x;
con C una constante determinada por la condici�on inicial. Puede observarse
que para x = �, se tiene
y(�) � � 100
10001� �0; 01: (VII:2:23)
VII.2 M�etodo de Euler 321
Aplicando el m�etodo de Euler con paso constante se tiene:
h1 =�
165! yh(�) = �9:999� 10�3;
h2 =�
155! yh(�) = �60:101:
No obstante que h2 � h1 � 1:2 � 10�3, la diferencia de los resultados es
abismal. La explicaci�on de este fen�omeno de inestabilidad ha sido explicado
m�as arriba.
El problema dado por (VII.2.22) est�a dentro una categor��a de problemas
diferenciales conocidos con el nombre de ecuaciones diferenciales rigidas, ver
Hairer & Wanner. Para evitar aberraciones en los resultados num�ericos en
la resoluci�on num�erica de esta clase de problemas, el m�etodo de Euler puede
modi�carse, obteniendo as�� el:
M�etodo de Euler Impl��cito
En lugar de utilizar el esquema dado por (VII.2.4); el m�etodo de Euler
impl��cito, est�a dado por el esquema
yk+1 = yk + hkf(xk+1; yk+1): (VII:2:24)
Puede observarse inmediatamente, que para determinar yk+1 se debe resolver
una ecuaci�on, que en lo general no es lineal. Comparando con la versi�on
expl��cita del m�etodo de Euler, �esto constituye una di�cultad adicional, pues
para evaluar yk+1 debe utilizarse un m�etodo de resoluci�on de ecuaciones,
como ser el m�etodo de Newton. Puede mostrarse, ver Hairer & Wanner,
que si hk es lo su�cientemente peque~no, la convergencia del m�etodo de
Newton, o de otro m�etodo de resoluci�on est�a asegurada. Se ha expuesto
la desventaja principal del m�etodo de Euler impl��cito, respecto al m�etodo
de Euler expl��cito. A continuaci�on se expondr�a la principal motivaci�on
de utilizar la versi�on impl��cita en determinadas situaciones. La principal
desventaja del m�etodo de Euler expl��cito en radica en la falta de estabilidad
cuando h no es los su�cientemente peque~no, ver el ejemplo en el cual para
2 pasos muy proximos, las soluciones numericas del problema (VII.2.22)
di�eren de manera signi�cativa. El an�alisis de estabilidad del m�etodo de
Euler impl��cito es muy similar a la del m�etodo de Euler expl��cito, en
efecto considerando el problema (VII.2.18), se tiene que el m�etodo impl��cito
satisface la siguiente relaci�on recursiva para el error
en+1 = en + �hen+1; (VII:2:25)
de donde, se obtiene de manera expl��cita
en+1 =1
1� �h
en; (VII:2:26)
322 VII Ecuaciones Diferenciales
teniendo de esta manera estabilidad en la propagaci�on de los errores de
redondeo, si y solamente si
j1� �hj > 1: (VII:2:27)
Para los problemas de la forma y0 = Ay, (VII.2.27) y remplazando z = �h,
se obtiene el dominio de estabilidad dado por
jz � 1j > 1; (VII:2:28)
el cual est�a dado en la �gura VII.2.3.
1
Figura VII.2.3. Regi�on de Estabilidad del M�etodo de Euler Impl��cito.
Ejercicios
1.- Aplicar el m�etodo de Euler al problema
y0 = y
2; y(0) = 1:
Evaluar y(1=4).
Utilizar pasos constantes, (por ejemplo h=1/6). Estimar el error con el
corolario VII.2.4. Comparar esta estimaci�on con el error exacto.
2.- Demostrar el resultado siguiente: Si el problema
y0 = f(x; y); y(x0) = y0;
con f : U ! Rn continua, U � �Rn abierto y (x0; y0) 2 U posee una
y una sola soluci�on sobre el intervalo I , entonces los pol��gonos de Euler
yh(x) convergen uniformemente sobre I hacia esta soluci�on.
3.- Aplicar el m�etodo de Euler al sistema
y0
1 = �y2;y0
2 = y1;
y1(0) = 1;
y2(0) = 0:
Utilizar pasos constantes para encontrar una aproximaci�on de la soluci�on
en el punto x = 0:4. Estimar el error como en el ejercicio 1 y compararla
con el error exacto. La soluci�on exacta es y1(x) = cosx, y2(x) = � sinx.
VII.3 M�etodos de Runge-Kutta
En la anterior secci�on se formul�o el m�etodo de Euler en su versi�on expl��cita
como en su versi�on impl��cita. Uno de los grandes problemas con el cual
se debe confrontar en la utilizaci�on de este m�etodo, consiste en la falta
de precisi�on de �este, ver el corolario VII.2.4, motivo por el cual, los pasos
de integraci�on deben ser demasiado peque~nos, induciendo de esta manera
grandes perturbaciones debido al error de redondeo.
En esta secci�on se pretende construir m�etodos cuya precisi�on sea m�as
elevada, permitiendo as�� menos evaluaciones y una menor incidencia del
error de redondeo en los c�alculos. Se estudiar�a los m�etodos conocidos como
m�etodos a un paso, en contraposici�on a los m�etodos multipasos que ser�an
tratados en la siguiente secci�on.
Se pretende calcular una aproximaci�on de la soluci�on de
y0 = f(x; y); y(x0) = y0; (VII:3:1)
sobre el intervalo [x0; xe]. Se procede como sigue: De la misma manera que
en el m�etodo de Euler, se particiona [x0; xe] en subintevalos x0 < x1 < � � � <xN = xe, se denota hn = xn+1�xn y se calcula yn � y(xn) por una f�ormula
de la forma
yn+1 = yn + hn�(hn; xn; yn): (VII:3:2)
Una tal f�ormula se llamam�etodo a un paso, por que el c�alculo de yn+1 utiliza
los valores de hn; xn; yn de un paso solamente.
Puede observarse facilmente que el m�etodo de Euler corresponde bien a
esta categor��a de m�etodos a un paso. Vale la pena recalcar que los m�etodos
de la forma (VII.3.2) no solamente son m�etodos a un paso, si no que tambi�en
expl��citos. Para saber m�as referirse a Hairer & Wanner. Para simpli�car la
notaci�on, solamente se considerar�a el primer paso, es decir cuando n = 0 en
(VII.3.2) y escribir h en lugar de h0.
Para obtener otros m�etodos num�ericos se integra (VII.3.1) de x0 a x0+h.
La expresi�on que se obtiene, est�a dada por
y(x0 + h) = y0 +
Z x0+h
x0
f(t; y(t))dt: (VII:3:3)
La idea central consiste en remplazar la integral de (VII.3.3) por una
expresi�on que la aproxime. Por ejemplo, si se utiliza h(f(x0; y0)) como
aproximaci�on se tiene el m�etodo de Euler Expl��cito. Por consiguiente, la
idea ser�a utilizar f�ormulas de cuadratura que tienen un orden m�as elevado.
324 VII Ecuaciones Diferenciales
Como ejemplo de la utilizaci�on de este ingenioso argumento, se tiene el
m�etodo de Runge. Se toma la f�ormula del punto medio que es una f�ormula
de cuadratura de orden 2. Obteniendo as��
y(x0 + h) � y0 + hf
�x0 +
h
2; y(x0 +
h
2)
�; (VII:3:4)
obteniendo posteriormente el valor desconocido y(x0 + h=2) mediante el
m�etodo de Euler. Esto da
y1 = y0 + hf
�x0 +
h
2; y0 +
h
2f(x0; y0)
�: (VII:3:5)
La interpretaci�on geom�etrica del m�etodo de Runge, ver �gura VII.3.1,
consiste en hacer pasar una recta tangente por el punto m�edio de las curvas
integrales de la ecuaci�on diferencial, obteniendo este punto medio mediante
una tangente que sale de (x0; y0). Ver la �gura VII.3.1.
x x x0 0 0+h/2 +h
Figura VII.3.1 M�etodo de Runge
Kutta en 1901, generaliz�o la idea de Runge, conduciendo a la de�nici�on
siguiente de los m�etodos que llevan sus nombres.
De�nici�on VII.3.1.- Un m�etodo de Runge-Kutta a s pisos, est�a dada por:
k1 = f(x0; y0);
k2 = f(x0 + c2h; y0 + ha21k1);
k3 = f(x0 + c3h; y0 + h(a31k1 + a32k2));
...
ks = f(x0 + csh; y0 + h(as1k1 + � � �+ as;s�1ks�1));
y1 = y0 + h(b1k1 + � � �+ bsks);
(VII:3:6)
VII.3 M�etodos de Runge-Kutta 325
donde los ci; aij ; bj son coe�cientes. El m�etodo se representa por el esquema
c1 = 0
c2 a21
c3 a31 a32
......
.... . .
cs as1 as2 � � � as;s�1
b1 b2 � � � bs�1 bs
(VII:3:7)
Los m�etodos de Euler, como tambi�en los m�etodos de Runge y Heun est�an
dados en la tabla III.3.1
Tabla III.3.1. Primeros m�etodos de Runge-Kutta
0
1
Euler
0
1=2 1=2
0 1
Runge
0
1=3 1=3
2=3 0 2=3
1=4 0 3=4
Heun
Por razones de cuadratura, se supondr�a siempre que los ci satisfacen siempre
c1 = 0; ci =
i�1Xj=1
aij ; i = 2; : : : ; s: (VII:3:8)
La de�nici�on de orden de cuadratura para las f�ormulas de cuadratura,
puede extenderse a los m�etodos de Runge-Kutta de la siguiente manera.
De�nici�on VII.3.2.- Se dice que el m�etodo de Runge-Kutta dado por
(VII.3.6) tiene el orden p si, para cada problema y0 = f(x; y), y(x0) = y0
con f su�cientemente derivable, el error despu�es de un paso satisface
y1 � y(x0 + h) = O(hp+1); cuando h! 0: (VII:3:9)
La diferencia (VII.3.9) se llama error local del m�etodo.
El m�etodo de Euler es un m�etodo de orden 1, por que
y(x0 + h) = y0 + hy0(x0) +O(h2) = y0 + hf(x0; y0) +O(h2) = y1 +O(h2):
326 VII Ecuaciones Diferenciales
El m�etodo de Runge est�a basado sobre la f�ormula del punto medio que es
una f�ormula de cuadratura de orden 2:
y(x0 + h) = y0 + hf (x0 + h=2; y(x0 + h=2)) +O(h3):
Remplazando y(x0 + h=2) por el valor y0 + (h=2)f(x0; y0) del m�etodo de
Euler, se agrega un t�ermino de tama~no O(h3). Entonces, este m�etodo tieneorden p = 2.
El m�etodo de Heun, ver tabla VII.3.1, se obtiene a partir de la f�ormula
de cuadratura
y(x0 + h) = y0 +h
4
�f(x0; y0) + 3f
�x0 +
2h
3; y(x0 +
2h
3)
��+O(h4);
si se remplaza y(x0 + 2h=3) por la aproximaci�on del m�etodo de Runge. De
donde el m�etodo de Heun tiene el orden p = 3.
Utilizando la suposici�on (VII.3,8) que es una condici�on simpli�cadora,
se tiene la siguiente proposici�on.
Proposici�on VII.3.3.- La condici�on (VII.3.8) implica que es su�ciente
considerar problemas aut�onomos de la forma y0 = f(y) para veri�car la
condici�on de orden.
Demostraci�on.- Se supone que (VII.3.9) es satisfecha para los problemas
autonomos de la forma y0 = F (y), y(x0) = y0.
Consid�erese un problema de la forma y0 = f(x; y), y(x0) = y0, el cual es
equivalente al problema
_y = f(x; y);
_x = 1;
y(0) = y0;
x(0) = 0;
obteniendo as��
Y0 = F (Y ); donde Y =
�x
y
�; F (Y ) =
�1
f(x; y);
�(VII:3:10)
con valor inicial Y0 = (x0; y0)t. La aplicaci�on del m�etodo de Runge-Kutta al
problema (VII.3.10) da
Ki = F
0@Y0 + h
i�1Xj=1
aijKj
1A =
�1
ki
�; Y1 = Y0 + h
sXi=1
biKi =
�x1
y1
�;
lo que es equivalente a (VII.3.6), por que
Y0 + h
i�1Xj=1
aijKj =
�x0
y0
�+ h
i�1Xj=1
aij
�1
kj
�=
�x0 + cih
y0 + h
Pi�1j=1 aijkj
�:
�
VII.3 M�etodos de Runge-Kutta 327
El siguiente paso, es de estudiar un procedimiento que permita deter-
minar m�etodos de Runge-Kutta de ordenes m�as elevados. Un buen ejercicio
ser�a construir el m�etodo de Kutta que es de orden 4.
Construcci�on de un m�etodo de orden 4
La idea principal de la construcci�on del m�etodo de Runge, es considerar los
desarrollos en serie de Taylor de la soluci�on exacta y(x0+h), como tambi�en de
la soluci�on num�erica obtenida a partir del m�etodo, que se la denota por y1(h).
Luego comparar las series, para obtener condiciones sobre los coe�cientes del
m�etodo.
Serie de Taylor de la soluci�on exacta
Consid�erese el problema de Cauchy
y0 = f(y); y(x0) = y0: (VII:3:11)
derivando la ecuaci�on (VII.3.11), se obtiene para la soluci�on exacta
y00 =f 0yy
0 = f0
yf(y)
y000 =f 00y (y
0; f(y)) + f
0
yf0
yy0 = f
00
y (f(y); f(y)) + f0
yf0
yf(y)
y(4) =f 000y (f(y); f(y); f(y)) + 3f 00y (f
0
yf(y); f(y) + f0
yf00
y (f(y); f(y))
+ f0
yf0
yf0
yf(y);
de donde la serie de Taylor de la soluci�on exacta est�a dada por
y(x0 + h) = y0 + hf(y0) +h2
2!f0
yf(y0)
+h3
3!
�f00
y (f(y0); f(y0)) + f0
yf0
yf(y0)�
+�f000
y (f(y); f(y); f(y)) + 3f 00y (f0
yf(y); f(y)
+ f0
yf00
y (f(y); f(y)) + f0
yf0
yf0
yf(y)�+O(h5):
(VII:3:12)
Serie de Taylor de la soluci�on num�erica
Para calcular la serie de Taylor de y1, es su�ciente determinar las series de
los
ki = f(x0 + h
i�1Xj=1
aijkj): (VII:3:13)
Ahora bien, se puede considerar (VII.3.13) como una ecuaci�on a punto �jo,
pudiendo as�� aproximar los ki por el m�etodo de las aproximaciones sucesivas.
Comenzando la primera aproximaci�on de ki, se tiene
ki = f(y0) +O(h);
328 VII Ecuaciones Diferenciales
utilizando (VII.3.8), se obtiene
ki = f(y0) + cihfyf(y0) +O(h2):
La segunda iteraci�on da como resultado
ki = f(y0 + hcif(y0) + h2Xj
aijcjfyf(y0) +O(h3))
= f(y0) + cihfyf(y0) + h2Xj
aijcjfyfyf(y0) +h2
2c2i f00
y (f(y0); f(y0))
+O(h3):
Efectuando todav��a una vez m�as una iteraci�on, e introduciendo los valores
obtenidos en la de�nici�on (VII.3.5) de yi, se obtiene
y1 = y0 + h
Xi
bi
!f0 +
h2
2
2Xi
bici
!(f 0f)0 (VII:3:14)
+h3
3!
0@ 3Xi
bic2i
!(f 00(f; f))0 +
0@6Xij
biaijcj
1A (f 0f 0f)0
1A+h4
4!
0@ Xi
bic3i
!(f 000(f; f; f))0 +
0@8Xij
biciaijcj
1A (f 00(f 0f 0f))0
+
0@24Xijk
biaijajkck
1A (f 0f 0f 0f)0
1A+O(h5);
donde el sub��ndice 0 indica que las evaluaciones deben ser hechas en el punto
y0.
Comparando los coe�cientes de (VII.3.12) y (VII.3.14), se encuentran
las condiciones que deben satisfacer los coe�cientes ci, bi y aij para contar
con un m�etodo de orden 4. Estas condiciones se las enuncia en el:
Teorema VII.3.4.- Condiciones de Orden. El m�etodo de Runge-Kutta
(VII.3.6) tiene el orden 4 si los coe�cientes satisfacen (VII.3.8) yXi
bi = 1; (VII:3:15a)
Xi
bici =1
2; (VII:3:15b)
Xi
bic2i =
1
3; (VII:3:15c)
VII.3 M�etodos de Runge-Kutta 329Xij
biaij =1
6; (VII:3:15d)
Xi
bic3i =
1
4; (VII:3:15e)
Xij
biciaijcj =1
8; (VII:3:15f)
Xij
biaijc2j =
1
12; (VII:3:15g)
Xijk
biaijajkbk =1
24: (VII:3:15h)
Es necesario remarcar que si el m�etodo satisface solamente (VII.3.15a),
(VII.3.15a,b) o (VII.3.15,a,b,c) tiene el orden 1, 2 o 3 respectivamente.
El siguiente paso es la resoluci�on del sistema (VII.3.15), para s = 4.
Este sistema consiste de 8 ecuaciones no lineales para 10 param�etros bi;
aij ; los ci est�an determinados por la condici�on (VII.3.8). Las condiciones
(VII.3.15a,b,c,e) traducen el hecho que (bi; ci) es una f�ormula de cuadratura
de orden 4. Por consiguiente los bi pueden ser determinados si los ci son
conocidos. En particular, se obtiene
b3c3(c3 � c2)(c4 � c3) = �c2c4
2+c2 + c3
3� 1
4: (VII:3:16)
Por otro lado (VII.3.15g)�c2�(VII.3.15d) da
b4a43c3(c3 � c2) =1
12� c2
6; (VII:3:17)
y c4�(VII.3.15d)�(VII.3.15f) implica que
b3(c4 � c3)a32c2 =c4
6� 1
8: (VII:3:18)
Si se multiplica (VII.3.17) con (VII.3.18), luego (VII.3.16) con (VII.3.15h),
se obtiene para la misma expresi�on, las dos f�ormulas:
b4a43a32c2 � b3c3(c3 � c2)(c4 � c3) =
�1
12� c2
6
��c4
6� 1
8
�;
b4a43a32c2 � b3c3(c3 � c2)(c4 � c3) =
��c2c42
+c2 + c3
3� 1
4
�=24;
lo que es equivalente a
c2(1� c4) = 0:
330 VII Ecuaciones Diferenciales
Puesto que c2 6= 0, consecuencia de la condici�on (VII.3.15h), se tiene
necesariamente que c4 = 1. La soluci�on general del sistema (VII.3.16), se
la obtiene de la manera siguiente.
M�etodo de Resoluci�on.- Plantear c1 = 0, c4 = 1; c2 y c3 son param�etros
libres; calcular b1, b2, b3, b4 tales que la f�ormula de cuadratura sea de orden
4; calcular a32 utilizando (VII.3.18), a43 utilizando (VII.3.19) y a42 proviene
de (V II:3:15d); �nalmente calcular a21; a31; a41 de (VII.3.8) para i = 2; 3; 4:
Entre los m�etodos de orden 4, los m�as conocidos est�an dados en la tabla
VII.3.2.
Tabla VII.3.2. M�etodos de Kutta
0
1=2 1=2
1=2 0 1=2
1 0 0 1
1=6 2=6 2=6 1=6
M�etodo de Runge-Kutta
0
1=3 1=3
2=3 �1=3 1
1 1 �1 1
1=8 3=8 3=8 1=8
Regla 3=8
M�etodos Encajonados
Para resolver un problema realista, un c�alculo a paso constante es en
general ine�ciente. Existen diversas causas para esta ine�ciencia: la primera
es que se debe conocer a priori una estimaci�on del error local cometido,
lo cual es complicado en general ocasionando una perdida de generalidad
en los programas a implementarse. La otra raz�on fundamental que existen
intervalos donde los pasos de integraci�on pueden ser de longitud mayor. El
principal problema reside en como escoger los pasos de integraci�on. La idea
que puede resolver satisfactoriamente estos problemas consiste en escoger
pasos de integraci�on de manera que el error local sea en todo caso inferior o
igual a Tol dado por el utilizador. Motivo por el cual es necesario conocer
una estimaci�on del error local. Inspirados en el programa GAUINT descrito
en VI.3, se construye un m�etodo de Runge-Kutta con y1 como aproximaci�on
num�erica, y se utiliza la diferencia y1 � y1 como estimaci�on del error local
del m�etodo menos preciso.
Se da un m�etodo de orden p a s pisos, con coe�cientes ci; aij ; bj . Se busca
un m�etodo de orden p < p que utiliza las mismas evaluaciones de f , es decir
y1 = y0 + h(b1k1 + � � �+ bsks); (VII:3:19)
VII.3 M�etodos de Runge-Kutta 331
donde los ki est�an dados por (VII.3.3). Para tener m�as libertad, se agrega a
menudo un termino que contenga f(x1; y1) a la f�ormula (VII.3.19), de todas
maneras se debe calcular f(x1; y1) para el paso siguiente, determinando as��
y1, como
y1 = y0 + h(b1k1 + � � �+ bsks + bs+1f(x1; y1)): (VII:3:20)
Un tal m�etodo encajonado puede ser representado en forma de un esquema,
ver la tabla VII.3.3.
Tabla VII.3.3. M�etodos encajonados
c1 = 0
c2 a21
c3 a31 a32
......
.... . .
cs as1 as2 � � � as;s�1
(1) b1 b2 � � � bs�1 bs
b1 b2 � � � bs�1 bs (bs+1)
El siguiente paso es la determinaci�on del h optimal. Si se aplica el m�etodo
con un valor h, la estimaci�on del error satisface
y1� y1 = (y1�y(x0+h))+(y(x0+h)� y1) = O(hp+1)+O(hp+1) � Chp+1
:
(VII:3:21)
El h optimal, denotado por hopt, es �aquel donde esta estimaci�on es pr�oxima
de Tol, es decir
Tol � Ch
p+1opt : (VII:3:22)
Eliminando C de las dos �ultimas f�ormulas, se obtiene
hopt = 0:9 � h � p+1
sTol
ky1 � y1k: (VII:3:23)
El factor 0:9 se lo agrega para volver el programa m�as seguro.
Algoritmo para la selecci�on autom�atica de paso.
Al iniciar los c�alculos, el utilizador provee una subrutina que calcule el valor
de f(x; y), los valores iniciales x0; y0 y una primera elecci�on de h.
A) Con h, calcular y1, err = ky1 � y1k y hopt dado por (VII.3.23).B) Si err � Tol, el paso es aceptado, entonces
x0 := x0 + h; y0 := y1; h := min(hopt; xend � x0);
332 VII Ecuaciones Diferenciales
si no el paso es rechazado
h := hopt:
C) Si x0 = xend se ha terminado, si no se recomienza por (A) y se calcula
el paso siguiente.
La pr�actica num�erica muestra que es aconsejable remplazar (VII.3.23)
por
hopt = h �min�5;max(0:2; 0:9(Tol=err)1=p+1
�:
Para la norma dada en la relaci�on (VII.3.23), se utiliza en general
ky1 � y1k =
vuut 1
n
nXi=1
�yi1 � yi1
sci
�2
; donde sci = 1 +max(jyi0j ; jyi1j):
(VII:3:24)
En la literatura especializada, estos m�etodos encajonados con control
de paso autom�atico, se los denota por RKpp donde RK son las iniciales
de Runge-Kutta y p, p son los ordenes de los m�etodos encajonados. En la
actualidad la utilizaci�on de tales m�etodos es muy com�un. En la tabla VII.3.4
se da el esquema del m�etodo de Dormand-Prince RK54; este m�etodo es
analizado minuciosamente en Hairer & Wanner.
Tabla VII.3.4. M�etodo Dormand-Prince 5(4)
0
1
5
1
5
3
10
3
40
9
40
4
5
44
45�5615
32
9
8
9
19372
6561�25360
2187
64448
6561�212729
19017
3187�355
33
46732
5247
49
176� 5103
18656
135
3840
500
1113
125
192�21876784
11
84
y1
35
3840
500
1113
125
192�21876784
11
840
y1
5179
576000
7571
16695
393
640� 92097
339200
187
2100
1
40
VII.3 M�etodos de Runge-Kutta 333
En el ejemplo siguiente se detallar�a la construcci�on de un m�etodo
encajonado con selecci�on de paso autom�atico. Por razones de simplicidad, se
considerar�a un m�etodo RK32.
Ejemplo
T�omese un m�etodo de orden p = 3 a s = 3 pisos, que en este caso ser�a el
m�etodo de Heun, ver tabla VII.1.1 y se buscar�a un m�etodo encajonado de
orden p = 2 de la forma (VII.3.20), es decir se aumenta s de 1, agregando
un (s+ 1)-emo piso con los coe�cientes as+1;i, para i = 1; : : : ; s.
De esta manera se obtiene el siguiente sistema de ecuaciones para los
coe�cientes bi, el cual est�a dado por:
b1 + b2 + b3 + b4 = 1
1
3b2 +
2
3b3 + b4 =
1
2:
Puedo observarse que para que el m�etodo encajonado tenga un orden
igual a 2, se requieren 2 condiciones, quedando as�� dos grados de libertad.
Al igual que en el m�etodo de Heun, puede plantearse b2 = 0, b4 puede
escogerse libremente, por ejemplo b4 = 1=2 de donde por la segunda
ecuaci�on se deduce facilmente que b3 = 0 y por la primera ecuaci�on
b1 = 1=2. Por lo tanto se obtiene el esquema dado en la tabla VII.3.5.
Tabla VII.3.5. Ejemplo de M�etodo Encajonado
0
1=3 1=3
2=3 0 2=3
1 1=4 0 3=4
1=2 0 0 1=2
Soluciones Continuas
Uno de los incovenientes mayores de los m�etodos formulados en esta secci�on
consiste en el hecho que estos dan las soluciones en un conjunto discreto
de puntos. Una primera alternativa es unir estas soluciones con pol��gonos,
si los puntos donde el m�etodo ha dado las soluciones. El resultado no es
satisfactorio desde varios puntos de vista. Si el m�etodo es de orden elevado
la interpolaci�on lineal, vista en el Cap��tulo III, tiene como efecto la perdida
de precisi�on. Desde el punto de vista gr�a�co las soluciones dejan de ser
334 VII Ecuaciones Diferenciales
lisas. Debido a estas dos razones expuestas es necesario complementar estos
m�etodos con alternativas que permitan dar soluciones densas.
Existen varias alternativas validas que permiten subsanar esta falencia
de los m�etodos de Runge-Kutta. La primera consiste en la construcci�on de los
m�etodos de Runge-Kutta Continuos. Para tal efecto, se considera un m�etodo
de Runge-Kutta dado de antemano. Se desea evaluar utilizando este esquema
en el punto x� = x0 + �h con 0 < � � 1. Los coe�cientes de este m�etodo
se los denota por ci(�); aij(�); bj(�). Ahora bien, el m�etodo ser�a interesante
desde el punto de vista num�erico, si los coe�cientes ci(�), aij(�) no dependen
de � coincidiendo de esta manera con los del m�etodo dado de antemano. Sin
embargo no es nada raro que el m�etodo obtenido a partir de los bi(�) tenga
un orden inferior. Esto se debe a que los aij ; ci ya est�an prescritos. Para
ilustrar esta construcci�on consid�erese el ejemplo siguiente.
Ejemplo
Se considera nuevamente el m�etodo de Heun dado en la tabla VII.3.1.
Utilizando el teorema VII.3.4, remplazando y(x0 + h) por y(x0 + �h) se
obtienen las siguientes condiciones de orden para los coe�cientes bi(�):
b1 + b2 + b3 = �;
1
3b2 +
2
3b3 =
�2
2;
1
9b2 +
4
9b3 =
�3
3;
4
9b3 =
�3
6:
Como puede observarse es imposible que los coe�cientes bi puedan
satisfacer las condiciones para obtener un m�etodo de orden 3, por lo
tanto, uno debe contentarse con obtener un m�etodo de orden 2 para �
diferente de 1 y para � = 1 un m�etodo de orden 3. Tomando las dos
primeras ecuaciones y planteando b2 = 0, como en el m�etodo de Heun,
se tiene para b3 =3
4�2 y para b1 = �(�� 3
4�). obteniendo as��, el esquema
dado en la tabla VII.5.6.
Tabla VII.5.6. Ejemplo de M�etodo Continuo.
0
1=3 1=3
2=3 0 2=3
�(� � 3
4�) 0 3
4�2
VII.3 M�etodos de Runge-Kutta 335
La segunda estrategia para construir soluciones continuas, consiste en
utilizar la interpolaci�on de Hermite con polinomios c�ubicos, tomando como
extremidades y0, y1 y como derivadas f(x0; y0) y f(x1; y1). Es facil ver,
que a diferencia de la primera alternativa es necesario evaluar y1. Viendo
el cap��tulo III, la interpolaci�on de Hermite tiene un error del orden O(h4),equivalente a un m�etodo de tercen orden.
Convergencia de los M�etodos de Runge-Kutta
En las subsecciones precedentes, se ha hecho un an�alisis del error local,
intimamente ligado al orden del m�etodo. Pero no se ha analizado que sucede
con el error global de la soluci�on num�erica. Para analizar este tipo de error
es necesario introducir alguna notaci�on adicional.
Consid�erese un m�etodo a un paso
yn=1 = yn + hn�(xn; yn; hn); (VII:3:25)
aplicado a una ecuaci�on diferencial y0 = f(x; y), con valor inicial y(x0) =
y0. Es natural plantearse sobre la magnitud del tama~no del error global
y(xn)� yn. A continuaci�on se enunciar�a un teorema general sobre esta clase
de error.
Teorema VII.3.5.- Sea y(x) la soluci�on de y0 = f(x; y), y(x0) = y0 sobre
el intervalo [x0; xe]. Sup�ongase que:
a) el error local satisface para x 2 [x0; xe] y h � hmax
ky(x+ h)� y(x)� h�(x; y(x); h)k � C � hp+1; (VII:3:26)
b) la funci�on �(x; y; z) satisface una condici�on de Lipschitz
k�(x; y; h)��(x; z; h)k � � ky � zk ; (VII:3:27)
para h � hmax y (x; y); (x; z) en un vecindario de la soluci�on.
Entonces , el error global admite para xn � xe la estimaci�on
ky(xn)� ynk � hpC
�
�e�(xn�x0) � 1
�; (VII:3:28)
donde h = maxi
hi, bajo la condici�on que h sea lo su�cientemente pequ~no.
Demostraci�on.- La idea central de la demostraci�on es estudiar la in uencia
del error local, cometido en el paso i-esimo a la propagaci�on de yn. Enseguida,
adicionar los errores acumulados. Ver �gura VII.3.2.
Sean fyng y fzng dos soluciones num�ericas obtenidas por (VII.3.25) convalores iniciales y0 y z0 respectivamente. Utilizando la condici�on de Lipschitz
dada por (VII.3.27), su diferencia puede ser estimada como
kyn+1 � zn+1k � kyn � znk+ hn� kyn � znk= (1 + �hn) kyn � znk � e
hn� kyn � znk :(VII:3:29)
336 VII Ecuaciones Diferenciales
Recursivamente, se obtiene
kyn � znk � ehn�1�
ehn�2� � � � ehi� kyi � zik :
y el error propagado Ei, ver �gura VII.3.2, satisface
kEik � e�(xn�xi) keik � Ch
p+1i�1 e
�(xn�xi); (VII:3:30)
y
0 1 2 3 n
yE
y(x )EE
nn
n−1
1
ee
e n−1
2
1
0
x x x x x
Figura VII.3.2. Estimaci�on del error global.
La desigualdad del tri�angulo, as�� como (VII.3.30) da, ver la �gura VII.3.3,
para la estimaci�on de la suma
ky(xn)� ynk �nXi=1
kEik �nXi=1
h
p+1i�1 e
�(xn�xi)
� Chp�h0e
�(xn�x1) + � � �+ hn�2e�(xn�xn�1) + hn�1
�� Ch
p
Z xn
x0
e�(xn�t)
dt =Ch
p
�
�e�(xn�x0) � 1
�:
x
x
x x x x0 1 2
n−1 n
eΛ( x x)n −
Figura VII.3.3. Estimaci�on de la suma de Riemann.
VII.3 M�etodos de Runge-Kutta 337
Solo queda justi�car la implicaci�on de (VII.3.25) en (VII.3.27), ya que la
estimaci�on (VII.3.25) es valida solamente en un vecindario
U = f(x; y)j ky � y(x)k � bg de la soluci�on exacta. Si se supone que h es lo
su�cientemente peque~no, m�as precisamente, si h es tal que
Chp
�
�e�(xe�x0) � 1
�� b;
se estar�a seguro que todas las soluciones num�ericas de la �gura VII.3.2 se
quedar�an en U . �
Sup�ongase que (VII.3.25) representa un m�etodo de Runge-Kutta, se
veri�car�a las hip�otesis del teorema precedente. La condici�on (VII.3.26) es
satisfecha para un m�etodo de orden p. Solo queda por veri�car la condici�on
de Lipschitz (VII.3.27), para la funci�on
�(x; y; h) =
sXi=1
biki(y); (VII:3:31)
donde
ki(y) = f
0@x+ cih; y + h
i�1Xj=1
aijkj(y)
1A: (VII:3:32)
Proposici�on VII.3.6.- Si f(x; y) satisface una condici�on de Lipschitz
kf(x; y)� f(x; z)k � L ky � zk en un vecindario de la soluci�on de y0 =
f(x; y), la expresi�on �(x; y; h) de (VII.3.31) veri�ca la condici�on (VII.3.27)
con
� = L
0@Xi
jbij+ (hmaxL
Xij
jbiaij j+ (hmaxL)2Xijk
jbiaijajkj+ � � �
1A:
(VII:3:33)
Demostraci�on.- La condici�on de Lipschitz para f(x; y) aplicado a
(VII.3.32) da
kk1(y)� k1(z)k = kf(x; y)� f(x; z)k � L ky � zkkk2(y)� k2(z)k � L ky � z + ha21(k1(y)� k1(z))k
� L(1 + hmaxL ja21j) ky � zk ;(VII:3:34)
etc. Las estimaciones (VII.3.34) introducidas en
k�(x; y; h)��(x; z; h)k �sX
i=1
jbij kki(y)� ki(z)k ;
338 VII Ecuaciones Diferenciales
implican (VII.3.27) con � dado por (VII.3.33). �
Experiencias Num�ericas
En esta subsecci�on se mostrar�a varios ejemplos donde los m�etodos de Runge-
Kutta act�uan. Se comparar�a varios m�etodos.
1.- Se considera la ecuaci�on diferencial, con valor inicial,
y0 = �y + sinx; y(0) = 1; (VII:3:35)
la soluci�on de este problema, est�a dada por
y(x) =3
2e�x � 1
2cosx+
1
2sinx: (VII:3:36)
En la �gura VII.3.4, se muestra las gr�a�cas de diferentes m�etodos de
Runge-Kutta. El intervalo de integraci�on es [0; 10]. Puede comprobarse,
que al igual que en los m�etodos de integraci�on, existe una relaci�on lineal
entre � log10(Error Global) y el n�umero de evaluaciones de la funci�on,
fe. Esta relaci�on lineal tiene una pendiente 1=p, donde p es el orden del
m�etodo.
100 10−1 10−2 10−3 10−4 10−5 10−6 10−7 10−8 10−9 10−10100
101
102
103
104
105
106
fefe
err globerr glob
fefe
err globerr glob
Metodo de Euler
Metodo de Runge
Metodo de Heun
Metodo de Kutta
Metodo 3/8
Figura VII.3.4. Relaci�on del error global vs fe.
VII.3 M�etodos de Runge-Kutta 339
2.- En esta experiencia num�erica, se implementa un m�etodo encajonado,
para este efecto, se toma el m�etodo dado en uno de los ejemplos
precedentes. La ecuaci�on diferencial sobre la cual es examinada tal
m�etodo, es una ecuaci�on diferencial de una reacci�on qu��mica, conocida
como Brusselator. Por consiguiente, se debe resolver:
y0
1 = 1 + y21y2 � 4y1;
y0
2 = 3y1 � y21y2;
y1(0) = 1:5;
y2(0)3;(VII:3:37)
sobre el intervalo [0; 10]. Los resultados obtenidos con Tol = 10�5
son presentados en la �gura VII.3.5. En la gr�a�ca superior, las dos
componentes de la soluci�on utilizando la soluci�on continua del m�etodo
de Heun, ver m�etodos continuos. En la gr�a�ca del medio, la longitud
de los pasos, los pasos aceptados est�an ligados, mientras que los pasos
rechazados indicados por �. En la gr�a�ca inferior, la estimaci�on del errorlocal, como tambi�en los valores exactos del error local y global.
0 5 10
1
2
3
4
5
6
y1
y2
0 5 10
10−2
10−1
100
10−8
10−7
10−6
10−5
10−4
10−3 Error global
Error local exacto Error local estimado
Figura VII.3.5. Experiencia num�erica de un m�etodo encajonado.
340 VII Ecuaciones Diferenciales
Ejercicios
1.- Aplicar el m�etodo de Runge al sistema
y0
1 = �y2;y0
2 = y1;
y1(0) = 1;
y2(0) = 0;
con h = 1=5. Comparar el trabajo necesario y la precisi�on del resultado
con el m�etodo de Euler.
2.- Consid�erese un m�etodo de Runge-Kutta a s pisos y de orden p. Mostrar
quesX
i=1
bicq�1i =
1
q
para q = 1; : : : ; p:
es decir, la f�ormula de cuadratura asociada tiene al menos el orden p.
3.- Aplicar un m�etodo de Runge-Kutta de orden p = s, s es el n�umero de
pisos, al problema y0 = �y, donde � es una constante compleja. Mostrar
que la soluci�on num�erica est�a dada por
y1 =
0@ sXj=0
zj
j!
1Ay0; z = �h:
4.- Construir todos los m�etodos de Runge-Kutta de orden 3 con s = 3 pisos.
5.- Consid�erese el problema
y0 =
�
x
y + g(x); y(0) = 0
con g(x) su�cientemente derivable y � � 0. Mostrar que este problema
admite una y una sola soluci�on. Las derivadas de la soluci�on en el punto
x = 0 son
y(j)(0) =
�1� �
j
��1
g(j�1)(0):
6.- Aplicar un m�etodo de Runge-Kutta al problema del ejercicio anterior,
utilizar la de�nici�on f(x; y) =�1� �
j
��1
g(0), para x = 0.
a) Mostrar que el error del primer paso satisface
y(h)� y1 = C2h2g0(0) +O(h3)
donde C2 depende solamente de los coe�cientes del m�etodo.
c) Calcular C2 para uno de los m�etodos de Kutta.
VII.4 M�etodos Multipasos
Los m�etodos a un paso calculan un valor aproximado yn+1, en el ins-
tante tn+1, utilizando �unicamente el valor aproximado yn. La utilizaci�on
de varios valores aproximados yn; yn�1; : : :, permite obtener a precisi�on
igual m�etodos de costo menos elevado; estos m�etodos son com�unmente
llamados multipasos, m�as precisamente cuando los c�alculos utilizan r va-
lores precedentes: yn; yn�1; : : : ; yn�r+1, es decir concernientes los r pasos:
hn; hn�1; : : : ; hn�r+1, se habla de m�etodos a r pasos. Entre estos m�etodos,
los m�etodos de Adams son aqu�ellos que parecen ser a la hora actual los m�as
e�caces cuando el problema diferencial es bien condicionado, ser�an estudia-
dos en esta subsecci�on. Los algoritmos modernos utilizan estos m�etodos con
un n�umero variable de pasos y un tama~no de paso variables. La variaci�on
del n�umero de pasos y la longitud de los pasos permite adaptar el m�etodo
a la regularidad de la soluci�on, permite tambi�en de levantar las di�cultades
de arranque que presentan los m�etodos a n�umero de pasos �jo.
M�etodos de Adams Expl��citos
Sea una divisi�on x0 < x1 < � � � < xn = xe del intervalo sobre el cual se
busca resolver la ecuaci�on diferencial y0 = f(x; y) y sup�ongase que se conoce
aproximaciones yn; yn�1; : : : ; yn�k�1 de la soluci�on para k pasos consecutivos
(yi � y(xj)). De la misma forma que para la derivaci�on de los m�etodos de
Runge-Kutta, se integra la ecuaci�on diferencial, para obtener
y(xn+1) = y(xn) +
Z xn+1
xn
f(t; y(t))dt: (VII:4:1)
Pero en lugar de aplicar una f�ormula de cuadratura st�andard a la integral
(VII.4.1), se remplaza f(t; y(t)) por el polinomiio de grado k�1, que satisfaga
p(xj) = fj ; para j = n; n� 1; : : : ; n� k + 1; (VII:4:2)
donde fj = f(xj ; yj). Ver la �gura VII.4.1.
xn−k+1 xn−1 x n xn+1
f f fn−k+1 n−1 n
p(t)
Figura VII.4.1. M�etodo de Adams:
342 VII Ecuaciones Diferenciales
Por consiguiente, la aproximaci�on de y(xn+1) est�a de�nida por
yn+1 = yn +
Z xn+1
xn
p(t)dt: (VII:4:3)
Si se representa el polinomio p(t) por la f�ormula de Newton, ver el teorema
III.1.9,
p(t) =
k�1Xj=0
j�1Yi=0
(t� xn�i)
!f [xn; xn�1; : : : ; xn�j ]; (VII:4:4)
el m�etodo (VII.4.3) se convierte en
yn+1 = yn +
k�1Xj=0
Z xn+1
xn
j�1Yi=0
(t� xn�i)
!f [xn; xn�1; : : : ; xn�j ]: (VII:4:5)
El caso m�as simple de estas f�ormulas de Adams expl��citas consiste cuando
la divisi�on es equidistante. En esta situaci�on se tiene xj = x0 + jh, las
diferencias divididas pueden ser expresadas bajo la forma
f [xn; xn�1; : : : ; xn�j ] =rj
fn
j!hh; (VII:4:6)
donde r0fn = fn;rfn = fn � fn�1;r2
fn = r(rfn); : : : son las diferencias
�nitas regresivas.
La f�ormula (VII.4.5), planteando t = xn + sh, se convierte en
yn+1 = yn + h
k�1Xj=0
jrjfn; (VII:4:7)
donde
j =1
j!
Z 1
0
j�1Yi=0
(i+ s)ds =
Z 1
0
�s+ j � 1
j
�ds:
Los primeros coe�cientes j est�an dados en la tabla VII.4.1.
Tabla VII.4.1. Coe�cientes para los m�etodos de Adams Expl��citos.
j 0 1 2 3 4 5 6 7 8
j 11
2
5
12
3
8
251
720
95
288
19087
60480
5257
17280
1070017
3628800
VII.4 M�etodos Multipasos 343
Casos particulares de los m�etodos de Adams expl��citos son:
k = 1 : yn+1 = yn + hfn; (m�etodo de Euler);
k = 2 : yn+1 = yn + h
�2
3fn �
1
2fn�1
�;
k = 3 : yn+1 = yn + h
�23
12fn �
16
12fn�1 +
5
12fn�2
�;
k = 4 : yn+1 = yn + h
�55
24fn �
59
24fn�1 +
37
24fn�2 �
9
24fn�3
�:
Si se quiere aplicar este m�etodo, por ejemplo para k=4, a la resoluci�on
de y0 = f(x; y), y(x0) = y0, es necesario conocer y0; y1; y2 y y3. Despu�es
se puede utilizar la f�ormula de recurrencia para determinar y4; y5; : : :. Al
f�ormular Adams sus m�etodos, el utilizaba la serie de Taylor de la soluci�on
en el punto inicial, sin embargo es m�as c�omodo empezar con un m�etodo
a un paso del tipo de Runge-Kutta y luego utilizar el m�etodo multipaso
correspondiente.
En la construcci�on del m�etodo de Adams expl��cito dado por (VII.4.5),
se ha utilizado el polinomio de interpolaci�on p(t) fuera del intervalo
[xn�k+1; xn]. Esta situaci�on puede provocar grandes errores, ver nuevamente
III.1. Por lo tanto, este inconveniente puede modi�carse considerando los:
M�etodos de Adams Impl��citos
La idea central de estos m�etodos consiste en considerar el polinomio p�(t)
de grado k, que satisface
p�(t) = fj para; j = n+ 1; n; n� 1; : : : ; n� k + 1: (VII:4:9)
A diferencia de la versi�on expl��cita fn+1 = f(xn+1; yn+1) es todav��a descono-
cido. El siguiente paso es de�nir la aproximaci�on num�erica por
yn+1 = yn +
Z xn+1
xn
p�(t)dt: (VII:4:10)
De la misma manera que en el caso expl��cito, la f�ormula de Newton da
p�(t) =
kXj=0
j�1Yi=0
(t� xn�i+1)dt
!f [xn+1; xn; : : : ; xn�j+1]; (VII:4:11)
de donde el m�etodo est�a dado por
yn+1 = yn +
kXj=0
Z xn+1
xn
j�1Yi=0
(t� xn�i+1)
!f [xn+1; xn; : : : ; xn�j+1]:
(VII:4:12)
344 VII Ecuaciones Diferenciales
El caso m�as simple de estas f�ormulas de Adams impl��citas consiste
cuando la divisi�on es equidistante, el m�etodo est�a dado por
yn+1 = yn + h
kXj=0
�
jrjfn+1; (VII:4:13)
donde
�
j =1
j!
Z 1
0
j�1Yi=0
(i+ s� 1)ds =
Z 1
0
�s+ j � 2
j
�ds: (VII:4:14)
Los primeros coe�cientes �j est�an dados en la tabla VII.4.2.
Tabla VII.4.2. Coe�cientes para los m�etodos de Adams Impl��citos.
j 0 1 2 3 4 5 6 7 8
�
j 1 �12� 1
12� 1
24� 19
720� 3
160� 863
60480� 375
24192� 33953
3628800
Casos particulares de los m�etodos de Adams impl��citos son:
k = 0 : yn+1 = yn + hfn+1 = yn + hf(xn+1; yn+1);
k = 1 : yn+1 = yn + h
�1
2fn+1 +
1
2fn
�;
k = 2 : yn+1 = yn + h
�5
12fn+1 +
8
12fn �
1
12fn�1
�;
k = 2 : yn+1 = yn + h
�9
24fn+1 +
19
24fn �
5
24fn�1 +
1
24fn�2
�:
Cada una de estas f�ormulas representa una ecuaci�on no lineal para yn+1, que
es de la forma
yn+1 = �n + h�f(xn+1; yn+1): (VII.4:15)
que puede ser resuelta por el m�etodo de Newton o simplemente por el m�etodo
iterativo simple.
M�etodos Predictor-Corrector
Los m�etodos de Adams impl��citos tienen la gran ventaja sobre la versi�on
expl��cita, por que las soluciones provistas son m�as realistas. Sin embargo la
gran di�cultad de estos m�etodos es la resoluci�on de (VII.4.15). En algunos
casos particulares, como en el caso de los sistemas lineales, esta resoluci�on
VII.4 M�etodos Multipasos 345
podr�a hacerse directamente, pero en el caso general la utilizaci�on de un
m�etodo iterativo para resolver el sistema no lineal es necesaria. Por otro lado,
es necesario recalcar que yn+1 es una aproximaci�on de la soluci�on exacta,
motivo por el cual es natural pensar que un c�alculo muy preciso de yn+1
tal vez no sea necesario. Es por eso, que una mejora de esta situaci�on puede
darse de la manera siguiente. Primero calcular una primera aproximaci�on por
un m�etodo expl��cito, luego corregir este valor, una o varias veces, utilizando
la f�ormula (VII.4.15). Con este algoritmo, un paso de este m�etodo toma la
forma siguiente:
P: se calcula el predictor yn+1 = yn + h
Pk�1j=0 jrj
fn por el m�etodo de
Adams expl��cito; yn+1 es ya una aproximaci�on de y(xn+1).
E: evaluaci�on de la funci�on: se calcula fn+1 = f(xn+1; yn+1).
C: la aproximaci�on corregida est�a dada por yn+1 = �n + h�fn+1.
E: calcular fn+1 = f(xn+1; yn+1).
Este procedimiento, que se lo denota PECE, es el m�as utilizado. Otras
posibilidades son: efectuar varias iteraciones, por ejemplo PECECE, o de
omitir la �ultima evaluaci�on de f , es decir PEC, y de tomar fn+1 en el lugar
de fn+1 para el paso siguiente.
Metodos BDF
Se ha visto que los m�etodos de Adams, tanto en su versi�on expl��cita, como
en su versi�on impl��cita consideran polinomios de interpolaci�on que pasan
por los fj . Esta manera de abordar el problema de la aproximaci�on de las
soluciones de un problema diferencial es e�caz cuando el problema diferencial
es bien condicionado, pero �estos pueden volverse muy costosos desde el
punto de vista computacional para los problemas diferenciales r��gidos. Por
consiguiente, puede ser interesante de utilizar el m�etodo de las diferencias
retr�ogradas que ser�a descrito en esta subseccion.
La idea central de los m�etodos BDF consiste en considerar el polinomio
q(t) de grado k, ver �gura VII.4.2, de�nido por
q(xj) = yj ; para j = n+ 1; n; : : : ; n� k + 1; (VII.4:16)
y se determina yn+1, de manera que
q0(xn+1) = f(xn+1; q(xn+1)): (VII.4:17)
Como en la f�ormula (VII.4.11), la f�ormula de Newton da
q(t) =
kXj=0
j�1Yi=0
(t� xn�i+1)
!y[xn+1; xn; : : : ; xn�j+1]: (VII.4:18)
346 VII Ecuaciones Diferenciales
Cada t�ermino de esta suma contiene el factor (t � xn+1), de donde es muy
facil calcular q0(xn+1), obteniendo as��
kXj=0
j�1Yi=1
(xn+1 � xn�i+1)
!y[xn+1; xn; : : : ; xn�j+1] = f(xn+1; yn+1):
(VII.4:19)
x x x xn−k+1 n−1 n n+1
yq(t)
y
yy
n−k+1n−1
n
n+1
Figura VII.4.2. M�etodo de tipo BDF
Para el caso equidistante, (VII.4.19) utilizando (VII.4.6) se convierte en
kXj=1
1
j
rjyn+1 = hfn+1: (VII.4:20)
Obteniendo de esta manera, los siguientes casos particulares:
k = 1 : yn+1 � yn = hfn+1;
k = 2 :3
2yn+1 � 2yn +
1
2yn�1 = hfn+1;
k = 3 :11
6yn+1 � 3yn +
3
2yn�1 �
1
3yn�2 = hfn+1;
k = 4 :25
12yn+1 � 4yn + 3yn�1 �
4
3yn�2 +
1
4yn�3 = hfn+1:
De nuevo, cada f�ormula de�ne impl��citamente la aproximaci�on num�erica
yn+1.
Estudio del Error Local
Al igual de los m�etodos a un paso, como los m�etodos de Runge-Kutta, existe
la noci�on de orden para los m�etodos multipasos, el cual est�a ��ntimamente
ligado al estudio del error local.
VII.4 M�etodos Multipasos 347
Los m�etodos multipasos pueden expresarse bajo la forma siguiente
kXi=0
�iyn+i = h
kXi=0
�ifn+i; (VII.4:21)
donde �k 6= 0 y j�0j + j�0j > 0. El m�etodo es expl��cito si �k = 0, si no el
m�etodo es impl��cito.
De�nici�on VII.4.1.- Sea y(x) una soluci�on de y0 = f(x; y(x)) y sea
yn+k el valor obtenido por el m�etodo (VII.4.21) utilizando yi = y(xi) para
i = n; : : : ; n+ k � 1; ver �gurar VII.4.3. Entonces
error local = y(xn+k)� yn+k: (VII.4:22)
Se dice que el m�etodo (VII.4.21) tiene el orden p si el error local es O(hp+1).
x x x x
y(x)
y
y
yy
n n+1 n+k−1 n+k
n+k
n+k−1
n+1
n
Figura VII.4.3. De�nici�on del error local.
Para estudiar el error local de un m�etodo multipaso, se utiliza el operador
L de�nido por:
L(y; x; h) =
kXi=0
(�iy(x+ ih)� h�iy0(x+ ih)) : (VII:4:23)
Como yi = y(xi), para i = n; : : : ; n+ k� 1 en la de�nici�on dada m�as arriba,
se tiene que fi = f(xi; y(xi)) = y0(xi) para i = n; : : : ; n+ k� 1 y la f�ormula
(VII.4.21) puede ser expresada bajo la forma
kXi=0
�iy(xn + ih) + �k(yn+k � y(xn+k)) =h
kXi=0
�iy0(xn + ih)
+ h�(fn+k � f(xn+k; y(xn+k)));
lo que es equivalente a
L(y; xn; h) =
��kI � h�k
@f
@y
(: : :)
�(y(xn+k)� yn+k); (VII:4:24)
348 VII Ecuaciones Diferenciales
el argumento de @f=@y puede ser diferente para cada linea de esta matriz,
ver el teorema del valor medio o incrementos �nitos. La f�ormula muestra que
el error local del m�etodo (VII.4.21) es O(hp+1) si y solamente si L(y; x; h) =
O(hp+1) para toda funci�on y(x) que es su�cientemente derivable.
Teorema VII.4.2.- Un m�etodo multipaso tiene el orden p, si y solamente
si sus coe�cientes satisfacen
kXi=0
�i = 0 y
kXi=0
�iiq = q
kXi=0
�iq�1 para q = 1; : : : ; p: (VII:4:25)
Demostraci�on.- En la f�ormula (VII.4.23), se desarrolla las expresiones
y(x+ ih) y y0(x+ ih) en serie de Taylor y obteniendo
L(y; x; h) =
kXi=0
�i
Xg�0
y(q)(x)
(ih)q
q!� h
kXi=0
�i
Xr�0
y(r+1)(x)
(ih)r
r!
= y(x)
kXi=0
�i
!+Xg�1
y(q)(x)
hq
q!
kXi=0
�iiq � q
kXi=0
�iq�1
!:
La condici�on L(y; x; h) = O(hp+1) da la condici�on (VII.4.25). �
Ejemplo
Consid�erese el m�etodo de Adams expl��cito a k pasos. Para q � k, se
considera la ecuaci�on diferencial y0 = qxq�1 cuya soluci�on es y(x) = x
q .
En esta situaci�on, el polinomio p(t) de (VII.4.2) es igual a f(t; y(t)) y el
m�etodo de Adams expl��cito da el resultado exacto. Por consiguiente, se
tiene L(y; x; h) = 0, ver la f�ormula (VII.4.24) lo que implica
kXi=0
��i(x+ ih)q � q�i(x+ ih)q�1h
�= 0
y por lo tanto (VII.4.25), planteando x = 0. Entonces, el orden de este
m�etodo es � k. Se puede mostrar que efectivamente el orden es igual a
k.
De la misma manera, se muestra que el m�etodo de Adams impl��cito tiene
el orden p = k + 1 y el m�etodo BDF el orden p = k.
Estabilidad
A simple vista la relaci�on (VII.4.25) permite formular m�etodos multipaso con
un n�umero dado de pasos con un orden optimal. Sin embargo la experiencia
VII.4 M�etodos Multipasos 349
num�erica mostr�o que los resultados obtenidos no siempre eran v�alidos. Es
por eso necesario introducir una nueva noci�on en el estudio de estos m�etodos.
Esta noci�on est�a intimamente ligada a la estabilidad del m�etodo. Para
comprender mejor el problema que se plantea con los m�etodos multipaso,
es necesario referirse al siguiente ejemplo enunciado por Dahlquist en 1956.
Se plantea k = 2 y se construye un m�etodo explicito, �2 = 0, �2 = 1
con un orden maximal. Utilizando las condiciones dadas por (VII.4.25) con
p = 3, se llega al siguiente esquema:
yn+2 + 4yn+1 � 5yn = h(4fn+1 + 2fn): (VII:4:26)
Una aplicaci�on a la ecuaci�on diferencial y0 = y con y(0) = 1 da la f�ormula
de recurrencia
yn+2 + 4(1� h)yn+1 + (5 + 2h)yn = 0: (VII:4:27)
Para resolver la ecuaci�on precedente, se calcula el polinomio caracter��stico
de �esta, obteniendo
�2 + 4(1� h)� � (5 + 2h) = 0; (VII:4:28)
ecuaci�on de segundo grado cuyas soluciones son
�1 = 1 + h+O(h2); �2 = �5 +O(h):
La soluci�on de (VII.4.27) tiene la forma
yn = C1�n1 + C2�
n2 (VII:4:29)
donde las constantes C1 y C2 est�an determinadas por y0 = 1 y y1 = eh. Para
n grande, el t�ermino C2�n2 � C2(�5)n es dominante y ser�a muy di�cil que
la soluci�on num�erica converga hacia la soluci�on exacta. Ver �gura VII.4.4.
.0 .5 1.0
1.0
2.0
3.0
h=0.1
h=0.05
h=0.025
h=0.01
h=0.1
h=0.05
h=0.025
h=0.01
Figura VII.4.4. Inestabilidad del m�etodo VII.4.26:
350 VII Ecuaciones Diferenciales
La raz�on de la divergencia de la soluci�on num�erica en el ejemplo precedente,
es que el polinomio
%(�) =
kXi=0
�i�i; (VII:4:30)
tiene una raiz que es m�as grande que 1 en valor absoluto.
Para encontrar una condici�on necesaria para la convergencia, se consi-
derar�a el problema y0 = 0 con valores iniciales y0; y1; : : : ; yk�1 perturbados.
La soluci�on num�erica yn satisface:
�kyn+k + � � �+ �0yn = 0; (VII:4:31)
y est�a dada por una combinaci�on lineal de:
�n: : : : : : : : : : : : : : : : : : : : si � es una raiz simple de %(�) = 0,
�n; n�
n: : : : : : : : : : : : : : : si � es una raiz doble de %(�) = 0,
�n; n�
n; : : : ; n
l�l: : : : : : si � es una raiz de multiplicidad l.
Para que la soluci�on num�erica quede acotada, es necesario que las
condiciones de la de�nici�on siguiente sean satisfechas.
De�nici�on VII.4.3.- Un m�etodo multipaso es estable, si las raices del
polinomio %(�) satisfacen
i) si %(�) = 0 entonces������� � 1,
ii) si %(�) = 0 y������� = 1 entonces � es una raiz simple de %(�).
Se puede mostrar facilmente que los m�etodos de Adams tienen como
polinomio caracter��stico
%(�) = �k�1(� � 1):
Por consiguiente los m�etodos de Adams son estables para la de�nici�on que
acaba de ser enunciada. Por otro lado se muestra igualmente que los m�etodos
BDF son estables solamente para k � 6.
Existe un resultado muy importante en la teor��a de la estabilidad de los
m�etodos multipaso, cuya demostraci�on escapa a los objetivos del libro. Este
resultado es conocido como la primera barrera de Dahlsquist.
Teorema VII.4.4.- Primera barrera de Dahlsquist. Para un m�etodo mul-
tipaso estable, el orden k satisface p � k + 2 si k es par, p � k + 1 si k es
impar y p � k si el m�etodo es expl��cito.
Convergencia de los M�etodos Multipaso
Debido a la complejidad de la demostraci�on, en esta subsecci�on se
tratar�a, solamente el caso equidistante.
VII.4 M�etodos Multipasos 351
Teorema VII.4.5.- Sup�ongase que los k valores de partida satisfagan
ky(xi)� yik � C0hp, para i = 0; 1; : : : ; k � 1. Si el m�etodo multipaso
(VII.4.21) es de orden p y estable, entonces el m�etodo es convergente de
orden p, es decir el error global satisface
ky(xn)� ynk � Chp; para xn � x0 = nh � Const: (VII:4:34)
Demostraci�on.- El punto esencial de la demostraci�on es el siguiente: Se
escribe formalmente el m�etodo multipaso (VII.4.21) bajo la forma de un
m�etodo a un paso. El m�etodo multipaso es de la forma, suponiendo �k = 1
yn+k = �k�1Xi=0
�iyn+i + h(xn; yn; : : : ; yn+k�1; h): (VII:4:35)
Para un m�etodo expl��cito �k = 0, est�a dada por
(xn; yn; : : : ; yn+k�1; h) =
k�1Xi=0
�if(xn+i; yn+i);
y para un m�etodo general, est�a de�nida impl��citamente por
(xn; yn; : : : ; yn+k�1; h) =
k�1Xi=0
�if(xn+i; yn+i) (VII:4:36)
+ �kf
xn+k ; h(xn; yn; : : : ; yn+k�1; h)�
k�1Xi=0
�iyn+i
!:
Luego se considera los supervectores
Yn = (yn+k�1; : : : ; yn+1; yn)t;
pudiendo de esta manera escribir el m�etodo dado por (VII.4.35), bajo la
forma
Yn+1 = AYn + h�(xn; Yn; h); (VII:4:37)
donde
A=
0BBBBB@��k�11 ��k�21 � � � ��11 ��01
1 0 � � � 0 0
1. . . O
. . .. . .
...
1 0
1CCCCCA; �(x; Y; h)=0BBBB@(x; Y; h)
0
0...
0
1CCCCA:(VII:4:37)
352 VII Ecuaciones Diferenciales
El siguiente paso en la demostraci�on es introducir el error local. Se considera
los valores yn; : : : ; yn+k�1 sobre la soluci�on exacta, denotando
Y (xn) = (y(xn+k�1; : : : ; y(xn+1); y(xn))t; (VII:4:38)
y aplicando una vez el m�etodo multipaso. Esto da
Yn+1 = AY (xn) + h�(xn; Y (xn); h):
La primera componente de Yn+1 � Y (xn+1) es exactamente el error local
dado por (VII.4.22), mientras que las otras componentes son iguales a cero.
Como el m�etodo es de orden p, por hip�otesis, se tiene Yn+1 � Y (xn+1) � C1h
p+1; para xn+1 � x0 = (n+ 1)h � Const:
(VII:4:39)
A continuaci�on se debe analizar la propagaci�on del error, es decir introducir
la estabilidad del m�etodo. Consid�erese una segunda soluci�on num�erica,
de�nida por
Zn+1 = AZn + h�(xn; Zn; h)
y estimar la diferencia Yn+1 � Zn+1. Como ilustraci�on del siguiente paso
en la demostraci�on se considerar�a solamente los m�etodos de Adams, pues el
caso general requiere de la utilizaci�on de otra norma, cuyo estudio escapa el
alcanze de este libro. Por consiguiente
0BB@yn+k � zn+k
yn+k�1 � zn+k�1
...
yn+1 � zn+1
1CCA =
0BB@yn+k�1 � zn+k�1
...
yn+1 � zn+1
yn � zn
1CCA
+h
0BB@(xn; Yn; h)�(xn; Zn; h)
0...
0
1CCA :
Utilizando la norma in�nita y condici�on de Lipschitz para que es conse-
cuencia de la de f(x; y), se obtiene
kYn+1 � Zn+1k � (1 + h�) kYn � Znk : (VII:4:40)
Ahora se ver�a la acumulaci�on de los errores propagados. Esta parte de la
demostraci�on es exactamente igual que para los m�etodos a un paso, ver el
VII.4 M�etodos Multipasos 353
paragrafo VII.3 y la �gura VII.4.5. �
y
0 1 2 3 n
yE
y(x )EE
nn
n−1
1
ee
e n−1
2
1
0
x x x x x
Figura VII.3.2. Estimaci�on del error global para m�etodos multipaso.
Ejercicios
1.- Para los coe�cientes del m�etodo de Adams expl��cito, demostrar la
f�ormula de recurrencia siguiente:
m +1
2 m�1 +
1
3 m�2 + � � �+
1
m+ 1 0 = 1:
Indicaci�on.-Introducir la serie
G(t) =
1Xj=0
jtj; j = (�1)j
Z 1
0
��sj
�ds
y demostrar que
G(t) =
Z 1
0
(1� t)�sds y � log(1� t)
t
G(t) =1
1� t
;
enseguida, desarrollar la segunda f�ormula en serie de Taylor y comparar
los coe�cients de tm.
2.- Consid�erese la identidad
y(xn+1) = y(xn�1 +
Z xn+1
xn�1
f(t; y(t))dt
para la soluci�on de la ecuaci�on diferencial y0 = f(x; y).
354 VII Ecuaciones Diferenciales
a) Remplazar en la identidad la funci�on desconocida f(t; y(t)) por el
polinomio p(t), como se ha hecho para construir el m�etodo de Adams
expl��cito. Deducir la f�ormula de Nystr�on
yn+1 = yn�1 + h
k�1Xj=0
�jrjfn:
b) Calcular los primeros �j .
c) Veri�car la identidad �j = 2 j � j�1, donde j son los coe�cientes
del m�etodo de Adams expl��cito.
3.- Mostrar que el m�etodo BDF a k pasos tiene orden k.
4.- Calcular el orden para la f�ormula de Nystr�on, ver ejercicio 2.
5.- Un m�etodo multipaso se dice sim�etrico, si
�j = ��k�j ; �j = �k�j :
Mostrar que un m�etodo sim�etrico siempre tiene un orden par.
6.- Dado un predictor de orden p� 1
kXi=0
�Pi yn+1 = h
k�1Xi=0
�Pi fn+1; (P )
y un corrector de orden p
kXi=0
�iyn+1 = h
kXi=0
�ifn+1: (C)
a) Escribir el m�etodo P (EC)ME bajo la forma
Yn+1 = AYn + h�(xn; Yn; h):
b) Mostrar que este m�etodo es convergente de orden p, si el corrector es
estable, no es necesario que el predictor sea estable.
Bibliograf��a
Al �nal de cada libro o art��culo, se indica entre corchetes y car�acteres it�alicos
el cap��tulo y/o secci�on al que hace referencia.
J.H Ahlberg, E.N. Nilson & J.L. Walsh (1967): The Theory of Splines
and Their Applications. Academic Press, New York. [III.2]
G. Arfken (1985):Mathematical Methods for Physicists. Academic Press,
London. [I.3], [VI.2].
V.I. Arnol'd (1992): Ordinary Di�erential Equations. Springer-Text-
book. [VII.1].
K.E. Atkinson (1978): An Introduction to Numerical Analysis. John
Wiley & Sons. [I], [III], [VI].
O.A Axelsson (1976): A class of iterative methods for �nite element
equations. Comp. Math. in Appl. Mech. and Eng. 9. [II.4].
N. Bakhbalov (1976): M�ethodes Num�eriques. Editions Mir, Moscou. [I],
[III], [VI].
C. de Boor (1978): A Practical Guide to Splines. Springer-Verlag, Berlin.
[III.2].
C. Br�ezinski (1977): Acc�el�eration de la Convergence en Analyse Num�eri-
que. Lectures Notes in Mathematics, Nr. 584, Springer-Verlag. [III.3], [VI.3].
J.C Butcher (1987): The Numerical Analysis of Ordinary Di�erential
Equations. John Wiley & Sons. [VII].
H. Cartan (1977): Cours de Calcul Di��erentiel. Hermann, Paris. [IV.2],
[IV.3].
P.G Ciarlet (1982): Introduction �a l'analyse num�erique matricielle et �a
l'optimisation. Mason, Paris. [II].
M. Crouzeix & A.L. Mignot (1984): Analyse Num�erique des Equations
Di�erentielles. Mason, Paris. [III], [VI] , [VII].
G. Dahlquist & A. Bj�orck (1974): Numerical Methods. Prentice-Hall. [I],
[III], [VI].
R. Dautray & J.L. Lions (1988): Mathematical Analysis and Numerical
Methods for Science and Technology, volume 2, Functional and Variational
Methods. Springer-Verlag. [VI.4].
P.J. Davis & P. Rabinowitz (1975): Methods of Numerical Integration.
Academic Press, New York. [VI].
356 Bibliograf��a
J. Dieudonn�e (1980): Calcul In�n�etisimal. Hermann, Paris. [IV.1],
[IV.2], [VI.4].
J.J. Dongarra, C.B. Moler, J.R. Bunch & G.W. Stewart (1979): LIN-
PACK Users' Guide. SIAM, Philadelphia. [II].
A. Gramain (1988): Integration. Hermann, Paris. [VI.1], [VI.4].
R.P. Grimaldi (1989): Discrete and Combinatorial Mathematics. Addi-
son-Wesley Publishing Company. [II.3].
E. Hairer, S.P. N�rsett & G. Wanner (1987): Solving Ordinary Di�eren-
tial Equations I. Nonsti� Problems. Springer Series in Comput. Math., vol.
8. it [VII].
E. Hairer & G. Wanner. Solving Ordinary Di�erential Equations. Sti�
Problems. Springer Series in Comput. Math., vol. 11. [VII].
P. Henrici (1962): Discrete Variable Methods in Ordinary Di�erential
Equations. John Wiley & Sons. [VII].
R.A. Horn & C.R. Johnson (1985): Matrix Analysis. Cambridge Univer-
sity Press. [II.1], [V.1].
G.H Golub & C.F. Van Loan (1989): Matrix Computations. The Johns
Hopkins University Press, Baltimore and London. [II].
K.L. Kantorovitch & G. Akilov (1981): Analyse Fonctionnelle, Volume2.
Editions Mir, Moscou. [IV.2], [IV.3]
V.I. Krylov (1962):Approximate calculation of integrals.Macmillan,New
Yor. [VI].
S. Lang (1987): Linear Algebra. Springer-Verlag. [II], [V].
M. Marden (1966): Geometry of Polinomials. American Mathematical
Society, Providence, Rhede Island, 2nd Edition. [IV.1]
J.M. Ortega & W.C. Rheinboldt (1970): Iterative Solution of Nonlinear
Equations in Several Variables. Academic Press, New York. [IV].
A.M. Ostrowski (1966): Solution of Equations and Systems of Equations.
Academic Press, New York, 2nd edition. [IV].
B.N. Parlett (1980): The Simmetric Eigenvalue Problem. Prentice-Hall,
Englewood Cli�s, New Jersey. [V].
R. Piessens, E. de Doncker-Kapenga, C.W. �Uberhuber & D.K. Kahaner
(1983): QUAD-PACK. A Subroutine Package for Automatic Integration.
Springer Series in Comput. Math., vol. 1. [VI].
W.H Press, B.R. Flannery, S.A Teukolsky & W.T Vetterling (1989):
Numerical Recipies. The Art of Scienti�c Computing (Versi�on FORTRAN).
Cambridge University Press, Cambridge. [VI.4].
C.R. Rao: (1973): Linear Statistical Inference and Its Applications.
John Wiley & Sons. [II.5]
Bibliograf��a 357
W. Rudin (1976): Principles of Mathematical Analysis. MacGraw Hill,
trird edition. [IV.2], [VI.1].
A.A Samarski & E.S. Nikolaev (1982): M�etodos de soluci�on de las
ecuaciones reticulares, Tomo I y II. Editorial Mir, Moscou. [III.3], [III.4]
B.T. Smith, J.M. Boyle, Y. Ikebe, V.C. Klema & C.B Moler (1970):
Matrix Eigensystem Routines: EISPACK Guide. 2nd ed., Springer-Verlag,
New York. [V]
J. Stoer & R. Bulirsch (1980): Introduction to Numerical Analysis.
Springer-Verlag, New York. [I], [III], [VI].
G.H. Stewart (1973): Introduction to Matrix Computations. Academic
Press, New York. [II].
L. Swhwartz (1970): Analyse, Topologie g�enerale et analyse fonction-
nelle. Hermann, Paris. [IV.2].
R.A. De Vore & G.G. Lorentz (1991): Constructive Approximation.
Springer-Verlag. [III.2].
J.H. Wilkinson (1963): The Algebraic Eigenvalue Problem. Clarendon
Press, Oxfordd. [V].
J.H. Wilkinson (1965): Rounding Errors in Algebraic Process. Prentice-
Hall, New York. [I].
J.H. Wilkinson (1969): Rundungsfehler. Springer-Verlag, Berlin. [I], [II].
J.H. Wilkinson & C. Reinsch (1971): Handbook for Automatic Compu-
tation, Volume II, Linear Algebra. Springer-Verlag, New York. [II], [V].
FORTRAN/9000 Reference (1991): Hewlett-Packard Company. [I.2].
Indice de S��mbolos
Los s��mbolos matem�aticos que aparecen en el libro, est�an enunciados en este
glosaria de la manera siguiente. En la primera columna el s��mbolo mismo, al
medio el nombre de �este y a la derecha la pagina donde est�a de�nido.
P(x) problema, 2.
arr(x) redondeo de x, 8.
eps precisi�on de la computadora, 8.
k k norma de vector, 25.
k k norma de matriz, 26.
1 vector 1, 29.
cond(A) condici�on de la matriz A, 29.
LR descomposici�on de Gauss, 37.
diag(r1; r2; : : : ; rn) matriz diagonal, 45.
D1=2 matriz raiz cuadrada, 45.
! coe�ciente de relajaci�on, 56.
producto tensorial de matrices, 60.
kxkA norma natural, 72.
Q matriz ortogonal, 87.
A+ pseudo inversa de una matriz, 93.
y[xi0 ; : : : ; xik ] diferencia dividida de orden k, 107.
rkyi diferencia �nita progresiva, 109.
�rkyi diferencia �nita regresiva, 109.
Tn(x) polinomio de Chebichef, 113.
li(x) polinomio de Lagrange, 116.
�n constante de Lebesgue, 116.
f0
x aplicaci�on derivada, 168.
�(A) radio espectral, 171.
ker nucleo de una aplicaci�on lineal, 214.
�A(�) polinomio caracter��stico, 214.
A� matriz adjunta, 215.
U matriz unitaria, 215.
Pk(�) nucleo de Peano de orden k, 251.
Pk(x) polinomio de Legendre, 262.
FN transformada discreta de Fourier, 286.
y � k producto de convoluci�on, 292.
Indice Alf�abetico
acelerador de convergencia, 147,276
Adamsm�etodo expl��cito, 341m�etodo impl��cito, 343
Aitken, 276algoritmo, 2bisecci�on, 161, 164Cholesky, 43epsilon, 278Euclides, 157Gauss, 37H�orner, 3,7
aplicaci�on de spline, 142aproximaci�on de Broyden, 198arm�onica, sucesi�on, 148axiomas de Moore-Penrose, 96
BDF, m�etodos, 345Broyden, 198Brusselator, 339Bulirsch, sucesi�on, 148busquedade Fibonacci, 129de pivote parcial, 41
c�alculo derivada, 177c�alculo variacional, 310Cardano, 154Cauchy, 297cerolocalizaci�on, 155multiplicidad, 105
Chebichefpolinomio, 73, 113puntos, 116teorema, 74
cociente de Rayleigh, 223,227
constantede Lebesgue, 116
condici�ondel problema a valores propios, 217del problema lineal,30,33de un problema, 10de una matriz, 29,30Lipschitz, 297,298
construcci�onpolinomio de interpolaci�on, 106m�etodo de orden 4, 327spline, 133
convergenciaacelerador, 147interpolaci�on, 119m�etodo de Gauss-Newton, 204m�etodo de Gauss-Seidel, 49m�etodo de Jacobi, 49m�etodos de Runge-Kutta, 335m�etodos multipaso, 350spline, 133
costo, 3descomposici�on LR, 39descomposici�on QR, 90transformada r�apida de Fourier, 291
Cramer, regla de, 35
Dahlsquist, primera barrera, 350descomposici�onCholesky, 44, 45Jordan, 219LR, 37, 38, 39QR, 87Schur, 215, 234valores singulares, 94
diferenciasdivididas, 107�nitas, 109
direcci�onconjugada, 69, 70Newton, 194
dispositivoideal de c�alculo, 2material de c�alculo, 8
Dormand & Prince, 332
362 Indice Alf�abetico
ecuacionescon derivadas parciales, 59cuadr�aticas, 152c�ubicas, 153de grado cuarto, 154diferenciales, 296Euler-Lagrange, 310no resolubles por radicales, 155resolubles por radicales, 152
e�ciencia, 3�-algoritmo, 278errorde aproximaci�on, 5de la aproximaci�on spline, 136de interpolaci�on, 111del m�etodo, 5de truncaci�on, 4f�ormula de cuadratura, 250extrapolaci�on, 149m�etodo gradiente, 68m�etodo gradiente condicionado, 72m�etodo Gauss-Newton, 205,m�etodo Multipaso, 346m�etodo Newton, 176transformada discreta de Fourier,
287errores de redondeo, 115estabilidadalgoritmo de Gauss, 41,42,43backward analysis, 13forward analysis, 12m�etodo de Euler, 319m�etodo de Euler expl��cito, 322m�etodo multipaso, 348num�ericamente estable, 12
Eulerefecto de los errores de redondeo,
317estabilidad, 319m�etodo, 313m�etodo impl��cito, 321pol��gono, 313
extrapolaci�onpolinomial, 145tablero, 147error, 149
factorizaci�on,incompleta de Cholesky, 77
fen�omeno de Runge, 124FFT, 290Fibonacci, busqueda, 129formas tridiagonales, 227f�ormulade Cardano, 154de Newton, 107de Nystr�om, 354
de Rodr��guez, 262f�ormula de cuadratura, 248error, 250Gauss,
264{266orden, 249orden elevado, 259sim�etrica, 249
Fouriererror, 287serie de, 284transformada, 284transformada discreta, 286transformada r�apida, 290
funcionintegrable, 244modelo, 83ortogonal, 260peso, 259funciones con oscilaciones, 281
Galois, teorema, 155GAUINT, 272Gauss,algoritmo de eliminaci�on, 36, 37f�ormulas de cuadratura,
264{266convergencia Gauss-Newton, 204m�etodo Gauss-Newton, 203
Gerschgorin, teorema, 156, 232grado de aproximaci�on, 120grafo dirigido, 49
Hermite, 104, 138Heun, 325
Indice Alf�abetico 363
Interpolaci�onconvergencia, 119de Lagrange, 104{108de Hermite, 104trigonom�etrica, 289
Kantorovich, ver teoremaKonrad, 271
Lagrange, 104�-estrategia, 194Lebesgue, 116Levenberg-Marquandt, 210Lipschitz, 297
mantisa, 8matrizadjunta, 215de�nida positiva, 43Frobenius, 155, 221Hessenberg, 227Hilbert, 31, 87Householder, 88, 228irreducible, 49, 50no-negativa, 50normal, 216ortogonal, 30pseudo-inversa de una, 92sim�etrica, 43tridiagonal, 227Toeplitz, 292unitaria, 215Vandermonde, 31
m�etodo,Adamas expl��citos, 341Adamas impl��citos, 343a un paso, 323BDF, 345de la bisecci�on, 229de la potencia, 223de la potencia generalizada, 233de la potencia inversa, 225Dormand & Prince, 332encajonados, 330Euler, 313, 325falsa posici�on, 165Gauss Newton, 203-205Gauss Seidel, 48{56Gradiente, 67Gradiente Conjugado, 69Gradiente Conjugado
Precondicionado, 75
Heun, 325iterativos, 163{172iterativo simple, 169Jacobi,48{56Levenberg-Marquandt, 210Maehly, 158Multipaso, 341Newton, 157, 174{199Newton con Relajaci�on, 193Newton Simpli�cado, 184predictor-corrector, 344QR, 237QR con shift, 238Sobrerelajaci�on SOR, 56, 58Runge-Kutta, ver Runge-KuttaSSOR precondicionado, 78
m��nicmos cuadrados, 83interpretaci�on estad��stica, 84interpretaci�on geom�etrica, 85
Misovski,ver teorema Newton-Misovski
modi�caciones de Gauss-Newton, 207m�odulo de continuidad, 121
Newtondirecci�on, 194Kantorovich, 185m�etodo, 157, 174{199m�etodo con Relajaci�on, 193m�etodo simpli�cado, 184Misovski, 179regla de, 247
norma,absoluta, 26ciudad-bloque, 25de la convergencia uniforme, 25de una matriz, 26de un vector, 25euclidiana, 25Frobenius, 33mon�otona, 26natural, 72
Nucleo de Peano, 251{254nucleo resolvente, 303
operaci�on elemental, 2ordenf�ormula de cuadratura, 249m�etodo de Runge-Kutta, 325construcci�on de
un m�etodo de orden 4, 327
364 Indice Alf�abetico
Peano, 251{254Pearson, 99Perron-Frobenius, 52pivote, 40pol��gono de Euler, 313polinomiocaracter��stico, 214Chebichef, 73, 113, 262Hermite, 104interpolaci�on de Hermite, 104, 138, 262interpolaci�on de Lagrange, 104Jacobi, 262ortonormales, 260Lagrange, 104, 105Laguerre, 262Legendre, 262, 263
precisi�on de la computadora, 8primitiva, 245problema, 2a valor inicial, 296bien condicionado, 10con valores en la frontera, 300de Cauchy, 296de minimizaci�on, 66mal condicionado, 10
potencia inversa de Wielandt, 225procedimienteo �2 de Aitken, 276productode Kronecker, 65escalar de funciones, 260sesquilineal, 284tensorial de matrices, 60
Property A de Young, 55punto otante, 8de Chebichef, 117punto �jo, 169
pseudo-inversa de una matriz, 92
QUADPACK, 271
Rayleigh, 223,227redondeado, 8
regi�on de estabilidad, 320regladel punto medio, 246del trapecio, 246de Newton, 247de Simpson, 247Cramer, 35
resolvente, 303Rodriguez, 262Romberg, 148Runge-Kuttacondiciones de orden, 327,328convergencia, 335error glogal, 335error local, 325Dormand-Prince, 332esquema, 325Euler, 325Heun, 325Kutta, 330m�etodos, 324m�etodos encajonados, 330orden, 325regla 3/8, 330Runge, 325soluciones continuas, 333
Schur, 215,234serie de Fourier, 284Shootingm�ultiple, 307simple, 303
soluciones continuas, 333SOR, 56Splineaplicaci�on,142construcci�on, 133c�ubico, 131,132error, 136�jo en los bordes, 132natural, 132
SSOR precondicionado, 78radio espectral, 58
Indice Alf�abetico 365
! optimal, 58Sturm, 159
sucesionesarm�onica, 148Bulirsch, 148Romberg, 148Sturm, 159
Sylvester, 232
tablero de extrapolaci�on, 147teoremaCauchy-Lipschitz, 297, 315Chebichef, 74Dirichlet, 285del Muestreo, 289Fundamental del Algebra, 152Galois, 155Gerschgorin, 156, 232Jordan, 219Newton-Kantorovich, 185Newton-Misovski, 179Pearson, 99Perron-Frobenius, 52punto �jo, 169Schur, 215Sylvester, 232Weirstrass, 124Wilkinson, 42Wynn, 278
transformadadiscreta de Fourier, 286r�apida de Fourier, 290
valor absoluto de un vector, 26valor propio, 215valores singulares, 94Van der Pol, 305vector propio, 215
Weirstrass, 124Wilkinson, 42Wynn, 278
366 Indice Alf�abetico
Una Introducci�on al An�alisis Num�erico es un libro
que pretende dar un enfoque moderno de los t�opicos
introductorios de esta disciplina. Las nociones de
estabilidad y error son analizadas minuciosamente en cada
tema. La formulaci�on de m�etodos y algoritmos es tratada
de una manera construccionista, evitando de esta manera
las recetas y trucos que aperecen en otros libros.
El libro cuenta con siete cap��tulos que dan una idea de
lo que constituye actualmente el An�alisis Num�erico. Estos
son: Preliminares, Sistemas Lineales, Interpolaci�on,
Ecuaciones No Lineales, C�alculo de Valores Propios,
Integraci�on Num�erica y Ecuaciones Diferenciales.
Por sus caracter��sticas, este libro puede utilizarse como
texto base, o bien como un complemento bibliogr�a�co.
Est�a destinado a alumnos o profesionales interesados en
el An�alisis Num�erico. Como prerequisito para una buena
utilizaci�on de este libro, se requiere tener los conocimientos
b�asicos de an�alisis y �algebra lineal