You are on page 1of 157

Notas de Aula

Autovalores do Laplaciano

1
Rodney Josué Biezuner
Departamento de Matemática
Instituto de Ciências Exatas (ICEx)
Universidade Federal de Minas Gerais (UFMG)

Notas de aula do curso Tópicos em Análise: Autovalores do Laplaciano do Programa


de Pós-Graduação em Matemática, ministrado durante o segundo semestre do ano de 2006.

16 de novembro de 2006

1
E-mail: rodney@mat.ufmg.br; homepage: http://www.mat.ufmg.br/∼rodney.
Sumário

1 Os Autovalores do Laplaciano 4
1.1 Motivação para o Estudo dos Autovalores do Laplaciano . . . . . . . . . . . . . . . . . . . . . 4
1.1.1 Método de Expansão em Autofunções . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.2 Problema Isospectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Princı́pio do Máximo Fraco: O Laplaciano não possui Autovalores Negativos . . . . . . . . . 10
1.4 Métodos Variacionais para Autovalores de Operadores Lineares . . . . . . . . . . . . . . . . . 12
1.5 Os Espaços de Sobolev W 1,2 e W01,2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5.1 A Derivada Fraca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5.2 Espaços de Sobolev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5.3 Propriedades dos Espaços de Sobolev . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.6 Existência e Unicidade de Soluções para o Laplaciano através do Método Variacional . . . . . 18
1.6.1 Soluções Fracas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.6.2 Existência, Unicidade e Regularidade de Soluções Fracas . . . . . . . . . . . . . . . . . 18
1.7 O Espectro do Laplaciano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.7.1 Existência e Caracterização Variacional dos Autovalores do Laplaciano . . . . . . . . . 21
1.7.2 Comparação de Autovalores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.8 Conjunto Nodal e Domı́nios Nodais de uma Autofunção . . . . . . . . . . . . . . . . . . . . . 30
1.8.1 Princı́pio do Máximo Forte: o Primeiro Autovalor do Laplaciano é Simples . . . . . . 30
1.8.2 Conjunto Nodal e Domı́nios Nodais de Autofunções do Laplaciano . . . . . . . . . . . 32
1.9 Multiplicidade dos Autovalores do Laplaciano . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

2 Método de Diferenças Finitas 39


2.1 O Caso Unidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.1.1 Séries de Taylor e Diferenças Finitas em Uma Dimensão . . . . . . . . . . . . . . . . . 39
2.1.2 Discretização . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.1.3 Resolução Numérica do Problema de Autovalor Unidimensional . . . . . . . . . . . . . 42
2.2 O Caso Bidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.2.1 A Fórmula dos Cinco Pontos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.2.2 Existência e Unicidade da Solução Discreta – Autovalores do Problema Bidimensional 47
2.2.3 Princı́pio do Máximo Discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.2.4 Convergência da Solução Discreta para a Solução Clássica . . . . . . . . . . . . . . . . 51
2.3 Discretizações de Ordem Superior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.3.1 Caso Unidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.3.2 Caso Bidimensional: A Fórmula dos Nove Pontos Compacta . . . . . . . . . . . . . . 56
2.4 Diferenças Finitas em Coordenadas Polares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.5 Domı́nios Arbitrários . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
2.6 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

1
Rodney Josué Biezuner 2

3 Existência e Unicidade de Soluções Discretas 69


3.1 Normas Matriciais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.2 Matrizes Diagonalmente Dominantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.3 Teorema dos Discos de Gershgorin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.4 Propriedade FC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.5 Matrizes Irredutı́veis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
3.6 Invertibilidade de Matrizes de Discretização . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
3.6.1 Esquemas de Diferenças Finitas para o Intervalo e para o Retângulo . . . . . . . . . . 84
3.6.2 Esquema de Coordenadas Polares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.6.3 Esquema de Shortley-Weller . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

4 Métodos Iterativos para a Resolução de Sistemas Lineares 86


4.1 Métodos Iterativos Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.1.1 Método de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.1.2 Método de Gauss-Seidel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.1.3 Método SOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.1.4 Comparação da Velocidade de Convergência dos Três Métodos . . . . . . . . . . . . . 89
4.1.5 Método de Jacobi Amortecido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.2 Análise de Convergência dos Métodos Iterativos Lineares . . . . . . . . . . . . . . . . . . . . . 91
4.2.1 Convergência dos Métodos Iterativos Lineares . . . . . . . . . . . . . . . . . . . . . . . 92
4.2.2 Velocidade de Convergência dos Métodos Iterativos Lineares . . . . . . . . . . . . . . 94
4.2.3 Convergência para Matrizes Simétricas Positivas Definidas . . . . . . . . . . . . . . . . 96
4.3 Convergência dos Métodos Iterativos Lineares para as Matrizes de Discretização . . . . . . . 97
4.3.1 Convergência do Método de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.3.2 Convergência do Método de Gauss-Seidel . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.3.3 Convergência do Método SOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
4.3.4 Convergência do Método de Jacobi Amortecido . . . . . . . . . . . . . . . . . . . . . . 109
4.3.5 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
4.4 Método do Gradiente Conjugado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
4.4.1 Métodos de Descida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
4.4.2 Método da Descida Mais Acentuada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
4.4.3 Método do Gradiente Conjugado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114

5 Métodos Multigrid 120


5.1 Suavização de Erros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
5.2 Operador Restrição e Operador Extensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
5.3 Ciclos V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
5.4 Multigrid Completo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
5.5 Convergência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
5.6 Multigrid Adaptativo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
5.7 Multigrid Algébrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120

6 Método de Elementos Finitos 121


6.1 O Caso Unidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
6.1.1 Formulação Variacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
6.1.2 Elementos Finitos Lineares por Partes . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
6.2 O Caso Bidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
6.2.1 Formulação Variacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
6.2.2 Triangulações e Elementos Finitos Lineares por Partes . . . . . . . . . . . . . . . . . . 125
6.2.3 Interpretação Geométrica do Método de Elementos Finitos . . . . . . . . . . . . . . . 127
6.3 Formulação Abstrata do Método dos Elementos Finitos . . . . . . . . . . . . . . . . . . . . . 127
Rodney Josué Biezuner 3

7 Aproximação de Autovalores do Laplaciano 131


7.1 Elementos Finitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
7.1.1 Resultados Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
7.1.2 Convergência dos Autovalores Discretos para os Autovalores Contı́nuos . . . . . . . . 137
7.1.3 Convergência das Autofunções . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138

8 Métodos Numéricos para a Obtenção de Autovalores de Matrizes 140


8.1 Método das Potências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
8.1.1 Iteração Inversa e Iteração com Deslocamento . . . . . . . . . . . . . . . . . . . . . . . 141
8.2 Iteração de Subespaços . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
8.3 Método QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
8.3.1 O Algoritmo QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
8.3.2 Implementação Eficiente do Algoritmo QR . . . . . . . . . . . . . . . . . . . . . . . . 148
8.4 Métodos para Matrizes Esparsas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
8.4.1 Processo de Arnoldi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
8.4.2 Representação Matricial do Processo de Arnoldi . . . . . . . . . . . . . . . . . . . . . 151
8.4.3 Método de Lanczos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
Capı́tulo 1

Os Autovalores do Laplaciano

Seja Ω ⊂ Rn um aberto limitado. O problema de autovalor para o laplaciano consiste em encontrar os valores
λ tais que
−∆u = λu em Ω (1.1)
admite soluções não triviais, com alguma condição de fronteira imposta sobre u. A equação de autovalor do
laplaciano também é conhecida como equação de Helmholtz. Nestas notas, consideraremos o problema de
autovalor com condição de Dirichlet
½
−∆u = λu em Ω,
(1.2)
u=0 sobre ∂Ω,

e o problema de autovalor com condição de Neumann



 −∆u = λu em Ω,
∂u (1.3)
 =0 sobre ∂Ω.
∂η

O problema é tradicionalmente escrito nesta forma, com o sinal negativo multiplicando o laplaciano, porque
assim todos os autovalores são não-negativos. No caso do problema de Dirichlet, este fato segue imediata-
mente do princı́pio do máximo. De fato, este implica que todos os autovalores, se existirem, devem ser
positivos, como veremos neste capı́tulo. Por outro lado, zero é um autovalor no problema de Neumann, pois
as funções constantes são autofunções associadas a este.

1.1 Motivação para o Estudo dos Autovalores do Laplaciano


1.1.1 Método de Expansão em Autofunções
Vários problemas de equações diferenciais parciais podem ser resolvidos através do chamado método de
expansão em autofunções do laplaciano.
Considere o seguinte problema de Dirichlet para a equação da onda em um aberto limitado Ω ⊂ Rn :


 utt = c2 ∆u se x ∈ Ω e t > 0,

u (x, 0) = f (x) se x ∈ Ω,

 u (x, 0) = g (x) se x ∈ Ω,
 t
u (x, t) = 0 se x ∈ ∂Ω e t > 0,
¡ ¢ ¡ ¢
onde c ∈ R, f ∈ C 2 Ω e g ∈ C 1 Ω . Se Ω ⊂ R2 , então este problema modela as vibrações transversais
de baixa amplitude de uma membrana fina fixada em um aro com o formato de ∂Ω: se ∂Ω é um retângulo,

4
Rodney Josué Biezuner 5

estamos estudando as vibrações de uma membrana retangular; se ∂Ω é um cı́rculo, o estudo é o de uma


membrana circular (um tambor usual), e assim por diante. Este problema pode ser resolvido pelo método
de separação de variáveis: supomos que a solução do problema pode ser escrita na forma

u (x, t) = F (x) G (t) , x ∈ Ω e t > 0.

Substituindo esta expressão na equação da onda, obtemos

F (x) G00 (t) = c2 ∆F (x) G (t) .

Separando as variáveis, segue que


∆F (x) 1 G00 (t)
= 2 = −λ
F (x) c G (t)
onde λ ∈ R é alguma constante a ser determinada. Como em geral G (t) não é a função identicamente nula,
a condição de fronteira implica que F (x) = 0 para x ∈ ∂Ω. Portanto, a função F satisfaz o problema de
Dirichlet para a equação de Laplace
½
−∆F (x) = λF (x) se x ∈ Ω,
F (x) = 0 se x ∈ ∂Ω,

ou seja, λ é um autovalor do laplaciano em Ω. Como veremos, os autovalores do laplaciano em Ω formam


um conjunto enumerável {λn }n∈N e existe um conjunto associado de autofunções {Fn }n∈N que constitui uma
base de Schauder (em outras palavras, um conjunto ortonormal completo) para L2 (Ω). A solução geral para
a equação diferencial ordinária
G00 (t) = −λn c2 G (t)
é p p
Gn (t) = an cos λn t + bn sen λn t.
Logo, a solução do problema da onda é
∞ ³
X p p ´
u (x, t) = an cos λn t + bn sen λn t Fn (x) ,
n=1

onde os coeficientes an , bn são determinados pelas condições iniciais (posição inicial e velocidade inicial da
membrana):

X
f (x) = an Fn (x) ,
n=1
X∞ p
g (x) = bn λn Fn (x) ,
n=1

ou seja, usando as relações de ortonormalidade das funções Fn ,


Z
an = f (x)Fn (x) dx,

Z
1
bn = √ f (x)Fn (x) dx.
λn Ω
Assim, no caso bidimensional, os autovalores do laplaciano correspondem às freqüências naturais de vibração
de uma membrana, enquanto que as autofunções associadas correspondem aos modos naturais de vibração
da membrana. Estas idéias se generalizam para fenômenos vibratórios em três ou mais dimensões.
Rodney Josué Biezuner 6

O método de expansão em autofunções também pode ser usado para resolver o problema de Neumann
da equação da onda ou outros problemas mais gerais. Nestes casos, devem ser buscados os autovalores do
laplaciano de acordo com a condição de fronteira considerada.
O método de expansão em autofunções também pode ser usado para resolver o problema do calor com
as condições de fronteira apropriadas. Por exemplo, para o problema de Dirichlet

 ut = K∆u se x ∈ Ω e t > 0,
u (x, 0) = f (x) se x ∈ Ω,

u (x, t) = 0 se x ∈ ∂Ω e t > 0,

a solução é dada por



X √
u (x, t) = an e− λn Kt
Fn (x) ,
n=1

onde os coeficientes an são determinados pelas condição inicial (distribuição de temperaturas inicial na placa
bidimensional ou no objeto tridimensional):

X
f (x) = an Fn (x) ,
n=1

isto é, Z
an = f (x)Fn (x) dx.

1.1.2 Problema Isospectral


Dada uma variedade Riemanniana compacta com fronteira (M, g), pode-se definir um operador laplaciano
∆g u = div (∇u). Em coordenadas locais, ele é um operador elı́ptico. Como no caso de abertos de Rn , o
laplaciano em variedades possui uma seqüência de autovalores (o seu espectro). Dizemos que duas variedades
Riemannianas são isospectrais se seus espectros coincidirem, contando multiplicidades. Uma questão natural
é a seguinte: duas variedades Riemannianas isospectrais são isométricas? Se considerarmos variedades n-
dimensionais contida em Rn sob a métrica euclidiana, duas variedades serem isométricas é equivalente a
elas serem congruentes do ponto de vista da geometria euclidiana clássica. Esta questão para domı́nios
planos foi colocada de maneira mais colorida por Bers e Kac em 1966 ([Kac]; o último atribui o problema
a Bochner em meados dos anos 1950s) como “é possı́vel escutar o formato de um tambor?”, já que no caso
de domı́nios no plano os autovalores do laplaciano correspondem ao quadrado das freqüências naturais de
vibração produzidas por uma membrana, como vimos na seção anterior. Pode-se traçar as origens desta
especulação ao resultado obtido por Weyl em 1911 [Weyl] de que a área de um domı́nio plano é determinada
pelo espectro do laplaciano; em particular, domı́nios com diferentes áreas nunca podem ter o mesmo espectro.
Sabe-se também que o espectro determina o perı́metro e o número de componentes conexas de um domı́nio
plano (veja [Kac] para referências). Kac, usando a desigualdade perimétrica (perı́metro(Ω) > 4π área(Ω)) e
o fato que a área e o perı́metro são determinadas pelo espectro do laplaciano, conseguiu provar que se um
domı́nio plano possui o mesmo espectro de um disco de raio r, então ele é congruente ao disco, mostrando
que existem domı́nios que são determinados pelo espectro do laplaciano.
No entanto, a resposta a este problema no caso geral é negativa: o formato de um tambor não é audı́vel.
No caso de variedades Riemannianas, Milnor já havia construı́do em 1964 [Milnor] um par de variedades
isospectrais não-isométricas de dimensão 16; vários outros exemplos se seguiram, incluindo superfı́cies de
Riemann (veja [GWW1] e [Protter], para referências) até que em 1980 Vignéras [Vigneras] obteve exemplos
de variedades compactas isospectrais não-isométricas de qualquer dimensão n > 2. Entretanto, a questão de
Kac para domı́nios no plano permaneceu em aberta até 1992, quando Gordon, Webb e Wolpert ([GWW1];
veja [GWW2] para os detalhes completos), usando resultados de teoria de espaços de recobrimento e teoria
dos grupos, obtiveram um par de domı́nios planos simplesmente conexos não-isométricos com os mesmos
Rodney Josué Biezuner 7

espectros de Dirichlet e de Neumann. Os contra-exemplos que eles obtiveram têm o formato de uma região
poligonal, não-convexa, e o método permite a obtenção de uma larga coleção de contra-exemplos. Os
primeiros 54 autovalores do primeiro contra-exemplo de Gordon, Webb e Wolpert, que ficou conhecido como
os tambores GWW, foram encontrados experimentalmente por Sridhar e Kudrolli [Sridhar-Kudrolli]; eles
construı́ram cavidades de microondas com o formato da região poligonal e mediram ressonâncias em ondas
magnéticas transversais, que obedecem a equação de Helmoltz. Posteriormente, vários autores calcularam
autovalores e autofunções dos tambores GWW através de métodos numéricos; veja [Driscoll], [Heuveline] e
as referências nestes artigos.
Uma demonstração mais simples e versátil do resultado de Gordon, Webb e Wolpert, foi dada por Berard
[Berard2], usando a chamada técnica de transplantação de autofunções, introduzida pelo próprio [Berard1].
Os domı́nios são construı́dos a partir de translações, rotações e reflexões de uma única forma, tal como um
triângulo, sem sobreposições. Dada uma autofunção em um domı́nio, pode-se prescrever uma função sobre
o outro domı́nio cujos valores sobre cada parte são combinações lineares dos valores da autofunção sobre
várias das partes do primeiro domı́nio. As combinações são escolhidas de modo a satisfazer as condições
de fronteira e igualar valores da função e suas derivadas nas interfaces entre as partes. O resultado é uma
autofunção na segunda região tendo o mesmo autovalor. Para completar a prova de isospectralidade, basta
mostrar que o procedimento é invertı́vel. Usando esta técnica, Chapman [Chapman] obteve alguns exemplos
que podem ser explicados em nı́vel elementar através de dobraduras de papel e até mesmo um exemplo onde
os autovalores do laplaciano podem ser calculados explicitamente (este exemplo consiste de dois domı́nios
cada um com duas componentes conexas, um retângulo e um triângulo isósceles reto; veja Exemplo 4 na
próxima seção).
Todos os contra-exemplos dados nas referências acima são de domı́nios não-convexos ou com quinas.
Watanabe ([Wat1], [Wat2]) determinou a existência de uma classe não-enumerável de domı́nios suaves que
não é um disco (incluindo exemplos convexos e não-convexos) que são determinados pelos espectros de Dirich-
let ou de Neumann do laplaciano. Outros exemplos de domı́nios determinados pelo espectro do laplaciano,
com a propriedade adicional de serem analı́ticos reais e simétricos com respeito a reflexões em relação a um
eixo horizontal e a um eixo vertical, foram dados por Zelditch [Zelditch]. A identificação de todas as classes
de domı́nios que são determinados pelo espectro do laplaciano é um problema em aberto.

1.2 Exemplos
Exemplo 1. Os autovalores do laplaciano para o problema de Dirichlet no caso unidimensional
½
−u00 = λu em [0, L] ,
u (0) = u (L) = 0,

são
n2 π 2
λn = , n ∈ N.
L2
As autofunções correspondentes são
nπx
un (x) = sen .
L
¤
Exemplo 2. Os autovalores do laplaciano para o problema de Dirichlet no retângulo R = [0, a] × [0, b] ⊂ R2
½
− (uxx + uyy ) = λu em R,
u=0 sobre ∂R,

são µ ¶
2 n2 m2
λnm = π + , n, m ∈ N.
a2 b2
Rodney Josué Biezuner 8

As autofunções correspondentes são


nπx mπy
unm (x, y) = sen sen .
a b
¤
Exemplo 3. Os autovalores do laplaciano para o problema de Dirichlet em um triângulo isósceles reto
T ⊂ R2 com lado menor de comprimento c
½
− (uxx + uyy ) = λu em T,
u=0 sobre ∂T,

são µ ¶
n2 m2
λnm = π 2 2
+ 2 , n, m ∈ N.
c c
As autofunções correspondentes são
nπx mπy mπx nπy
unm (x, y) = sen sen − sen sen .
c c c c
¤
Exemplo 4. [Chapman] A partir dos Exemplos 2 e 3 podemos construir dois domı́nios planos isospectrais
Ω1 e Ω2 que não são isométricos. De fato, cada Ωi é a união disjunta de um retângulo e um triângulo
isósceles reto:

Ω1 = R1 ∪ T1 ,
Ω2 = R2 ∪ T2 ,

onde R1 é um quadrado unitário, R2 é um retângulo de comprimento 2 e altura 1 e T1 e T2 são triângulos


isósceles
√ retos, os lados menores do primeiro tendo comprimento 2 e os do segundo com comprimento
2. Os autovalores de um domı́nio que é a união disjunta de várias componentes conexas (incluindo
as fronteiras de cada componente) é a união dos autovalores de cada componente, as autofunções do
domı́nio sendo as funções que são iguais às autofunções em cada componente e zero nas demais. De
acordo com os Exemplos 2 e 3, segue que os espectros dos domı́nios Ω1 e Ω2 são dados por
½ µ 2 ¶¾
© 2¡ 2 2
¢ª 2 n m2
ΛΩ1 = π n + m n,m∈N ∪ π + ,
4 4 n,m∈N
½ µ 2 ¶¾ ½ µ 2 ¶¾
N N M2
ΛΩ2 = π 2 + M2 ∪ π2 + .
4 N,M ∈N 2 2 N,M ∈N
µ ¶
N2
ΛΩ2 ⊂ ΛΩ1 : Seja λ ∈ ΛΩ2 um autovalor da forma π 2 + M 2 , N, M ∈ N. Se N é par, tomamos
2
N N2
n= e m = M , obtendo + M 2 = n2 + m2 ; se N é ı́mpar, escolhemos n = max (N, 2M ), m =
2 4 µ 2 ¶
N2 n2 m2 N M2
min (N, 2M ), produzindo +M 2 = + . Se λ ∈ ΛΩ2 é um autovalor da forma π 2 + ,
4 4 4 2 2
N2 M2 n2 m2
N, M ∈ N, escolhemos n = N + M e m = |N − M |, de modo que + = + .
2 2 4 4
¡ ¢
ΛΩ1 ⊂ ΛΩ2 : Se λ ∈ ΛΩ1 é um autovalor da forma π 2 n2 + m2 , n, m ∈ N, escolhemos N = 2n
µ 2 ¶
2 2 N2 2 2 n m2
e M = m, obtendo n + m = + M . Seja λ ∈ ΛΩ2 um autovalor da forma π + ,
4 4 4
Rodney Josué Biezuner 9

n n2 m2 N2
n, m ∈ N. Se n é par, tomamos N = m e M = , de modo que + = + M 2 ; se m é par,
2 4 4 4
m
tomamos N = n e M = para produzir o mesmo resultado.
2
Portanto,
ΛΩ1 = ΛΩ2
embora Ω1 e Ω2 não sejam congruentes. Observe que, como requer o resultado obtido por Weil
(discutido
√ na seção anterior), Ω1 e Ω2 possuem a mesma área igual a 2, o mesmo perı́metro igual a
8 + 2 2 e obviamente o mesmo número de componentes conexas. ¤
Exemplo 5. Os autovalores do laplaciano para o problema de Dirichlet no paralelepı́pedo P = [0, a]×[0, b]×
[0, c] ⊂ R3 ½
− (uxx + uyy + uzz ) = λu em P,
u=0 sobre ∂P,
são µ ¶
2 n2 m2 k2
λnmk = π + + , n, m, k ∈ N.
a2 b2 c2
As autofunções correspondentes são
nπx mπy kπz
unmk (x, y) = sen sen sen .
a b c
¤
© ª
Exemplo 6. Os autovalores do laplaciano para o problema de Dirichlet no disco D = x ∈ R2 : kxk 6 R
 µ ¶
 1 1
− urr + ur + + 2 uθθ = λu se 0 < r < 1 e 0 < θ < 2π,
r r

u=0 se r = R e 0 < θ < 2π,
são ³α ´2
n,m
λnm = , n = 0, 1, 2, . . . , m = 1, 2, . . .
R
onde αn,m é o m-ésimo zero positivo da função de Bessel do primeiro tipo Jn

(−1)k ³ r ´2k+n

X
Jn (r) = .
k!(k + n)! 2
k=0

As autofunções correspondentes são

u0m (r, θ) = J0 (λ0m r) ,


1
unm (r, θ) = cos nθJn (λnm r) e u2nm (r, θ) = sen nθJn (λnm r) .

Note que para m = 1, 2, . . . temos duas autofunções distintas para um dado autovalor, isto é, tais
autovalores têm multiplicidade pelo menos igual a 2. ¤
© ª
Exemplo 7. Os autovalores do laplaciano para o problema de Dirichlet na bola B = x ∈ R3 : kxk 6 R
 µ ¶
 2 1 ¡ ¢
− urr + ur + 2 uθθ + cot θ uθ + csc2 θuφφ = λu se 0 < r < 1, 0 < θ < 2π e 0 < φ < π
r r

u=0 se r = R, 0 < θ < 2π e 0 < φ < π
são µ ¶2
αn+ 12 ,m
λnm = , n = 0, 1, 2, . . . , m = 1, 2, . . .
R
Rodney Josué Biezuner 10

onde αn+ 12 ,m é o m-ésimo zero positivo da função de Bessel do primeiro tipo Jn+ 12

X (−1)k ³ r ´2k+n+ 12
Jn+ 12 (r) = ¡ 1
¢ .
k!Γ k + n + 2 +1 2
k=0

À cada autovalor λnm correspondem 2n + 1 autofunções

uknm (r, θ, φ) = jn (λnm r) Yn,k (θ, φ) , k = −n, −n + 1, . . . , −1, 0, 1, . . . , n − 1, n,

onde jn é a função de Bessel esférica do primeiro tipo


r
π
jn (r) = J 1 (r),
2r n+ 2

e Yn,k são as harmônicas esféricas


s
2n + 1 (n − k)! k
Yn,k (θ, φ) = P (cos θ) eikφ ,
4π (n + k)! n

com Pnk sendo a função de Legendre

1 dn ¡ 2 ¢n
Pn0 (r) = r −1 ,
2n n!
dr n

k¡ ¢k/2 dk 0
Pnk (r) = (−1) 1 − r2 P (r) , se 0 6 k 6 n,
drk n
k (n + k)! −k
Pnk (r) = (−1) P (r) , se − n 6 k < 0.
(n − k)! n

1.3 Princı́pio do Máximo Fraco: O Laplaciano não possui Auto-


valores Negativos
1.1 Lema. (Princı́pio do Máximo Fraco) Seja Ω ⊂ Rn um aberto limitado. Seja u ∈ C 2 (Ω) ∩ C 0 (Ω).
Se ∆u > 0 em Ω, então
max u = max u;
Ω ∂Ω

Se ∆u 6 0 em Ω, então
min u = min u.
Ω ∂Ω

Em particular, se u satisfaz ∆u = 0 em Ω, então u atinge o seu máximo e o seu mı́nimo na fronteira


de Ω.

Prova: Sejam
M = max u e m = max u
Ω ∂Ω

e suponha por absurdo que m < M . Então existe um ponto x0 ∈ Ω\∂Ω tal que u (x0 ) = M . Defina a função

M −m 2
v (x) = u (x) + |x − x0 | ,
4d2
Rodney Josué Biezuner 11

d = diam Ω. Se x ∈ ∂Ω, temos


M −m 2 3 M
v (x) 6 m + 2
d = m+ < M,
4d 4 4
e como u (x0 ) = v (x0 ) = M , segue que o máximo de v também é assumido em um ponto de Ω\∂Ω, digamos
em x. Mas, como x é um ponto de máximo para v, devemos ter

∆v (x) 6 0,

enquanto que, pela definição de v e pelo fato de u satisfazer a equação de Laplace, para todo x temos
M −m M −m
∆v (x) = ∆u (x) + 2
> > 0,
2d 2d2
uma contradição. Isso mostra que u atinge o seu máximo em ∂Ω.
Para provar a segunda afirmação, basta considerar −u e observar que min u = − max(−u). ¥
Defina a parte positiva e a parte negativa de uma função u respectivamente por

u+ = max(u, 0),
u− = min(u, 0).

1.2 Corolário. Seja Ω ⊂ Rn um aberto limitado. Seja λ ∈ R, λ 6 0. Seja u ∈ C 2 (Ω) ∩ C 0 (Ω).


Se −∆u − λu 6 0 em Ω, então
max u 6 max u+ .
Ω ∂Ω

Se −∆u − λu > 0 em Ω, então


min u > min u− .
Ω ∂Ω

Em particular, se u satisfaz −∆u = λu em Ω, então

max |u| = max |u|


Ω ∂Ω

de modo que se o problema de Dirichlet


½
−∆u = λu em Ω,
u=0 sobre ∂Ω,

possuir solução u ∈ C 2 (Ω) ∩ C 0 (Ω), então a solução é trivial. Conseqüentemente, o problema de


Dirichlet para o laplaciano não possui autovalores negativos ou nulos.

Prova. Assuma primeiro −∆u − λu 6 0 em Ω. Se u 6 0 em Ω, então o corolário vale trivialmente. Logo,


podemos assumir que Ω+ = {x ∈ Ω : u(x) > 0} 6= ∅. Como −λu > 0 em Ω+ , temos que ∆u > 0 em Ω+ .
Segue do Princı́pio do Máximo Fraco que
max u = max+
u.
Ω+ ∂Ω

Mas u = 0 em ∂Ω+ ∩ Ω, logo o máximo deve ser atingido em ∂Ω. O caso −∆u − λu 6 0 segue do primeiro
considerando −u. ¥
Rodney Josué Biezuner 12

1.4 Métodos Variacionais para Autovalores de Operadores Lin-


eares
Nesta seção vamos rever os métodos variacionais para a obtenção de autovalores para operadores lineares
definidos em espaços de dimensão finita providos de produto interno. A teoria será então generalizada mais
tarde para obter a existência e algumas propriedades básicas dos autovalores do laplaciano. Em primeiro
lugar, discutiremos o Princı́pio de Rayleigh, que afirma que o menor autovalor de um operador linear pode
ser encontrado como o mı́nimo de um certo funcional, enquanto que o seu maior autovalor é o máximo deste
mesmo funcional:

1.3 Teorema. (Princı́pio de Rayleigh) Seja V um espaço vetorial com produto interno de dimensão n e
T : V −→ V um operador linear auto-adjunto. Sejam λ1 6 . . . 6 λn os autovalores de T , de modo que
λ1 é o menor autovalor de T e λn é o maior autovalor de T . Então
hT x, xi
λ1 = min 2 = min hT x, xi (1.4)
x∈V
x6=0
kxk x∈V
kxk=1

e
hT x, xi
λn = max 2 = max hT x, xi (1.5)
x∈V
x6=0
kxk x∈V
kxk=1

Prova: Seja B = {v1 , . . . , vn } uma base ortonormal de autovetores de T correspondentes aos autovalores
Pn
λ1 6 . . . 6 λn de T . Então, para todo x = xi vi ∈ V temos
i=1
* Ã n
! n
+ * n n
+ * n n
+
X X X X X X
hT x, xi = T xi vi , xj vj = xi T vi , xj vj = λi xi vi , xj vj
i=1 j=1 i=1 j=1 i=1 j=1
n
X n
X
= hλi xi vi , xj vj i = λi xi xj hvi , vj i
i,j=1 i,j=1
X n
= λi x2i .
i=1

Portanto, para todo x ∈ V , x 6= 0, vale


n
X n
X
2 2
λ1 kxk = λ1 x2i 6 hT x, xi 6 λn x2i = λn kxk
i=1 i=1

O mı́nimo é atingido em x = v1 , ou em qualquer outro autovetor de T associado a λ1 , e o máximo é atingido


em x = vn , ou em qualquer outro autovetor de T associado a λn . ¥
O quociente
hT x, xi
2
kxk
é chamado o quociente de Rayleigh.
Os demais autovalores de T , λ2 , . . . , λn−1 , são pontos de sela e podem ser encontrado através de um
princı́pio de minimax:

1.4 Teorema. (Princı́pio de Minimax para Autovalores) Seja V um espaço vetorial com produto interno de
dimensão n e T : V −→ V um operador linear auto-adjunto. Sejam λ1 6 . . . 6 λn os autovalores de
Rodney Josué Biezuner 13

T . Então, se Wj denota o conjunto dos subespaços de V de dimensão j, temos


   
hT x, xi
λj = min  max hT x, xi = min max . (1.6)
W ∈Wj x∈W W ∈Wj x∈W kxk2
kxk=1 x6=0

ou, dualmente,    
hT x, xi 
λj = max  min hT x, xi = max  min . (1.7)
W ∈Wj−1 x⊥W W ∈Wj−1 x⊥W kxk2
kxk=1 x6=0

Prova: Provemos primeiro (1.6). Seja W ⊂ V um subespaço de dimensão j. Primeiro mostraremos que

max hT x, xi > λj .
x∈W
kxk=1

Seja B = {v1 , . . . , vn } uma base ortonormal de autovetores de T correspondentes aos autovalores λ1 , . . . , λn .


Seja Z = hv1 , . . . , vj−1 i. Como Z ⊥ = hvj , . . . , vn i, temos
¡ ¢ ¡ ¢ ¡ ¢
n > dim W + Z ⊥ = dim W + dim Z ⊥ − dim W ∩ Z ⊥ = j + n − (j − 1) − dim W ∩ Z ⊥ ,

de modo que ¡ ¢
dim W ∩ Z ⊥ > 1
P
n P
n
e existe um vetor x ∈ W ∩ Z ⊥ tal que kxk = 1. Escrevendo x = xk vk , temos kxk = x2k = 1, donde
k=j k=j
* n n
+ * n n
+ n
X X X X X
hT x, xi = xk T vk , xl vl = xk λk vk , xl vl = λk xk xl hvk , vl i
k=j l=j k=j l=j k,l=j
n
X Xn
= λk x2k > λj x2k = λj .
k=j k=j

Para completar a demonstração, devemos encontrar um subespaço W ⊂ V de dimensão j tal que hT x, xi 6


λj para todo x ∈ W com kxk = 1. Tomemos W = hv1 , . . . , vj i. Temos
* j j
+ * j j
+ j
X X X X X
hT x, xi = xk T vk , xl vl = xk λk vk , xl vl = λk xk xl hvk , vl i
k=1 l=1 k=1 l=1 k,l=1
j
X j
X
= λk x2k 6 λj x2k = λj .
k=1 k=1

O minimax é atingido em vj .
Vamos agora provar o princı́pio dual (1.7). Seja W ⊂ V um subespaço de dimensão j − 1. Primeiro
mostraremos que
min hT x, xi 6 λj .
x⊥W
kxk=1

Como antes, B = {v1 , . . . , vn } é uma base ortonormal de autovetores de T correspondentes aos autovalores
λ1 , . . . , λn . Seja Z = hv1 , . . . , vj i. Como W ⊥ tem dimensão n − (j − 1), temos
¡ ¢ ¡ ¢ ¡ ¢
n > dim W ⊥ + Z = dim W ⊥ + dim Z − dim W ⊥ ∩ Z = n − (j − 1) + j − dim W ⊥ ∩ Z ,
Rodney Josué Biezuner 14

de modo que ¡ ¢
dim W ⊥ ∩ Z > 1
P
j P
j
e existe um vetor x ∈ Z tal que x ⊥ W e kxk = 1. Escrevendo x = xk vk , temos kxk = x2k = 1, donde
k=1 k=1
* j j
+ * j j
+ j
X X X X X
hT x, xi = xk T vk , xl vl = xk λk vk , xl vl = λk xk xl hvk , vl i
k=1 l=1 k=1 l=1 k,l=1
j
X j
X
= λk x2k 6 λj x2k = λj .
k=1 k=1

Para completar a demonstração, devemos encontrar um subespaço W ⊂ V de dimensão j − 1 tal que


hT x, xi > λj para todo x ⊥ W com kxk = 1. Tomemos W = hv1 , . . . , vj−1 i. Então W ⊥ = hvj , . . . , vn i e
para todo x ∈ W ⊥ com kxk = 1 temos
* n n
+ * n n
+ n
X X X X X
hT x, xi = xk T vk , xl vl = xk λk vk , xl vl = λk xk xl hvk , vl i
k=j l=j k=j l=j k,l=j
n
X Xn
= λk x2k > λj x2k = λj .
k=j k=j

O maximin é atingido em vj . ¥

1.5 Os Espaços de Sobolev W 1,2 e W01,2


Para generalizar os métodos variacionais discutidos na seção anterior para encontrar os autovalores do Lapla-
ciano, é necessário definir um espaço de funções dotado de um produto interno adequado. Para domı́nios
limitados, o espaço adequado para se trabalhar é o espaço de Sobolev.

1.5.1 A Derivada Fraca


Seja Ω um aberto de Rn . Suponha que u ∈ C 1 (Ω) é uma função real continuamente diferenciável. Se
ϕ ∈ C0∞ (Ω) é uma função suave com suporte compacto em Ω, segue da fórmula de integração por partes que
Z Z
∂ϕ ∂u
u dx = − ϕ dx (1.8)
Ω ∂x i Ω ∂x i

para i = 1, . . . , n. Não há termos de fronteira exatamente porque ϕ tem suporte compacto em Ω.

Definição. Seja Ω ⊂ Rn um subconjunto aberto e u ∈ L1loc (Ω). Dizemos que uma função vi ∈ L1loc (Ω) é
uma derivada fraca de u, se Z Z
∂ϕ
u dx = − vi ϕ dx, (1.9)
Ω ∂xi Ω

para toda ϕ ∈ C0∞ (Ω). Se este for o caso, denotamos

∂u
vi = . (1.10)
∂xi
Dizemos que u é fracamente diferenciável se todas as derivadas fracas de primeira ordem de u
existirem. O espaço vetorial das funções fracamente diferenciáveis é denotado por W 1 (Ω).
Rodney Josué Biezuner 15

Quando existe, vi é únicamente determinada a menos de conjuntos de medida nula. Claramente C 1 (Ω) ⊂
W 1 (Ω): o conceito de derivada fraca é uma extensão do conceito clássico de derivada que mantém a validade
da fórmula de integração por partes.

Exemplo 1. Sejam n = 1, Ω = (0, 2) e


½
x se 0 < x 6 1,
u(x) =
1 se 1 6 x < 2.

Então, se ½
1 se 0 < x 6 1,
v(x) =
0 se 1 6 x < 2,
temos u0 (x) = v(x). De fato, dada ϕ ∈ C0∞ ((0, 2)), temos
Z 2 Z 1 Z 2
uϕ0 dx = xϕ0 dx + ϕ0 dx
0 0 1
Z 1
= ϕ(1) − 0 − ϕ dx + 0 − ϕ(1)
0
Z 2
=− vϕ dx.
0

Exemplo 2. Sejam n = 1, Ω = (0, 2) e


½
x se 0 < x 6 1,
u(x) =
2 se 1 6 x < 2.

Então u não possui uma derivada fraca. Com efeito, suponha por absurdo que exista uma função
v ∈ L1loc ((0, 2)) satisfazendo
Z 2 Z 2
uϕ0 dx = − vϕ dx,
0 0

para toda ϕ ∈ C0∞ ((0, 2)). Então


Z 2 Z 1 Z 2 Z 1
− vϕ dx = xϕ0 dx + 2 ϕ0 dx = ϕ(1) − 0 − ϕ dx + 0 − 2ϕ(1)
0 0 1 0
Z 1
= −ϕ(1) − ϕ dx,
0

ou seja, Z Z
1 2
ϕ(1) = ϕ dx + vϕ dx.
0 0

para toda ϕ ∈ C0∞ ((0, 2)). Escolhendo uma seqüência de funções-teste (ϕm ) ⊂ C0∞ ((0, 2)) satisfazendo
ϕm (1) = 1, 0 6 ϕm 6 1 e ϕm (x) → 0 para todo x 6= 1, obtemos através do teorema da convergência
dominada de Lebesgue que
·Z 1 Z 2 ¸
1 = lim ϕm (1) = lim ϕm dx + vϕm dx = 0,
m→∞ m→∞ 0 0

uma contradição. ¤
Rodney Josué Biezuner 16

Estes exemplos não são acidentais. É possı́vel provar que uma função real em uma variável real possui uma
derivada fraca se e somente se ela for absolutamente contı́nua (a menos de modificações em conjuntos de
medida nula); em particular, isso implica que ela é diferenciável no sentido clássico em quase todo ponto. No
caso de funções de várias variáveis, pode-se provar que uma função u ∈ L1loc (Ω) é fracamente diferenciável
se e somente se ela é igual, a menos de um conjunto de medida nula, a uma função que (1) é absolutamente
contı́nua em quase todos os segmentos em Ω paralelos aos eixos coordenados e (2) as derivadas parciais de
u são localmente integráveis. Para maiores detalhes, veja [Biezuner].

1.5.2 Espaços de Sobolev


Seja Ω um aberto de Rn . Definimos
½ ¾
1,2 1 2 ∂u 2
W (Ω) = u ∈ W (Ω) : u ∈ L (Ω) e ∈ L (Ω) para todo i = 1, . . . , n . (1.11)
∂xi

W 1,2 (Ω) é claramente um espaço vetorial. Ele é munido da norma


ÃZ n Z ¯ ¯ !1/2
X ¯ ∂u ¯2
kukW 1,2 (Ω) = |u| +
2 ¯ ¯ . (1.12)
¯ ∂xi ¯
Ω i=1 Ω

Definimos também
W01,2 (Ω) = fecho de C0∞ (Ω) em W 1,2 (Ω).
Em ambos os espaços vetoriais normados W 1,2 (Ω) e W01,2 (Ω) definimos o produto interno
Z n Z
X Xn ¿ À
∂u ∂v ∂u ∂v
hu, vi = uv + = hu, viL2 (Ω) + , . (1.13)
Ω i=1 Ω ∂xi ∂xi i=1
∂xi ∂xi L2 (Ω)

Desta forma, a norma definida acima é derivada deste produto interno. Ela também é equivalente à norma
µZ ¶1/2 n
ÃZ ¯ ¯ !1/2
X ¯ ∂u ¯2
kukW 1,2 (Ω) = |u|
2
+ ¯ ¯
¯ ∂xi ¯
Ω i=1 Ω
° n °
X
° ∂u °
= kukL2 (Ω) + ° °
° ∂xi ° 2 .
i=1 L (Ω)

1.5.3 Propriedades dos Espaços de Sobolev


Assumiremos os resultados a seguir sem demonstração (veja [Biezuner] para a demonstração destes resulta-
dos).

1.3 Teorema. W 1,2 (Ω) é um espaço de Hilbert. Em particular, W01,2 (Ω) também é um espaço de Hilbert.

1.4 Teorema. C ∞ (Ω) ∩ W 1,2 (Ω) é denso em W 1,2 (Ω). Se Ω um aberto com fronteira de classe C 1 , então
C ∞ (Ω) ∩ W 1,2 (Ω) é denso em W 1,2 (Ω).

Os seguintes resultados caracterizam o espaço W01,2 (Ω):

1.5 Teorema. Se u ∈ W 1,2 (Ω) satisfaz supp u ⊂⊂ Ω, então u ∈ W01,2 (Ω).


Se Ω ⊂ Rn é um aberto com fronteira de classe C 1 e se u ∈ W 1,2 (Ω) ∩ C(Ω), então u ∈ W01,2 (Ω) se e
somente se u = 0 em ∂Ω.
Rodney Josué Biezuner 17

As propriedades de imersão compacta dos espaços de Sobolev são as que lhe conferem a sua grande
utilidade. Recordamos os conceitos de imersão contı́nua e imersão compacta:

Definição. Seja E um subespaço vetorial normado de um espaço normado F (ou seja, a norma em E não
precisa necessariamente ser a norma induzida de F ). Dizemos que a inclusão E ⊂ F é uma imersão
(contı́nua) se a aplicação inclusão I : E → F definida por Ix = x for contı́nua. Denotamos este fato
por
E ,→ F.
Se, além disso, a aplicação inclusão for compacta, dizemos que a imersão E ,→ F é compacta.
Denotaremos a imersão compacta de um espaço vetorial normado E em um espaço vetorial normado
F por
E ,→
→ F.

Como a aplicação inclusão é linear, o fato de existir uma imersão E ,→ F é equivalente à existência de uma
constante C tal que
kxkF 6 C kxkE para todo x ∈ E.
Em particular, se (xn ) é uma seqüência de Cauchy em E, então (xn ) também é uma seqüência de Cauchy
em F ; logo, se xn → x em E, então xn → x em F também. É claro que se E tem a norma induzida de F ,
então a inclusão E ⊂ F é uma imersão, com C = 1. Quando existe uma imersão E ,→ F , dizer que ela é
compacta é equivalente a dizer que seqüências limitadas de (E, k·kE ) possuem subseqüências convergentes
em (F, k·kF ).

1.6 Teorema. (Teorema da Imersão de Sobolev) Seja Ω ⊂ Rn um aberto. Então

W 1,2 (Ω) ,→ L2 (Ω),


W01,2 (Ω) ,→ L2 (Ω).

Prova: Usando a norma equivalente introduzida acima, se E = W 1,2 (Ω) ou se E = W01,2 (Ω) temos
n °
X °
° ∂u °
kukE = kukL2 (Ω) + ° ° > kukL2 (Ω) .
° ∂xi °
i=1 L2 (Ω)

1.7 Teorema. (Teorema de Rellich–Kondrakhov) Seja Ω ⊂ Rn um aberto limitado com fronteira de classe
C 1 . Então
W 1,2 (Ω) ,→
→ L2 (Ω) ,

Se trocarmos W 1,2 por W01,2 , o resultado é válido para abertos arbitrários.


1.8 Teorema. (Desigualdade de Poincaré) Seja Ω ⊂ Rn um aberto limitado. Então
µ ¶1/n
|Ω|
kukL2 (Ω) 6 k∇ukL2 (Ω) .
ωn

para todo u ∈ W01,2 (Ω) (aqui ωn é o volume da bola unitária em Rn ).

Observe que o Teorema 1.8 não é válido se trocamos W01,2 por W 1,2 porque as funções constantes pertencem
a W 1,2 e não satisfazem a desigualdade de Poincaré (pois têm derivada nula).
Rodney Josué Biezuner 18

1.6 Existência e Unicidade de Soluções para o Laplaciano através


do Método Variacional
De agora em diante, Ω ⊂ Rn será sempre um aberto limitado.

1.6.1 Soluções Fracas


Definição. Seja f ∈ L2 (Ω). Dizemos que u ∈ W01,2 (Ω) é uma solução fraca para o problema de Dirichlet
½
∆u = f em Ω,
(1.14)
u=0 sobre ∂Ω,
se Z Z
∇u · ∇v = − fv para todo v ∈ W01,2 (Ω) .
Ω Ω

Se os dados do problema de Dirichlet (1.14) são suficientemente regulares e a solução fraca também é
suficientemente regular, então ela é uma solução clássica:

1.9 Proposição. (Soluções Fracas ¡Regulares


¢ são Soluções Clássicas) Sejam f ∈ C 0 (Ω). Se existir uma
2 0
solução fraca u ∈ C (Ω) ∩ C Ω para o problema
½
∆u = f em Ω,
u=0 sobre ∂Ω,

então u é uma solução clássica.

Prova: Pela Primeira Identidade de Green, para todo v ∈ C0∞ (Ω) temos
Z Z Z Z
∂u
∇u · ∇v = v− (∆u) v = − (∆u) v.
Ω ∂Ω ∂ν Ω Ω

Daı́ e da definição de solução fraca segue que


Z Z
(∆u) v = fv
Ω Ω

para todo v ∈ C0∞ (Ω), ou seja,


∆u = f em Ω.
¡ ¢
Além disso, como u ∈ W01,2 (Ω) ∩ C Ω , segue da caracterização dos espaços W01,2 (Ω) que u = 0 em ∂Ω. ¥
0

1.6.2 Existência, Unicidade e Regularidade de Soluções Fracas


Quando uma solução fraca existe ela é única:

1.10 Proposição. (Unicidade da Solução Fraca) Seja f ∈ L2 (Ω). Se existir uma solução fraca para o
problema ½
∆u = f em Ω,
u=0 sobre ∂Ω,
então ela é única.
Rodney Josué Biezuner 19

Prova: O resultado segue imediatamente da estabilidade fraca da equação de Poisson, isto é, se u1 , u2 ∈
W 1,2 (Ω) satisfazem
∆u1 = f1 , ∆u2 = f2 em Ω
para f1 , f2 ∈ L2 (Ω), e
u1 − u2 ∈ W01,2 (Ω) ,
então existe uma constante C = C (n, Ω) tal que

ku1 − u2 kW 1,2 (Ω) 6 C kf1 − f2 kL2 (Ω) . (1.15)

De fato, temos Z Z
∇ (u1 − u2 ) · ∇v = − (f1 − f2 ) v,
Ω Ω

para todo v ∈ W01,2 (Ω), em particular para v = u1 − u2 . Portanto segue da desigualdade de Poincaré que
Z
2 2
k∇u1 − ∇u2 kL2 (Ω) = |∇ (u1 − u2 )|
ZΩ
= (f1 − f2 ) (u1 − u2 )

6 kf1 − f2 kL2 (Ω) ku1 − u2 kL2 (Ω)
6 C kf1 − f2 kL2 (Ω) k∇u1 − ∇u2 kL2 (Ω) ,

donde
k∇u1 − ∇u2 kL2 (Ω) 6 C kf1 − f2 kL2 (Ω) .
Novamente usando a desigualdade de Poincaré, isso é suficiente para estabelecer (1.15). ¥
No caso do problema de Dirichlet para a equação de Poisson, a existência de uma solução fraca é imedi-
atamente estabelecida pelo equivalente ao princı́pio de Dirichlet visto no inı́cio do capı́tulo anterior:

1.11 Teorema. (Existência da Solução Fraca) Sejam f ∈ L2 (Ω). Então existe uma única solução fraca
u ∈ W01,2 (Ω) para o problema ½
∆u = f em Ω,
(1.16)
u=0 sobre ∂Ω.

Prova: Considere o funcional de Dirichlet I : W01,2 (Ω) → R definido por


Z Z
1 2
I (v) = |∇v| dx + f v.
2 Ω Ω

Afirmamos que um ponto crı́tico u deste funcional é uma solução fraca de (1.16). De fato, se u é um ponto
crı́tico de I, então a derivada direcional de I na direção de qualquer v ∈ W01,2 (Ω) é igual a 0, logo
· Z Z ¯
d d 1 ¯
f (u + tv)¯¯
2
0= [I (u + tv)|t=0 = |∇ (u + tv)| +
dt dt 2 Ω Ω t=0
Z Z
= ∇u · ∇v + fv
Ω Ω

para todo v.
Para provar o teorema, basta então encontrar uma função u ∈ W01,2 (Ω) que minimiza I, isto é, u tal que
µ Z Z ¶
1 2
I (u) = min |∇v| dx + f v ,
v∈W01,2 (Ω) 2 Ω Ω
Rodney Josué Biezuner 20

pois um ponto de mı́nimo é um ponto crı́tico de um funcional diferenciável. Pela desigualdade de Poincaré,
o funcional I é limitado por baixo, pois
Z Z
1 2
I (v) = k∇vkL2 (Ω) + f (v − g) + fg
2 Ω Ω
¯Z ¯ Z
1 ¯ ¯
> k∇vkL2 (Ω) − ¯¯ f (v − g)¯¯ +
2
fg
2 Ω Ω
Z
1 2
> k∇vkL2 (Ω) − kf kL2 (Ω) k(v − g)kL2 (Ω) + fg
2 Ω
Z
1 2
> k∇vkL2 (Ω) − C kf kL2 (Ω) k∇ (v − g)kL2 (Ω) + fg
2 Ω
Z
1 2
> k∇vkL2 (Ω) − C kf kL2 (Ω) k∇vkL2 (Ω) + f g − C kf kL2 (Ω) k∇gkL2 (Ω) ,
2 Ω

t2
e a função real h (t) = − at + b é limitada por baixo para t ∈ R, quaisquer que sejam os valores de a, b ∈ R.
2
Podemos então definir
I0 = inf
1,2
I (u) .
v∈W0 (Ω)

Seja (um )m∈N uma seqüência minimizante para I, isto é,


Z Z
1 2
I (um ) = |∇um | dx + f u m → I0 .
2 Ω Ω

É fácil ver, que o funcional I é convexo. De fato, isto é uma conseqüência imediata da convexidade da função
2
x 7→ |x|
Z Z
2
I (tu + (1 − t) v) = |t∇u + (1 − t) ∇v| dx + f (tu + (1 − t) v)
ZΩ h i

Z Z
2 2
6 t |∇u| + (1 − t) |∇v| dx + t f u + (1 − t) fv
Ω Ω Ω
= tI (u) + (1 − t) I (v) .
2
A convexidade da função x 7→ |x| por sua vez pode ser provada do seguinte modo:
¡ ¢ 2 h i
2 2 2 2 2
|tx + (1 − t) y| − t |x| − (1 − t) |y| = t2 − t |x| + 2t (1 − t) x · y + (1 − t) − (1 − t) |y|
2
= −t (1 − t) |x − y| 6 0.
Logo, µ ¶
uk + ul 1 1
I0 6 I 6 I (uk ) + I (ul ) → I0
2 2 2
quando k, l → ∞. Por outro lado, temos
Z Z Z Z ¯ µ ¶¯2
1 ¯ uk + ul ¯¯
2
|∇ (uk − ul )| dx =
2
|∇uk | dx +
2
|∇ul | dx − 2 ¯
2 Ω ¯∇ 2 ¯ dx
ZΩ Ω
Z Z Ω
Z
2 2
= |∇uk | dx + 2 f uk + |∇ul | dx + 2 f ul
Ω Ω Ω Ω
Z ¯ µ ¶¯2 Z µ ¶
¯ uk + ul ¯¯ uk + ul
−2 ¯
¯∇ 2 ¯ dx − 4 f
2
Ω Ω
µ ¶
uk + ul
= 2I (uk ) + 2I (ul ) − 4I ,
2
Rodney Josué Biezuner 21

donde concluı́mos que (∇um ) é uma seqüência de Cauchy em L2 (Ω). Pela desigualdade de Poincaré temos
que
kuk − ul kL2 (Ω) 6 C k∇uk − ∇ul kL2 (Ω) ,
logo (um ) também é uma seqüência de Cauchy em L2 (Ω) e portanto (um ) é uma seqüência de Cauchy em
W01,2 (Ω), ou seja, existe u ∈ W01,2 (Ω) tal que um → u em W01,2 (Ω). Em particular, segue que I (u) = I0 .
Como um → u em L2 (Ω) e ∇um → ∇u em L2 (Ω), temos que
Z Z Z Z
1 2 1 2
|∇um | dx + f um → |∇u| dx + f u,
2 Ω Ω 2 Ω Ω

e concluı́mos que u é o minimizador do funcional de Dirichlet I. ¥


Se a fronteira e os dados do problema são suficientemente regulares, pode-se provar que uma solução
fraca é uma solução clássica (veja [Gilbarg-Trudinger] ou [Biezuner] para os detalhes):

1.12 Teorema. Seja Ω ⊂ Rn um aberto limitado com fronteira de classe C ∞ . Seja f ∈ C ∞ (Ω).. Se
u ∈ W01,2 (Ω) é uma solução fraca de
½
∆u = f em Ω,
u=0 sobre ∂Ω,
¡ ¢
então u ∈ C ∞ Ω .

1.7 O Espectro do Laplaciano


1.7.1 Existência e Caracterização Variacional dos Autovalores do Laplaciano
Para o problema de Dirichlet, o espaço natural para aplicar o método variacional é W01,2 (Ω), enquanto que
para o problema de Neumann trabalharemos em W 1,2 (Ω). Examinaremos primeiro o problema de autovalor
do laplaciano para condição de fronteira de Dirichlet.

Definição. Dizemos que u ∈ W01,2 (Ω) é uma solução fraca para o problema de autovalor do laplaciano
para condição de fronteira de Dirichlet
½
−∆u = λu em Ω,
u=0 sobre ∂Ω,
se Z Z
∇u · ∇v = λ uv para todo v ∈ W01,2 (Ω) . (1.17)
Ω Ω

Aceitaremos o seguinte resultado de regularidade sem demonstração.

1.13 Teorema. Seja Ω ⊂ Rn um aberto limitado com fronteira de classe C ∞ . Seja λ ∈ R. Se u ∈ W01,2 (Ω)
é uma solução fraca de ½
−∆u = λu em Ω,
u=0 sobre ∂Ω,
¡ ¢
então u ∈ C ∞ Ω .
1.14 Teorema. Seja Ω ⊂ Rn um aberto limitado. Então o problema de autovalor

−∆u = λu em Ω, u ∈ W01,2 (Ω)

possui um número infinito enumerável de autovalores

0 < λ 1 6 λ2 6 . . . 6 λj 6 . . .
Rodney Josué Biezuner 22

tais que
λj → ∞,
e autofunções {uj } que constituem um sistema ortonormal completo para L2 (Ω), isto é,

X
v= αi ui
i=1

para todo v ∈ L2 (Ω). Em particular,



X
2 2
kvkL2 (Ω) = hv, ui iL2 (Ω) .
i=1

Além disso, para todo v ∈ W01,2 (Ω) vale



X
2 2
k∇vkL2 (Ω) = λi hv, ui iL2 (Ω) .
i=1

Prova: Generalizando o princı́pio de Rayleigh, gostarı́amos de obter o primeiro autovalor do laplaciano


como o mı́nimo do funcional de Rayleigh:
h−∆u, uiL2 (Ω)
λ1 = inf 2 .
u∈W01,2 (Ω)\{0} kukL2 (Ω)

No entanto, nossas funções estão em W01,2 (Ω) e em geral não possuem derivadas parcias de segunda ordem
e portanto seus laplacianos não estão definidos. Porém, lembrando que C0∞ (Ω) é denso em W01,2 (Ω) e a
primeira identidade de Green para funções em C0∞ (Ω) toma a forma
Z Z Z
∂u
h−∆u, uiL2 (Ω) = (−∆u) u = h∇u, ∇ui − u = h∇u, ∇uiL2 (Ω)
Ω Ω ∂Ω ∂η

consideramos o funcional I : W01,2 (Ω) \ {0} → R definido por


R 2 2
|∇u| h∇u, ∇uiL2 (Ω) k∇ukL2 (Ω)
I (u) = ΩR 2 = = 2 .

u hu, uiL2 (Ω) kukL2 (Ω)
Afirmamos que se
λ1 = inf I (u) , (1.18)
u∈W01,2 (Ω)\{0}

então existe u ∈ W01,2 (Ω), u 6= 0, tal que


−∆u = λ1 u,
ou seja, λ1 é um autovalor do laplaciano. Para provar isso, observe em primeiro lugar que o funcional I
é invariante por escala, no sentido de que I (αu) = I (u) para todo α 6= 0, logo podemos considerar uma
seqüência minimizante (uk ) ⊂ W01,2 (Ω) que satisfaz kuk kL2 (Ω) = 1 para todo k. Em particular,
2
k∇uk kL2 (Ω) → λ1 ,

logo (uk ) é uma seqüência limitada em W01,2 (Ω). Segue do Teorema de Rellich-Kondrakhov que, a menos
de uma subseqüência, uk → u em L2 (Ω) e, portanto, kukL2 (Ω) = 1, o que implica em particular que u 6= 0.
Afirmamos que uk → u em W01,2 (Ω). De fato, valem as identidades
2 2 2 2
k∇ (uk − ul )kL2 (Ω) + k∇ (uk + ul )kL2 (Ω) = 2 k∇uk kL2 (Ω) + 2 k∇ul kL2 (Ω) ,
2 2 2 2
kuk − ul kL2 (Ω) + kuk + ul kL2 (Ω) = 2 kuk kL2 (Ω) + 2 kul kL2 (Ω) = 4.
Rodney Josué Biezuner 23

2
A segunda identidade implica que kuk + ul kL2 (Ω) → 4 quando k, l → ∞. Usando a primeira identidade
juntamente com a desigualdade
2 2
k∇ (uk + ul )kL2 (Ω) > λ1 kuk + ul kL2 (Ω) ,

que segue da definição de λ1 , obtemos


2 2 2 2
k∇ (uk − ul )kL2 (Ω) 6 2 k∇uk kL2 (Ω) + 2 k∇ul kL2 (Ω) − λ1 kuk + ul kL2 (Ω) → 0

quando k, l → ∞, isto é, (∇uk ) é uma seqüência de Cauchy em L2 (Ω), o que prova a afirmação. Segue que
2
λ1 = k∇ukL2 (Ω)

e o Teorema de Poincaré implica que λ1 6= 0. Vamos denotar u = u1 . Para mostrar que u1 é uma solução
fraca de −∆u1 = λ1 u1 , observe que para todo v ∈ W01,2 (Ω) fixado temos
2 2
h∇ (u1 + tv) , ∇ (u1 + tv)iL2 (Ω) k∇u1 kL2 (Ω) + 2t h∇u1 , ∇viL2 (Ω) + t2 k∇u1 kL2 (Ω)
I (u1 + tv) = = 2 2
h(u1 + tv) , (u1 + tv)iL2 (Ω) ku1 kL2 (Ω) + 2t hu1 , viL2 (Ω) + t2 ku1 kL2 (Ω)

onde |t| é suficientemente pequeno para que o denominador nunca se anule. Como u1 é um mı́nimo para
este funcional, segue que
¯
dI ¯
0= (u + tv)¯¯
dt t=0
³ ´ ³ ´ ¯
2 h∇u1 , ∇viL2 (Ω) + 2t k∇u1 kL2 (Ω) ku1 + tvkL2 (Ω) − 2 hu1 , viL2 (Ω) + 2t ku1 kL2 (Ω) k∇ (u1 + tv)kL2 (Ω) ¯¯
2 2 2 2

= ¯
4
ku1 + tvkL2 (Ω) ¯
¯
t=0
2 2
2 h∇u1 , ∇viL2 (Ω) ku1 kL2 (Ω) − 2 hu1 , viL2 (Ω) k∇u1 kL2 (Ω)
= 4
ku1 + tvkL2 (Ω)
2 h∇u1 , ∇viL2 (Ω) − 2λ1 hu1 , viL2 (Ω)
= 4 ,
ku1 + tvkL2 (Ω)

ou seja, Z Z
∇u1 · ∇v = λ1 u1 v
Ω Ω

para todo v ∈ W01,2 (Ω).


Suponha como hipótese de indução que obtivemos (λ1 , u1 ) , . . . , (λj−1 , uj−1 ) satisfazendo

ui ∈ W01,2 (Ω) ,

λ1 6 . . . 6 λj−1 ,
−∆u = λi u em Ω,
e
hui , uk iL2 (Ω) = δik
para todos 1 6 i, k 6 j. Definimos
n o
Hj = v ∈ W01,2 (Ω) : hv, ui iL2 (Ω) = 0 para i = 1, . . . , j − 1 .
Rodney Josué Biezuner 24

Em outras palavras, Hj é o subespaço de Hilbert ortogonal ao subespaço de dimensão finita gerado pelas
autofunções u1 , . . . , uj−1 . Defina
λj = inf I (u) .
u∈Hj

Como o ı́nfimo está tomado sobre um espaço menor, segue que

λj > λj−1 .

O fato de que Hj é um subespaço fechado de W01,2 (Ω) permite repetir o mesmo argumento acima para obter
2
uj ∈ Hj tal que kuj kL2 (Ω) = 1, λj = k∇uj kL2 (Ω) . Também analogamente obtemos
Z Z
∇uj · ∇v = λj uj v
Ω Ω

para todo v ∈ Hj e a relação é trivialmente verdadeira para todo v ∈ W01,2 (Ω), já que uj é ortogonal ao
subespaço gerado por u1 , . . . , uj−1 . Portanto uj é uma solução fraca de −∆u = λj u em Ω.
Para ver que λj → ∞, suponha por absurdo que λj → λ0 . Então obtemos uma seqüência (uj ) ⊂ W01,2 (Ω)
de autofunções associadas aos autovalores λk tais que kuj kL2 (Ω) = 1 e

2
k∇uj kL2 (Ω) = λj → λ0 .

Em particular, podemos usar novamente o Teorema de Rellich-Kondrakhov para concluir que uj → u em


L2 (Ω). Mas isso é um absurdo, pois a seqüência (uj ) é ortonormal em L2 (Ω) e portanto satisfaz
2 2 2
kuk − ul kL2 (Ω) = kuk kL2 (Ω) + kul kL2 (Ω) = 2.

Falta apenas provar os resultados de expansão. Para v ∈ W01,2 (Ω), escreva

αi = hv, ui iL2 (Ω)

e
k
X
vk = αi ui ,
i=1
wk = v − vk .

Para todo i 6 k temos * +


k
X
hwk , ui i = v− αi ui , ui = hv, ui i − αi = 0.
i=1

Daı́, como ui é solução fraca, para todo i 6 k temos também

h∇wk , ∇ui iL2 (Ω) = λi hwk , ui iL2 (Ω) = 0,

donde

hwk , wk iL2 (Ω) = hv, viL2 (Ω) − hvk , vk iL2 (Ω) ,


h∇wk , ∇wk iL2 (Ω) = h∇v, ∇viL2 (Ω) − h∇vk , ∇vk iL2 (Ω) .

Desta última identidade segue que

h∇wk , ∇wk iL2 (Ω) 6 h∇v, ∇viL2 (Ω) .


Rodney Josué Biezuner 25

Por definição de λk ,
h∇wk , ∇wk iL2 (Ω) > λk+1 hwk , wk iL2 (Ω) ,
logo
2 1
kwk kL2 (Ω) = hwk , wk iL2 (Ω) 6 h∇v, ∇viL2 (Ω) → 0.
λk+1
Em particular, concluı́mos que

X
v = lim vk + lim wk = αi ui em L2 (Ω) . (1.19)
i=1

Para provar a segunda expansão, escreva


k
X
∇vk = αi ∇ui ,
i=1

donde
k
X k
X k
X
2
k∇vk kL2 (Ω) = αi2 h∇ui , ∇ui i = αi2 λi hui , ui i = λi αi2 .
i=1 i=1 i=1

Como
h∇wk , ∇wk iL2 (Ω) + h∇vk , ∇vk iL2 (Ω) = h∇v, ∇viL2 (Ω) ,
segue que
2 2
k∇vk kL2 (Ω) 6 k∇vkL2 (Ω) .
P

Somando-se a isso o fato que os λi são não-negativos, concluı́mos que a série λi αi2 converge, de modo que
i=1

l
X
2 2
k∇ (wk − wl )kL2 (Ω) = k∇ (vl − vk )kL2 (Ω) = λi αi2
i=k+1

e portanto (∇wk ) também é uma seqüência de Cauchy em L2 (Ω), ou seja, (wk ) converge em W01,2 (Ω).
Conseqüentemente, em vista do resultado anterior, wk → 0 em W01,2 (Ω), logo

X
2 2 2
k∇vkL2 (Ω) = lim k∇vk kL2 (Ω) + 2 lim h∇vk , ∇wk i + lim k∇wk kL2 (Ω) = λi αi2 .
i=1

Segue que (uj ) é uma seqüência ortonormal e o fecho do subespaço gerado por (uj ) é um espaço de Hilbert
contendo W01,2 (Ω) contido em L2 (Ω). Como W01,2 (Ω) = L2 (Ω), concluı́mos que {uj } é um sistema ortonor-
mal completo para L2 (Ω). ¥
2
Observação 1. Segue deste teorema, em particular,
P∞ que aquelas funções v em L (Ω) que não estão em
1,2
W0 (Ω) podem ser caracterizadas pelo fato que i=1 λi hv, ui iL2 (Ω) diverge.
Observação ¡2. ¢Pelo Teorema 1.13, se ∂Ω for de classe C ∞ , então as autofunções do problema de Dirichlet
estão em C ∞ Ω e são soluções clássicas.
A demonstração do resultado equivalente para o problema de autovalor com condição de Neumann é
análoga (veja [Jost]):

1.15 Teorema. Seja Ω ⊂ Rn um aberto limitado. Então o problema de autovalor

−∆u = λu em Ω, u ∈ W 1,2 (Ω)


Rodney Josué Biezuner 26

possui um número infinito enumerável de autovalores

0 = λ0 6 λ1 6 λ2 6 . . . 6 λj 6 . . .

tais que
λj → ∞,
e autofunções {uj } que satisfazem
∂u
=0 sobre ∂Ω
∂η
e constituem um sistema ortonormal completo para L2 (Ω), isto é,

X
v= αi ui
i=1

para todo v ∈ L2 (Ω). Em particular,



X
2 2
kvkL2 (Ω) = hv, ui iL2 (Ω) .
i=1

Além disso, para todo v ∈ W 1,2 (Ω) vale



X
2 2
k∇vkL2 (Ω) = λi hv, ui iL2 (Ω) .
i=1

Na demonstração do Teorema 1.14 usamos o princı́pio de Rayleigh para obter o primeiro autovalor
do laplaciano como o mı́nimo do funcional de Rayleigh. Como os autovalores do laplaciano formam uma
seqüência infinita que cresce arbitrariamente em módulo, o funcional de Rayleigh para o laplaciano não
possui um máximo. Entretanto, da mesma forma que no caso de operadores lineares em dimensão finita,
podemos também derivar um princı́pio de minimax para obter os demais autovalores do laplaciano:

1.16 Teorema. Seja Ω ⊂ Rn um aberto limitado. Sejam

0 < λ 1 6 λ2 6 . . . 6 λj 6 . . .

os autovalores do laplaciano com condição de Dirichlet:

−∆u = λu em Ω, u ∈ W01,2 (Ω) .

Então, se Lj denota o conjunto dos subespaços vetoriais de W01,2 (Ω) de dimensão j, temos
   
h∇u, ∇uiL2 (Ω)
λj = min  max h∇u, ∇uiL2 (Ω)  = min max 2
 (1.20)
L∈Lj u∈L
kuk=1
L∈Lj u∈L
u6=0
kukL2 (Ω)

ou, dualmente,
   
h∇u, ∇uiL2 (Ω)
λj = max  min h∇u, ∇uiL2 (Ω)  = max min 2
. (1.21)
L∈Lj−1 u⊥L
kuk=1
L∈Lj−1 u⊥L
u6=0
kukL2 (Ω)

O resultado análogo vale para os autovalores do laplaciano com condição de Neumann trocando-se
W01,2 (Ω) por W 1,2 (Ω) e λj por λj−1 .
Rodney Josué Biezuner 27

Prova: Vimos na demonstração do Teorema 1.13 que se L = hu1 , . . . , uj−1 i é o subespaço gerado pelas
primeiras j − 1 autofunções u1 , . . . , uj−1 do laplaciano, então
h∇u, ∇uiL2 (Ω)
λj = min 2 ;
u⊥L
u6=0
kukL2 (Ω)

de fato, o mı́nimo é realizado em u = uj . Por outro lado, se L0 = hu1 , . . . , uj i é o subespaço gerado pelas
primeiras j autofunções u1 , . . . , uj do laplaciano, também temos
h∇u, ∇uiL2 (Ω)
λj = max0 2 .
u∈L kukL2 (Ω)
u6=0

De fato, para todo ui com i < j vale


h∇ui , ∇ui iL2 (Ω)
2 = λi 6 λj ,
kui kL2 (Ω)

enquanto que
h∇uj , ∇uj iL2 (Ω)
2 = λj .
kuj kL2 (Ω)
P
n
Portanto, se u = ai ui ∈ L0 , temos
i=1
¿ À
P
n P
n
P
n
ai ∇ui , ai ∇ui a2i h∇ui , ∇ui iL2 (Ω)
h∇u, ∇uiL2 (Ω) h∇u, ∇uiL2 (Ω) i=1 i=1 L2 (Ω) i=1
= = ¿ À =
2
kukL2 (Ω) hu, uiL2 (Ω) P
n P
n Pn
ai u i , ai ui a2i hui , ui iL2 (Ω)
i=1 i=1 L2 (Ω) i=1

P
n P
n
λi a2i hui , ui iL2 (Ω) a2i hui , ui iL2 (Ω)
i=1
= Pn 6 λj i=1
Pn = λj ,
a2i hui , ui iL2 (Ω) a2i hui , ui iL2 (Ω)
i=1 i=1

e o máximo é realizado em u = uj .
Agora, para provar (1.20), seja L0 ⊂ Lj outro subespaço de W01,2 (Ω) de dimensão j, digamos L0 =
P
j
hv1 , . . . , vj i. Afirmamos que existe um vetor não nulo v = ai vi ∈ L0 tal que v ⊥ ui para i = 1, . . . , j − 1.
i=1
De fato, basta tomar uma das soluções não triviais do sistema homogêneo

 P
j

 hv, u1 i = ai hvi , u1 i = 0


 i=1
..
 .



 Pj
 hv, uj−1 i = ai hvi , uj−1 i = 0
i=1

que possui j − 1 equações e j incógnitas. Logo, disso e do Teorema 1.15 segue que
P

2
P

2 P

2
2 λi hv, ui iL2 (Ω) λi hv, ui iL2 (Ω) λj hv, ui iL2 (Ω)
h∇v, ∇viL2 (Ω) k∇vkL2 (Ω) i=1 i=j i=j
2 = 2 = P
∞ = P
∞ > P
∞ = λj ,
kvkL2 (Ω) kvkL2 (Ω) 2
hv, ui iL2 (Ω)
2
hv, ui iL2 (Ω)
2
hv, ui iL2 (Ω)
i=1 i=j i=j
Rodney Josué Biezuner 28

e portanto
h∇u, ∇uiL2 (Ω)
max0 2 > λj .
u∈L kukL2 (Ω)
u6=0

Isso prova (1.20).


Para provar a afirmativa dual (1.21), seja L ⊂ Lj um subespaço de W01,2 (Ω) de dimensão j − 1, digamos
P
j
L = hv1 , . . . , vj−1 i. Afirmamos que existe um vetor não nulo v = ai ui ⊥ L, combinação linear dos vetores
i=1
u1 , . . . , uj . De fato, basta tomar uma das soluções não triviais do sistema homogêneo

 Pn

 hv, v 1 i = ai hui , v1 i = 0


 i=1
..
 .

 Pn

 hv, vj−1 i = ai hui , vj−1 i = 0

i=1

que possui j − 1 equações e j incógnitas. Então algum dos vetores u1 , . . . , uj é perpendicular a L, digamos
ui . Logo, disso e do Teorema 1.13 segue que
¿ À2
P

2
P
∞ P
j
P
j
2 λi hv, ui iL2 (Ω) λi ak uk , ui 2
a2i λi hui , ui iL2 (Ω)
h∇v, ∇viL2 (Ω) k∇vkL2 (Ω) i=1 i=1 k=1 L2 (Ω) i=1
2 = 2 = P
∞ = ¿ À2 = P∞
kvkL2 (Ω) kvkL2 (Ω) 2
hv, ui iL2 (Ω) P
∞ P
j 2
a2i hui , ui iL2 (Ω)
i=1
ak uk , ui i=1
i=1 k=1 L2 (Ω)
P
j
2
λj a2i hui , ui iL2 (Ω)
i=1
6 P
∞ = λj ,
2
a2i hui , ui iL2 (Ω)
i=1

e portanto
h∇u, ∇uiL2 (Ω)
min 2 6 λj ,
u⊥L
u6=0
kukL2 (Ω)

o que prova (1.21). ¥

1.7.2 Comparação de Autovalores


Como uma conseqüência simples da caracterização minimax obtemos uma comparação entre os autovalores
do laplaciano de Dirichlet e os autovalores do laplaciano de Neumann de um mesmo domı́nio:

1.17 Corolário. Seja Ω ⊂ Rn um aberto limitado. Sejam

0 < λD D D
1 6 λ2 6 . . . 6 λk 6 . . .

os autovalores do laplaciano com condição de Dirichlet e

0 = λN N N N
0 6 λ1 6 λ2 6 . . . 6 λk 6 . . .

os autovalores do laplaciano com condição de Neumann. Então

λN D
j−1 6 λj

para todo j.
Rodney Josué Biezuner 29

Prova: Denotando
³ ´ n o
Lj W01,2 (Ω) = L ⊂ W01,2 (Ω) : L é um subespaço vetorial de dimensão j ,
¡ ¢ © ª
Lj W 1,2 (Ω) = L ⊂ W 1,2 (Ω) : L é um subespaço vetorial de dimensão j ,

como W01,2 (Ω) ⊂ W 1,2 (Ω), segue que


³ ´ ¡ ¢
Lj W01,2 (Ω) ⊂ Lj W 1,2 (Ω) .
³ ´ ¡ ¢
Em particular, o mı́nimo sobre Lj W01,2 (Ω) não pode ser maior que o mı́nimo sobre Lj W 1,2 (Ω) . Segue
que
   

λN
j−1 = min  max h∇u, ∇ui 2  6 min  max h∇u, ∇ui 2  = λD
j .
u∈L L (Ω) u∈L L (Ω)
L∈Lj (W 1,2 (Ω)) L∈Lj (W01,2 (Ω))
kuk=1 kuk=1

¥
O que acontece com os autovalores do laplaciano de um domı́nio Ω quando este aumenta? Se nos
restringirmos a simples aumentos de escala, a resposta é simples. Denote Ωa = {ax : x ∈ Ω}. Se u satisfaz
½
−∆u = λu em Ω,
u=0 sobre ∂Ω,
³x´
então v (x) = u satisfaz
a (
λ
−∆v = 2 v em Ωa ,
a
v=0 sobre ∂Ωa .
Em particular, se a > 1 (dilatação), então os autovalores do laplaciano em Ωa são menores que os autovalores
do laplaciano em Ω. No caso geral, ainda é verdade que os autovalores decrescem quando o domı́nio aumenta,
e no caso dos autovalores de Dirichlet isto é novamente uma conseqüência simples da caracterização minimax:

1.18 Corolário. Sejam Ω1 ⊂ Ω2 ⊂ Rn abertos limitados. Sejam λj (Ω1 ) e λj (Ω2 ) os autovalores de


Dirichlet do laplaciano em Ω1 e Ω2 , respectivamente. Então

λj (Ω2 ) 6 λj (Ω1 )

para todo j.

Prova: Podemos considerar W01,2 (Ω1 ) ⊂ W01,2 (Ω2 ), porque qualquer função u ∈ W01,2 (Ω1 ) pode ser esten-
e ∈ W01,2 (Ω2 ) definindo-se
dida a uma função u
½
u (x) se x ∈ Ω1 ,
u
e (x) =
0 se x ∈ Ω2 \Ω1 .

Em particular, usando a notação do corolário anterior, temos que


³ ´ ³ ´
Lj W01,2 (Ω1 ) ⊂ Lj W01,2 (Ω2 ) .
³ ´ ¡ ¢
e o mı́nimo sobre Lj W01,2 (Ω1 ) não pode ser maior que o mı́nimo sobre Lj W 1,2 (Ω2 ) . Logo
   

λj (Ω2 ) = min  max h∇u, ∇ui 2  6 min  max h∇u, ∇ui 2  = λj (Ω1 ) .
u∈L L (Ω) u∈L L (Ω)
L∈Lj (W01,2 (Ω2 )) L∈Lj (W01,2 (Ω1 ))
kuk=1 kuk=1
Rodney Josué Biezuner 30

¥
No caso dos autovalores de Neumann, o resultado continua válido mas a demonstração é mais complicada
porque o operador extensão E : W 1,2 (Ω1 ) −→ W 1,2 (Ω2 ) não preserva a norma: em geral kEukW 1,2 (Ω2 ) >
kukW 1,2 (Ω1 ) (embora exista uma constante C > 0 tal que kEukW 1,2 (Ω2 ) 6 C kukW 1,2 (Ω1 ) , esta constante é
geralmente maior que 1) e por este motivo W 1,2 (Ω1 ) não pode ser considerado um subespaço de Hilbert de
W 1,2 (Ω2 ).

1.8 Conjunto Nodal e Domı́nios Nodais de uma Autofunção


1.8.1 Princı́pio do Máximo Forte: o Primeiro Autovalor do Laplaciano é Sim-
ples
O primeiro autovalor do laplaciano é simples, isto é, o seu autoespaço associado tem dimensão 1, e possui
uma autofunção associada positiva. Para provar este resultado, precisamos do Princı́pio do Máximo Forte
para operadores elı́pticos, adaptado para o operador de Helmholtz (veja [Gilbarg-Trudinger] ou [Biezuner]
para uma demonstração):

1.19 Lema. (Princı́pio do Máximo Forte) Seja Ω ⊂ Rn um aberto conexo. Seja u ∈ C 2 (Ω).
Se ∆u > 0 em Ω e u atinge o seu máximo no interior de Ω, então u é constante.
Se ∆u 6 0 em Ω e u atinge o seu mı́nimo no interior de Ω, então u é constante.

Prova: Provaremos a segunda afirmação, que será usada na seqüência; a demonstração da primeira é
análoga. Afirmamos que se ∆u > 0 em Ω, vale a seguinte desigualdade do valor médio: para qualquer bola
BR (x) ⊂⊂ Ω temos Z Z
1 1
u (x) > u= u, (1.22)
|BR | BR ωn Rn BR
onde ωn é o volume da bola unitária em Rn . Para provar esta desigualdade, defina para r ∈ (0, R] a função
Z
1
φ(r) = u.
|∂Br | ∂Br

Para obter a derivada da função φ, fazemos a mudança de variáveis


y−x
ω= ,
r
de modo que
Z Z Z
1 1 1
φ(r) = u(y) ds = u(x + rω) dω = u(x + rω) dω,
nωn rn−1 ∂Br nωn ∂B1 (0) |∂B1 (0)| ∂B1 (0)

e daı́
Z Z
0 1 1 y−x
φ (r) = ∇u(x + rω) · ω dω = ∇u(y) · ds
|∂B1 (0)| ∂B1 (0) |∂Br | ∂Br r
Z
1 ∂u
= ds,
|∂Br | ∂Br ∂ν
y−x
pois o vetor normal unitário à ∂Br (x) apontando para fora é exatamente o vetor . Mas, pelo Teorema
r
da Divergência e por hipótese, temos Z Z
∂u
= ∆u 6 0,
∂Br ∂ν Ω
Rodney Josué Biezuner 31

logo
φ0 (r) 6 0
e φ(r) é uma função decrescente. Portanto,
Z Z
1 1
u > u
|∂Br | ∂Br |∂BR | ∂BR

para todo 0 < r 6 R. Usando o Teorema do Valor Médio para Integrais


Z
1
lim u = u(x),
r→0 |∂Br | ∂B
r

obtemos Z
1
u(x) > u. (1.23)
|∂BR | ∂BR
Em particular, como R é arbitrário, vale a desigualdade
Z
nωn rn−1 u(x) > u
∂Br

para todo r, e a desigualdade do valor médio (1.22) é obtida integrando-se esta equação de r = 0 até r = R.
Vamos agora provar o lema. Seja m = minΩ u e considere o conjunto A = {x ∈ Ω : u(x) = m}. Por
hipótese, A é não-vazio e fechado em Ω, pois u é contı́nua em Ω. Como Ω é conexo, para provar que A = Ω e
portanto que u é constante, basta provar que A é aberto. De fato, dado x ∈ A e uma bola BR = BR (x) ⊂⊂ Ω,
temos pela desigualdade do valor médio para funções harmônicas que
Z Z
1 1
m = u(x) > u> m = m.
|BR | BR |BR | BR
Se houvesse pelo menos um ponto em BR (x) cujo valor é estritamente maior que m, então a desigualdade
acima seria estrita, o que constituiria uma contradição. Concluı́mos que u ≡ m em BR (x), logo A é aberto.
¥
1.20 Lema. Seja Ω ⊂ Rn um aberto. Seja u ∈ C 2 (Ω) uma solução de −∆u = λu em Ω, λ > 0. Se u
atinge um mı́nimo igual a 0 no interior de Ω, então u é constante.
Prova: Se minΩ u = 0, em particular u > 0 em Ω. Logo, ∆u = −λu 6 0 em Ω. Pelo Princı́pio do Máximo
Forte, concluı́mos que u é constante. ¥
1.21 Teorema. Seja Ω ⊂ Rn um aberto limitado conexo. Então o problema de autovalor
½
−∆u = λu em Ω,
u=0 sobre ∂Ω,
possui uma solução positiva u1 > 0 em Ω. Além disso, qualquer outra autofunção associada a λ1 é
múltipla de u1 .
Prova: Para ¡ ¢simplificar a demonstração, assumiremos que Ω tem regularidade suficiente para que u ∈
C 2 (Ω) ∩ C 0 Ω de modo que podemos usar o Princı́pio do Máximo Forte clássico dado no lema anterior (um
princı́pio do máximo forte para funções em W01,2 (Ω) pode ser visto em [Gilbarg-Trudinger]). Pela formulação
variacional, se u é uma autofunção associada a λ1 , então |u| também
¡ ¢ é, pois I (u) = I (|u|). A teoria de
regularidade (Teorema 1.13) garante então que |u| ∈ C 2 (Ω) ∩ C 0 Ω também. Pelo lema anterior, u não
pode se anular no interior de Ω, pois isso implicaria que |u| atinge o seu mı́nimo no interior, logo u > 0.
Este argumento também implica que as autofunções associadas a λ1 são negativas ou positivas em Ω, logo
não podem ser ortogonais, e portanto o subespaço associado a λ1 só pode ser unidimensional. ¥
Mais geralmente, vale o resultado do Teorema 1.24 a seguir para todos os autovalores do laplaciano.
Rodney Josué Biezuner 32

1.8.2 Conjunto Nodal e Domı́nios Nodais de Autofunções do Laplaciano


Definição. Se λj é um autovalor do laplaciano em Ω e uj é uma autofunção associada, definimos o conjunto
nodal de uj por
Γj = {x ∈ Ω : uj (x) = 0} .
As componentes conexas de Ω\Γj são chamadas os domı́nios nodais de uj .

O conjunto nodal de uj é simplesmente o conjunto dos pontos onde uj se anula; a terminologia nodal é oriunda
do estudo das vibrações de cordas e membranas em Mecânica. O Teorema 1.21 afirma que o conjunto nodal
de u1 é vazio; em particular, se Ω é conexo, então Ω\Γ1 possui uma componente conexa, isto é, apenas
um domı́nio nodal. Para as demais autofunções, o Teorema do Conjunto Nodal de Courant (Teorema 1.24
abaixo) afirma que o número de domı́nios nodais da autofunção uj não pode exceder j.

1.22 Lema. Seja Ω ⊂ Rn um aberto limitado conexo e

0 < λ 1 < λ 2 6 . . . 6 λj 6 . . .

os autovalores de Dirichlet do laplaciano e u1 , u2 , . . . , uj , . . . as respectivas autofunções associadas. Se


λj tem multiplicidade r, de modo que

λj−1 < λj = λj+1 = . . . = λj+r−1 < λj+r ,

Então uj possui no máximo j + r − 1 domı́nios nodais.

Prova: A demonstração do lema é baseada na caracterização variacional dos autovalores do laplaciano.


Suponha que uj tenha m domı́nios nodais Ω1 , · · · , Ωm . Defina
½
βi uj (x) se x ∈ Ωi ,
wi (x) =
0 caso contrário,

onde o fator de escala βi é escolhido de tal forma que kwi kL2 (Ω) = 1. Observe que, como os domı́nios nodais
Ωi são disjuntos, as funções wi são ortogonais em L2 (Ω) e em W01,2 (Ω). Como
Z Z
∇uj · ∇v = λj uj v
Ω Ω

para todo v ∈ W01,2 (Ω), em particular temos


Z Z
∇wi · ∇wi = λj wi2
Ωi Ωi

(embora wi seja uma autofunção do laplaciano em Ωi associada a λj , wi não é uma autofunção do laplaciano
em Ω associada a λj ; pelo Princı́pio da Continuação Única (veja o lema a seguir), uma autofunção que se
anula em um aberto, deve-se anular no domı́nio todo). Considere combinações lineares v dos wi tais que
kvkL2 (Ω) = 1, isto é,
Xm
v= ai wi
i=1

e a1 , . . . , am ∈ R são quaisquer escalares que satisfazem


m
X
a2i = 1.
i=1
Rodney Josué Biezuner 33

Em particular,
m
X m
X
h∇v, ∇viL2 (Ω) = a2i h∇wi , ∇wi iL2 (Ωi ) = a2i λj hwi , wi iL2 (Ωi ) = λj ,
i=1 i=1

ou seja,
h∇v, ∇viL2 (Ω)
= λj .
kvkL2 (Ω)
Por outro lado, podemos escolher a1 , . . . , am de tal forma que

hv, ui iL2 (Ω) = 0

para i = 1, . . . , m − 1, pois o sistema



 Pn

 hv, u1 i = ai hwi , u1 i = 0


 i=1
..
 .

 Pn


 hv, um−1 i = ai hwi , um−1 i = 0
i=1

possui m − 1 equações e m incógnitas. Para esta escolha de v, segue do Teorema 1.13 que
P

2 P

2 P

2
2 λi hv, ui iL2 (Ω) λi hv, ui iL2 (Ω) λm hv, ui iL2 (Ω)
h∇v, ∇viL2 (Ω) k∇vkL2 (Ω) i=1 i=m i=m
2 = 2 = P
∞ = P
∞ > P
∞ = λm .
kvkL2 (Ω) kvkL2 (Ω) 2
hv, ui iL2 (Ω)
2
hv, ui iL2 (Ω)
2
hv, ui iL2 (Ω)
i=1 i=m i=m

Portanto,
λm 6 λj .
Como λj < λj+r , segue que λm < λj+r , donde m < n + r. ¥
Em particular, se λj é um autovalor simples, o número máximo de domı́nios nodais de uj é j. Para
mostrar que esta mesma estimativa vale para as demais autofunções, Courant e Hilbert produziram um
refinamento complicado do seu argumento no lema acima. A demonstração simplificada apresentada a
seguir é devida a Herrman [Herrman] e Pleijel [Pleijel] (reproduzida em [Gladwell-Zhu]) e é baseada no
Princı́pio da Continuação Única (uma demonstração deste pode ser encontrada em [Aronszajn]):

1.23 Lema. (Princı́pio da Continuação Única) Seja Ω ⊂ Rn um aberto limitado conexo. Se u é uma solução
de
−∆u = λu em Ω
que se anula em um aberto não vazio de Ω, então u ≡ 0.
1.24 Teorema. (Teorema do Conjunto Nodal de Courant) Seja Ω ⊂ Rn um aberto limitado conexo e

0 < λ 1 < λ 2 6 . . . 6 λj 6 . . .

os autovalores de Dirichlet do laplaciano e u1 , u2 , . . . , uj , . . . as respectivas autofunções associadas.


Então uj possui no máximo j domı́nios nodais.

Prova: Suponha por absurdo que uj tenha m > j domı́nios nodais. Defina wi e v como na demonstração
do Lema 1.22, escolhendo
aj+1 = . . . = am = 0,
Rodney Josué Biezuner 34

de modo que v ≡ 0 em Ωj+1 ∪ . . . ∪ Ωm . Como antes, temos


h∇v, ∇viL2 (Ω)
= λj
kvkL2 (Ω)
e podemos escolher a1 , . . . , aj de tal forma que
hv, ui iL2 (Ω) = 0
para i = 1, . . . , j − 1. Isso implica que v é uma autofunção associada a λj (como vimos na demonstração
do Teorema 1.13, nestas condições o mı́nimo λj do quociente de Rayleigh é realizado em uma autofunção
de λj ), isto é, é uma solução fraca de −∆u = λj u em Ω. Como v se anula em Ωj+1 ∪ . . . ∪ Ωm , segue do
Princı́pio da Continuação Única que v ≡ 0 em Ω, contradizendo kvkL2 (Ω) = 1. ¥
Observe que o Teorema 1.24 implica que se λj tem multiplicidade r, de modo que
λj−1 < λj = λj+1 = . . . = λj+r−1 < λj+r ,
então qualquer autofunção associada a λj possui no máximo j domı́nios nodais, mesmo as autofunções
uj+1 , . . . , uj+r−1 .
1.25 Corolário. O Teorema do Conjunto Nodal de Courant vale mesmo se Ω não é conexo.
© ª
Prova: Sejam Ω = Ω1 ∪ . . . ∪ Ωp a decomposição de Ω em componentes conexas. Denote por λkj j∈N
© ª
a seqüência crescente de autovalores de Ωk com ukj j∈N as correspondentes autofunções. Seja {λj }j∈N =
© 1ª © ª
λj j∈N ∪ . . . ∪ λpj j∈N a seqüência crescente de autovalores de Ω; as autofunções correspondentes são da
forma ½ k
ui (x) se x ∈ Ωk ,
uj (x) =
0 caso contrário,
para alguns ı́ndices i, k, com j > i. Pelo Teorema do Conjunto Nodal de Courant aplicado a Ωk , uki não tem
mais que i domı́nios nodais em Ωk , logo uj não tem mais que j domı́nios nodais em Ωk e é nula fora de Ωk .
¥
1.26 Corolário. Uma autofunção u2 associada ao segundo autovalor λ2 possui exatamente 2 domı́nios
nodais. Autofunções associadas a outros autovalores λj , j 6= 1, 2, possuem pelo menos dois domı́nios
nodais.
Prova: Pelo Teorema do Conjunto Nodal de Courant, o número de domı́nios nodais de u2 não pode exceder
2. Por outro lado, o fato de que uma autofunção u1 associada ao primeiro autovalor λ1 6= λ2 ter o mesmo
sinal em Ω, juntamente com o fato que u1 ⊥ u2 , implicam que u2 muda de sinal em Ω, logo não pode ter
apenas um domı́nio nodal. Este mesmo argumento de ortogonalidade, u1 ⊥ uj se j 6= 1, implica que qualquer
autofunção associada a um autovalor diferente de λ1 necessariamente muda de sinal em Ω. ¥
O Corolário 1.26 sugere que a estimativa dada no Teorema 1.24 é a melhor possı́vel. Isso não é verdade, no
entanto. Usando a desigualdade de Faber-Krahn e a Lei de Weyl sobre a expansão assintótica dos autovalores,
Pleijel [Pleijel] provou que para valores suficientemente grandes de j, o número máximo de domı́nios nodais
j nunca é atingido (Corolário 1.30, a seguir). A demonstração da desigualdade de Faber-Krahn dada a seguir
é baseada na simetrização de Schwartz, que definiremos a seguir.
Definição. Seja Ω ⊂ Rn um aberto limitado. O domı́nio simetrizado Ω∗ é a bola B = {x ∈ Rn : |x| < R}
que possui o mesmo volume de Ω.
Dada uma função u : Ω −→ R, a função simetrizada u∗ : Ω∗ −→ R é definida da seguinte forma.
Denotando
Ωµ = {x ∈ Ω : u (x) > µ}
definimos © ª
u∗ (x) = sup µ : x ∈ Ω∗µ .
Rodney Josué Biezuner 35

Observe que u∗ é uma função radialmente simétrica, não-crescente. Assumiremos os seguintes resultados
sem demonstração (para uma prova, veja [Bandle], Lema 2.4 e Corolário 2.1):

1.27 Lema. Seja Ω ⊂ Rn um aberto limitado. Então


Z Z
f6 f∗
Ω Ω∗

e Z Z
2 2
|∇u| > |∇u∗ | .
Ω Ω∗

1.28 Teorema. (Desigualdade de Faber-Krahn) Seja Ω ⊂ R2 um aberto limitado. Se λ1 é o primeiro


autovalor de Dirichlet do laplaciano em Ω, então vale
2
πα0,1
λ1 > ,
A
onde α0,1 é o primeiro zero positivo da função de Bessel J0 e A é a área de Ω.

Prova: Seja (un ) ⊂ W01,2 (Ω) uma seqüência minimizante para o quociente de Rayleigh I do primeiro
autovalor de Dirichlet λ1 (Ω) do laplaciano em Ω. Como I (|u|) = I (u), podemos assumir un > 0 para todo
n. Então u∗n ∈ W01,2 (D), onde D = Ω∗ é o disco de raio R que possui área A. Segue que
R 2 R 2 R 2
|∇un |
ΩR D
|∇u∗n | ΩR
|∇u|
λ1 (Ω) = lim inf > lim inf R 2 > min = λ1 (D)
u2
Ω n (u∗n ) u∈W01,2 (Ω)\{0} Ω
u2
D
2 2
α0,1 π 2 πα0,1
= = α = .
R2 πR2 0,1 A
¥
A desigualdade de Faber-Krahn entre outras coisas comprova a conjectura de Rayleigh de que entre todas
as regiões de mesma área, o disco tem o menor primeiro autovalor.

1.29 Teorema. (Lei de Weyl) Seja Ω ⊂ R2 um aberto limitado conexo e

0 < λ 1 < λ 2 6 . . . 6 λj 6 . . .

os autovalores de Dirichlet do laplaciano em Ω. Então


4πj
λj ∼ ,
A
onde A é a área de Ω. Mais geralmente, se Ω ⊂ Rn é um aberto limitado, então
µ ¶2/n
2 j
λj ∼ 4π ,
ωn V

Prova: Veja [Weyl] ou [Courant-Hilbert], pág. .429–443 ¥

1.30 Corolário. Seja Ω ⊂ R2 um aberto limitado conexo. Existe apenas um número finito de autovalores
λj para os quais o número máximo j de domı́nios nodais é atingido.
Rodney Josué Biezuner 36

Prova: A demonstração deste corolário depende da observação de que se u é uma autofunção associada a
um certo autovalor de Dirichlet λ e Ωi é qualquer domı́nio nodal de u, então λ é o primeiro autovalor do
laplaciano em Ωi , isto é,
λ1 (Ωi ) = λ.
¡ ¢
De fato, ui = u|Ωi é uma autofunção associada a λ em Ωi , pois ui ∈ C 2 (Ωi ) ∩ C 0 Ωi satisfaz −∆ui = λui
em Ωi e ui = 0 em ∂Ωi (pois ∂Ωi está contida na união do conjunto nodal de u e ∂Ω, onde u = 0). Além
disso, ui não muda de sinal em Ωi por definição de domı́nio nodal de u, logo possui apenas um domı́nio nodal
e portanto segue do Corolário 1.26 que ui é uma autofunção associada ao primeiro autovalor de Dirichlet em
Ωi .
Sejam Ω1 , · · · , Ωm , m 6 j, os domı́nios nodais de uma autofunção u associada a λj . Como λj = λ1 (Ωi )
para todo i, segue da Desigualdade de Faber-Krahn que
2
πα0,1
λj > ,
A (Ωi )

onde A (Ωi ) é a área de Ωi , para todo i. Escrevendo estas desigualdades na forma

A (Ωi ) 1
2 > ,
πα0,1 λj

e somando-as para i = 1, . . . , m, segue que


A (Ω) m
2 > .
πα0,1 λj
Logo, se o caso máximo m = j ocorre, temos

A (Ω) j
2 > .
πα0,1 λj

Se o número máximo m = j de domı́nios nodais fosse atingido para um número infinito de ı́ndices j, tomando
o limite nesta desigualdade quando j → ∞ para esta subseqüência de ı́ndices, terı́amos pela Lei de Weyl que

A (Ω) A (Ω)
2 > ,
πα0,1 4π

donde
α0,1 6 2.
Mas α0,1 = 2.404825558..., contradição. ¥
Com relação aos conjuntos nodais das autofunções do laplaciano, pode-se dizer que eles são altamente
regulares: o conjunto nodal de uma autofunção u do laplaciano em Ω ⊂ Rn é localmente composto de
hiperfı́cies de dimensão n − 1, que podem se intersectar em superfı́cies de dimensão menor que n − 1 (veja
[Cheng] para o enunciado preciso e sua demonstração). Estas hiperfı́cies não podem terminar no interior de
Ω, o que significa que ou elas são fechadas, ou elas começam e terminam na fronteira de Ω. Além disso, no
caso bidimensional, quando as curvas nodais se intersectam, ou quando elas interceptam a fronteira, elas o
fazem em ângulos iguais; assim, por exemplo, se uma curva nodal intercepta a fronteira, ela o faz em um
ângulo reto, enquanto que se duas curvas nodais interceptam a fronteira no mesmo ponto, elas o fazem em
ângulos de π/3 e guardam também um ângulo de π/3 entre si (veja [Courant-Hilbert]).
2
Exemplo 8. Como vimos no Exemplo 2, os autovalores de Dirichlet do laplaciano no quadrado Q = [0, π] ⊂
R2 são dados por
λnm = n2 + m2 , n, m ∈ N,
Rodney Josué Biezuner 37

com correspondentes autofunções

unm (x, y) = sen nx sen my.

O autovalor λ2 = λ3 = 5 tem multiplicidade 2 e o seu autoespaço é constituı́do pelas funções da forma

u (x, y) = A sen x sen 2y + B sen 2x sen y, A, B ∈ R.

Para A = 0, u tem uma reta nodal vertical (x = π/2); para B = 0, u tem uma reta nodal horizontal
(y = π/2); se A = ±B, u tem uma reta nodal diagonal (a reta y = x se A = −B e a reta y = −x + 1
se A = B); nos demais casos, a curva nodal é especificada pela equação transcendental

A cos y + B cos x = 0,

que é uma curva que intercepta a fronteira em dois pontos em ângulos retos. Em todos os casos, a
curva nodal de uma autofunção associada ao autovalor 5 divide o quadrado em dois domı́nios nodais.
O autovalor λ4 = 8 é simples, com o seu autoespaço gerado pela autofunção

u (x, y) = sen 2x sen 2y,

cujo conjunto nodal é a união das retas vertical x = π/2 e horizontal y = π/2; ela possui portanto
quatro domı́nios nodais.
O autovalor λ5 = λ6 = 10 também tem multiplicidade 2 e o seu autoespaço é constituı́do pelas funções
da forma
u (x, y) = A sen x sen 3y + B sen 3x sen y, A, B ∈ R.
Para A = 0, u tem duas retas nodais verticais (x = π/3 e x = 2π/3); para B = 0, u tem duas retas
nodais horizontais (y = π/3 e y = 2π/3); em ambos os casos, temos três domı́nios nodais. Se A = −B,
u tem as duas diagonais do quadrado como retas nodais, originando quatro domı́nios nodais, enquanto
que se A = B, u tem uma curva nodal fechada

sen2 x + sen2 y = 3/2

que divide o quadrado em apenas dois domı́nios nodais, a região interior à curva e a região exterior.
Pleijel verifica em [Pleijel] que os únicos autovalores do laplaciano no quadrado que possuem aut-
ofunções que assumem o número maximal de domı́nios nodais são λ1 = 2 (um domı́nio nodal),
λ2 = λ3 = 5 (dois domı́nios nodais) e λ4 = 8 (quatro domı́nios nodais). ¤

1.9 Multiplicidade dos Autovalores do Laplaciano


Em regiões com algum tipo de simetria, o laplaciano freqüentemente possui autovalores com multiplicidades
maiores que 1.
2
Exemplo 9. Como os autovalores de Dirichlet do laplaciano no quadrado Q = [0, π] ⊂ R2 , dados por

λnm = n2 + m2 , n, m ∈ N,

com correspondentes autofunções

unm (x, y) = sen nx sen my,

vemos imediatamente que sempre que n 6= m o autovalor λnm terá multiplicidade pelo menos igual a
2, já que as autofunções

unm (x, y) = sen nx sen my e umn (x, y) = sen mx sen ny


Rodney Josué Biezuner 38

são linearmente independentes. Na verdade, o conjunto de todas as autofunções unm associadas ao


autovalor λnm é linearmente independente, logo a questão da multiplicidade do autovalor λnm é re-
duzida à questão de quantos maneiras diferentes um número inteiro p pode ser escrito como a soma
de quadrados inteiros n2 + m2 . A Teoria dos Números permite responder precisamente a esta questão
(veja [Kuttler-Sigillito] para referências). Obtemos a decomposição em primos do autovalor

λnm = 2α pr11 . . . prkk q1s1 . . . qlsl ,

onde os primos pi são da forma 4t + 1, enquanto que os primos qj são da forma 4t + 3, e todos os si
são pares. Segue que a multiplicidade do autovalor λnm é
k
Y
mult (λnm ) = (ri + 1) .
i=1

Em particular, o laplaciano possui autovalores no quadrado de multiplicidade arbitrariamente grande.


¤

O comportamento exibido pelo laplaciano no quadrado nos Exemplos 8 e 9 não é tı́pico, no entanto.
Em [Uhlenbeck1] e [Uhlenbeck2], Uhlenbeck mostrou que na maioria das regiões (no sentido genérico), os
autovalores do laplaciano são todos simples, os conjuntos nodais das autofunções são de fato hiperfı́cies
que não se autointerceptam e os pontos crı́ticos das autofunções são máximos ou mı́nimos não-degenerados
(as autofunções são funções de Morse). Assim, dada qualquer região, existem perturbações suficientemente
pequenas que a transformarão em uma região com estas propriedades, ou seja, autovalores múltiplos se
tornarão distintos e cruzamentos das linhas nodais desaparecerão.
Capı́tulo 2

Método de Diferenças Finitas

2.1 O Caso Unidimensional


Nesta seção, desenvolveremos um método numérico de diferenças finitas para resolver o problema de Dirichlet
para a equação de Poisson em uma dimensão
½
−u00 = f (x) em [0, a] ,
u (0) = u (a) = 0,
e para o problema de autovalor de Dirichlet para o laplaciano
½
−u00 = λu em [0, a] ,
u (0) = u (a) = 0.

2.1.1 Séries de Taylor e Diferenças Finitas em Uma Dimensão


Seja ∆x > 0. Considere as seguintes expansões de Taylor de uma função u em torno de um ponto x0 ,
respectivamente à direita e à esquerda de x0 :
1 00 1 000
u(x0 + ∆x) = u(x0 ) + u0 (x0 )∆x + u (x0 )∆x2 + u (x0 )∆x3 + . . . , (2.1)
2! 3!
1 1 000
u(x0 − ∆x) = u(x0 ) − u0 (x0 )∆x + u00 (x0 )∆x2 − u (x0 )∆x3 + . . . (2.2)
2! 3!
Daı́,
u(x0 + ∆x) − u(x0 ) 1 1 000
u0 (x0 ) = − u00 (x0 )∆x − u (x0 )∆x2 − . . . ,
∆x 2! 3!
0 u(x0 ) − u(x0 − ∆x) 1 1 000
u (x0 ) = + u00 (x0 )∆x − u (x0 )∆x2 + . . .
∆x 2! 3!
Isso fornece duas aproximações possı́veis para a primeira derivada u0 (x0 ) de u em x0 :
u(x0 + ∆x) − u(x0 )
u0 (x0 ) ≈ , (2.3)
∆x
u(x0 ) − u(x0 − ∆x)
u0 (x0 ) ≈ . (2.4)
∆x
A primeira é chamada uma diferença progressiva e a segunda é uma diferença regressiva. Pela Fórmula
de Taylor com Resto, o erro destas aproximações é dado por
1
² = ± u00 (ξ)∆x = O(∆x),
2
39
Rodney Josué Biezuner 40

onde x0 6 ξ 6 x0 + ∆x no primeiro caso, e x0 − ∆x 6 ξ 6 x0 no segundo caso.


Por outro lado, se subtrairmos (2.2) de (2.1), obtemos

u(x0 + ∆x) − u(x0 − ∆x) 1 1


u0 (x0 ) = − u000 (x0 )∆x2 − u(5) (x0 )∆x4 − . . .
2∆x 3! 5!
o que dá uma outra aproximação possı́vel para a primeira derivada u0 (x0 ) de u em x0 :

u(x0 + ∆x) − u(x0 − ∆x)


u0 (x0 ) ≈ (2.5)
2∆x
com erro
1
² = − u000 (ξ)∆x2 = O(∆x2 ),
6
para algum x0 − ∆x 6 ξ 6 x0 + ∆x. Esta aproximação por diferença finita é chamada diferença centrada.
Ela é uma melhor aproximação que as aproximações laterais (progressiva e regressiva).
Se, ao invés, adicionarmos (2.1) e (2.2), obtemos

u(x0 + ∆x) + u(x0 − ∆x) − 2u(x0 ) 2 2


u00 (x0 ) = − u(4) (x0 )∆x2 − u(6) (x0 )∆x4 − . . .
∆x2 4! 5!
o que fornece uma aproximação para a derivada segunda u00 (x0 ) de u em x0 :

u(x0 + ∆x) + u(x0 − ∆x) − 2u(x0 )


u00 (x0 ) ≈ (2.6)
∆x2
com erro
1 (4)
u (ξ)∆x2 = O(∆x2 ),
²=−
12
onde x0 − ∆x 6 ξ 6 x0 + ∆x. Esta aproximação é também chamada uma diferença centrada para a
derivada segunda.

2.1.2 Discretização
Dividimos o intervalo [0, a] em n subintervalos de comprimento ∆x = a/n através de n − 1 pontos interiores
uniformemente espaçados:

x0 = 0, x1 = ∆x, x2 = 2∆x, . . . , xn−1 = (n − 1) ∆x, xn = n∆x = a,

de modo que [0, a] = [x0 , x1 ] ∪ [x1 , x2 ] ∪ . . . ∪ [xn−1 , xn ]. Introduzimos a notação:

ui = u(xi ),
fi = f (xi ) .

Esta é uma discretização uniforme do intervalo [0, a]. Uma vez discretizado o domı́nio da equação diferencial
parcial, procedemos à discretização desta. Usando diferenças centradas para cada ponto interior xi , 1 6 i 6
n − 1, temos
−ui−1 + 2ui − ui+1
= fi . (2.7)
∆x2
Para os pontos de fronteira, a condição de Dirichlet implica simplesmente que

u0 = un = 0. (2.8)
Rodney Josué Biezuner 41

Portanto, para encontrar a solução discretizada temos que resolver o sistema linear com n − 1 equações a
n − 1 incógnitas: 
 ∆x−2 (2u1 + u2 ) = f1


 −2
 ∆x (−u1 + 2u2 − u3 ) = f2

.. ,
 .

 −2

 ∆x (−un−3 + 2un−2 − un−1 ) = f2

∆x−2 (−un−2 + 2un−1 ) = fn−1
ou seja,     
2 −1 u1 f1
 −1 2 −1  u2   f2 
    
 .. ..  ..   .. 
1  −1 . . 
 .  
= . 
.
∆x2 
 ..
. .
.. 
 ..  
  .. 

 −1  .   . 
 −1 2 −1   un−2   fn−2 
−1 2 un−1 fn−1
Esta é uma matriz tridiagonal simétrica, esparsa. Além disso, como veremos na próxima subseção, ela é
positiva definida (isto é, seus autovalores são positivos) e portanto possui uma inversa, o que garante a
existência e unicidade da solução. Dada sua simplicidade, ela pode ser resolvida por eliminação gaussiana
ou sua inversa pode ser efetivamente calculada. Por exemplo, para n = 4, 5, 6 temos
 −1  1 1
 1
   
2 −1 0 1 0 0 1 0 0 3 2 1
 −1
2 3 2 1
2 −1  =  0 1 2
3
 0 2
3 0   12 1 0 =  2 4 2 ,
3 1 2 4
0 −1 2 0 0 1 0 0 4 3 3 1 1 2 3
 −1  1 1 1
 1
   
2 −1 0 0 1 2 3 4 2 0 0 0 1 0 0 0 4 3 2 1
 −1 0   0 2 2  0 2
0   1 0   2 
 2 −1  = 1 3 4  3 0  2 1 0 = 1 3 6 4 
 0 −1 2 −1   0 0 1 3  0 0 3
0   13 2
1 0  5 2 4 6 3 
4 4 3
4 1 2 3
0 0 −1 2 0 0 0 1 0 0 0 5 4 4 4 1 1 2 3 4

 −1  1 1 1 1
 1
 
2 −1 0 0 0 1 2 3 4 5 2 0 0 0 0 1 0 0 0 0
 −1 2 −1 0 0   0 1 2 2 2  0 2
0 0 0  1
1 0 0 0 
   3 4 5  3  2 
 0 −1 2 −1 0  = 3 3  0 0 3
0 0  1 2
1 0 0 
   0 0 1 4 5  4  3 3 
 0 0 −1 2 −1   0 0 0 1 4  0 0 0 4
0  1 1 3
1 0 
5 5 4 2 4
5 1 2 3 4
0 0 0 −1 2 0 0 0 0 1 0 0 0 0 6 5 5 5 5 1
 
5 4 3 2 1
 4 8 6 4 2 
1 
=  3 6 9 6 3 
.
6
 2 4 6 8 4 
1 2 3 4 5

A forma da inversa no caso geral pode ser facilmente adivinhada.


Rodney Josué Biezuner 42

2.1.3 Resolução Numérica do Problema de Autovalor Unidimensional


Os autovalores de Dirichlet do laplaciano em [0, a] devem ser aproximados pelos autovalores da matriz
(n − 1) × (n − 1)  
2 −1
 −1 2 −1 
 
 . . . . 
1   −1 . . 
A= 
2
∆x   .. .. 
. . −1 
 
 −1 2 −1 
−1 2
quando n → ∞ e correspondentemente ∆x → 0.
Lembrando que as autofunções de Dirichlet do laplaciano no intervalo [0, a] são as funções

jπx
Uj (x) = sen ,
a
este fato sugere que os autovetores uj da matriz A são os vetores de coordenadas

Uj (x1 ) , Uj (x2 ) , . . . , Uj (xn−2 ) , Uj (xn−1 ) = Uj (∆x) , Uj (2∆x) , . . . , Uj ((n − 2) ∆x) , Uj ((n − 1) ∆x) ,

ou seja, como ∆x = a/n, os vetores


1 θ
sin = cos θ
2 2
µ ¶
jπ 2jπ (n − 2) jπ (n − 1) jπ
uj = sen , sen , . . . , sen , sen .
n n n n
Usando identidades trigonométricas, vamos verificar que isso de fato acontece:

2.1 Lema. Os n − 1 autovalores da matriz A são


µ ¶
2 jπ 4 jπ
λj = 1 − cos = sen2 , j = 1, . . . , n − 1, (2.9)
∆x2 n ∆x2 2n

e os autovetores correspondentes são


µ ¶
jπ 2jπ (n − 2) jπ (n − 1) jπ
uj = sen , sen , . . . , sen , sen , j = 1, . . . , n − 1. (2.10)
n n n n
Rodney Josué Biezuner 43

Prova. Temos
 jπ   
  sen jπ 2jπ
2 −1  n   2 sen − sen 
   n n 
 −1 2 −1  2jπ   jπ 2jπ 3jπ 
  sen   − sen + 2 sen − sen 
 .. ..  n   n n n 
 −1 . .  ..   .. 
  = . 
 .. ..  .   
 . . −1    
  (n − 2) jπ   − sen (n − 3) jπ + 2 sen (n − 2) jπ − sen (n − 1) jπ 
 −1 2 −1  

sen
n
 
  n n n 

−1 2  (n − 1) jπ

− sen
(n − 2) jπ
+ 2 sen
(n − 1) jπ
sen n n
n  

 sen 
 n 
 2jπ 
sen
µ ¶ n 

jπ  .. 
= 2 1 − cos  . ,
n  
 (n − 2) jπ 
 sen 
 n 
 (n − 1) jπ 
sen
n
pois µ ¶
jπ 2jπ jπ jπ jπ jπ jπ
2 sen − sen = 2 sen − 2 sen cos = 2 1 − cos sen ,
n n n n n n n

(n − k − 1) jπ (n − k) jπ (n − k + 1) jπ
− sen + 2 sen − sen
· n ¸ n n
· ¸
(n − k) jπ jπ (n − k) jπ (n − k) jπ jπ
= − sen − + 2 sen − sen +
n n n n n
(n − k) jπ jπ (n − k) jπ jπ (n − k) jπ
= − sen cos + cos sen + 2 sen
n n n n n
(n − k) jπ jπ (n − k) jπ jπ
− sen cos − cos sen
µ n ¶ n n n
jπ (n − k) jπ
= 2 1 − cos sen ,
n n
e
(n − 2) jπ (n − 1) jπ
− sen + 2 sen
· n ¸ n
(n − 1) jπ jπ (n − 1) jπ
= − sen − + 2 sen
n n n
(n − 1) jπ jπ (n − 1) jπ jπ (n − 1) jπ
= − sen cos + cos sen + 2 sen
n n n n n
(n − 1) jπ jπ (n − 1) jπ jπ (n − 1) jπ
= − sen cos − sen cos + 2 sen
µ n ¶ n n n n
jπ (n − 1) jπ
= 2 1 − cos sen ,
n n
onde na penúltima identidade usamos o fato que
(n − 1) jπ jπ (n − 1) jπ jπ
cos sen = − sen cos
n n n n
Rodney Josué Biezuner 44

porque · ¸
(n − 1) jπ jπ (n − 1) jπ jπ (n − 1) jπ jπ
0 = sen jπ = sen + = sen cos + cos sen .
n n n n n n
¥
Os autovalores de A são positivos, portanto A é uma matriz positiva definida. Observe que, fixado j, se n é
arbitrariamente grande então
jπ j 2 π2
cos ≈1− ,
n 2n2
pois o desenvolvimento em série de Taylor da função cosseno em torno da origem é
1 ¡ ¢
cos x = 1 − x2 + O x3 ;
2
tomando x = jπ/n para n suficientemente grande e desprezando os termos de terceira ordem, obtemos a
aproximação acima. Daı́,
µ ¶ µ ¶ µ · ¸¶
2 jπ 2n2 jπ 2n2 j 2 π2 j 2 π2
1 − cos = 1 − cos ≈ 1 − 1 − = ,
∆x2 n a2 n a2 2n2 a2
de forma que os menores autovalores da matriz A são uma boa aproximação para os menores autovalores de
Dirichlet do laplaciano no intervalo [0, a]. Já o maior autovalor da matriz A é
µ ¶ µ ¶
2 (n − 1) π 2n2 (n − 1) π 4n2
λn−1 = 1 − cos = 1 − cos ≈ ,
∆x2 n a2 n a2
que não é uma boa aproximação para um autovalor do laplaciano. Vemos que se aumentarmos o número de
pontos de discretização (malha mais refinada) obteremos melhores aproximações e uma quantidade maior de
autovalores próximos aos autovalores do laplaciano. Para comparar, veja a tabela a seguir para os autovalores
do laplaciano no intervalo [0, π]; na primeira coluna temos os
µ autovalores
¶ exatos do laplaciano, enquanto que
2n2 jπ
na demais colunas os autovalores da matriz A, λj = 2 1 − cos , com a linha superior indicando o
π n
número n de subintervalos na malha
n = 11 n = 21 n = 31 n = 51 n = 101 n = 1001
1 0.993 221 21 0.998 136 38 0.999 144 44 0.999 683 82 0.999 919 37 0.999 999 18
4 3.892 419 95 3.970 248 82 3.986 325 21 3.994 943 16 3.998 710 15 3.999 986 87
9 8.462 720 39 8.849 945 24 8.930 889 79 8.974 415 97 8.993 471 18 8.999 933 51
16 14.333 863 96 15.528 221 28 15.782 100 25 15.919 213 41 15.979 370 36 15.999 789 87
25 21.030 205 54 23.855 895 28 24.469 653 89 24.802 991 47 24.949 649 29 24.999 486 99
36 28.009 247 34 33.646 940 78 34.904 404 68 35.592 050 94 35.895 629 79 35.998 936 22
49 34.705 588 92 44.682 641 99 46.979 277 93 48.245 465 23 48.806 722 35 48.998 029 23
64 40.576 732 50 56.716 479 58 60.570 369 11 62.715 235 6 63.670 436 30 63.996 637 97
81 45.147 032 93 69.479 637 52 75.538 215 24 78.946 473 26 80.472 391 97 80.994 614 71
100 48.046 231 68 82.687 007 94 91.729 225 95 96.877 607 56 99.196 334 56 99.991 792 02

2.2 O Caso Bidimensional


Nesta seção, desenvolveremos um método numérico de diferenças finitas para resolver o problema de Dirichlet
para a equação de Poisson no retângulo (0, a) × (0, b)
½
−∆u = f (x, y) em (0, a) × (0, b) ,
u=0 sobre ∂ ((0, a) × (0, b)) ,
e para o problema de autovalor de Dirichlet para o laplaciano no retângulo
½
−∆u = λu em (0, a) × (0, b) ,
u=0 sobre ∂ ((0, a) × (0, b)) .
Rodney Josué Biezuner 45

2.2.1 A Fórmula dos Cinco Pontos


Vamos estabelecer alguma notação. Denote
© ª
Ω = (0, a) × (0, b) = (x, y) ∈ R2 : 0 < x < a, 0 < y < b .

Ao discretizar Ω através dos pontos

(xi , yj ) = (i∆x, j∆y) , 0 6 i 6 n, 0 6 j 6 m

onde
a b
∆x =
, ∆y = ,
n m
substituı́mos o domı́nio Ω pela malha (ou gride) uniforme

Ωd = {(x, y) ∈ Ω : x = i∆x, y = j∆y, 1 6 i 6 n − 1, 1 6 j 6 m − 1} .

Sua fronteira discretizada é o conjunto

∂Ωd = {(x, y) ∈ ∂Ω : x = i∆x, y = j∆y, 0 6 i 6 n, 0 6 j 6 m} ,

de forma que © ª
Ωd = (x, y) ∈ Ω : x = i∆x, y = j∆y, 0 6 i 6 n, 0 6 j 6 m .
A equação de Poisson
−uxx − uyy = f (x, y)
pode ser agora discretizada. Denotamos

ui,j = u (xi , yj ) ,
fi,j = f (xi , yj ) .

Aproximamos cada derivada parcial de segunda ordem pela sua diferença centrada, obtendo
−ui−1,j + 2ui,j − ui+1,j
−uxx ≈ ,
∆x2
−ui,j−1 + 2ui,j − ui,j+1
−uyy ≈ .
∆y 2
Portanto, a equação de Poisson discretizada toma a forma
−ui−1,j + 2ui,j − ui+1,j −ui,j−1 + 2ui,j − ui,j+1
+ = fi,j . (2.11)
∆x2 ∆y 2
Como a função u é calculada em cinco pontos, esta equação é chamada a fórmula dos cinco pontos.
Para cada ponto interior da malha obtemos uma equação, logo temos um sistema linear de (n − 1) (m − 1)
equações com o mesmo número de incógnitas. Diferente do caso unidimensional, no entanto, não existe uma
maneira natural de ordenar os pontos da malha, logo não podemos obter imediatamente uma representação
matricial para o problema discretizado. Precisamos antes escolher uma ordenação para os pontos da malha,
e como existem várias ordenações possı́veis, existem várias matrizes associadas.
Talvez a mais simples ordenação é a ordem lexicográfica induzida de Z2 . Nesta ordem, os pontos da
malha são percorridos linha por linha, da esquerda para a direita, de baixo para cima:

u1,1 , u2,1 , . . . , un−1,1 , u1,2 , u2,2 , . . . , un−1,2 , . . . . . . , u1,m−1 , u2,m−1 , . . . , un−1,m−1 .


Rodney Josué Biezuner 46

Neste caso, a matriz associada ao sistema linear é uma matriz (n − 1) (m − 1) × (n − 1) (m − 1) que pode
ser escrita como uma matriz de (m − 1) × (m − 1) blocos de dimensão (n − 1) × (n − 1) na forma
 1 
B − I
 ∆y 2 
 
 − 1 I B
1
− 2I 
 ∆y 2 ∆y 
 
 1 .. .. 
 − I . . 
 ∆y 2 
A=



 .. .. 1 
 . . − I 
 ∆y 2 
 1 1 
 − I B − 2I 
 ∆y 2 ∆y 
 1 
− I B
∆y 2 (m−1)×(m−1)

onde I é a matriz identidade (n − 1) × (n − 1) e B é a matriz (n − 1) × (n − 1) dada por


 µ ¶ 
1 1 1
 2 ∆x2 + ∆y 2 −
∆x2 
 µ ¶ 
 1 1 1 1 
 − 2 + − 
 ∆x 2 ∆x 2 ∆y 2 ∆x2 
 
 1 .. .. 
 − . . 
 ∆x 2 
 
 .. .. 1 
 . . − 
 µ ∆x2 ¶ 
 1 1 1 1 
 − 2 + − 
 ∆x 2 ∆x 2 ∆y 2 ∆x 2 
 µ ¶ 
 1 1 1 
− 2 +
∆x2 ∆x2 ∆y 2 (n−1)×(n−1)

Observe que µ ¶
1 1
aii = 2 +
∆x2 ∆y 2
para todo 1 6 i 6 (n − 1) (m − 1), enquanto que
1
aij = −
∆y 2
se o ponto j é vizinho à esquerda ou à direita do ponto i e
1
aij = −
∆x2
se o ponto j é vizinho acima ou abaixo do ponto i. Por exemplo, no caso especial ∆x = ∆y, se n = 4 e m = 6
Rodney Josué Biezuner 47

(ou seja 3 × 5 = 15 pontos internos na malha e uma matriz 15 × 15), temos


 
4 −1 0 −1 0 0 0 0 0 0 0 0 0 0 0
 −1 4 −1 0 −1 0 0 0 0 0 0 0 0 0 0 
 
 0 −1 4 0 0 −1 0 0 0 0 0 0 0 0 0 
 
 −1 0 0 4 −1 0 −1 0 0 0 0 0 0 0 0 
 
 0 −1 0 −1 4 −1 0 −1 0 0 0 0 0 0 0 
 
 0 0 −1 0 −1 4 0 0 −1 0 0 0 0 0 0 
 
 0 0 0 −1 0 0 4 −1 0 −1 0 0 0 0 0 
1  0

A= 0 0 0 −1 0 −1 4 −1 0 −1 0 0 0 0 
∆x2 
 0

 0 0 0 0 −1 0 −1 4 0 0 −1 0 0 0 

 0 0 0 0 0 0 −1 0 0 4 −1 0 −1 0 0 
 
 0 0 0 0 0 0 0 −1 0 −1 4 −1 0 −1 0 
 
 0 0 0 0 0 0 0 0 −1 0 −1 4 0 0 −1 
 
 0 0 0 0 0 0 0 0 0 −1 0 0 4 −1 0 
 
 0 0 0 0 0 0 0 0 0 0 −1 0 −1 4 −1 
0 0 0 0 0 0 0 0 0 0 0 −1 0 −1 4

Observe que a matriz A é uma matriz simétrica, pentadiagonal e esparsa.

2.2.2 Existência e Unicidade da Solução Discreta – Autovalores do Problema


Bidimensional
Denotaremos por ud a função u|Ωd , isto é, ud é a discretização da função u no domı́nio discretizado Ωd .
Vamos definir o operador laplaciano discreto obtido a partir da fórmula dos cinco pontos por
µ ¶
ui−1,j − 2ui,j + ui+1,j ui,j−1 − 2ui,j + ui,j+1
−∆d ud = − + . (2.12)
∆x2 ∆y 2

de modo que a discretização do problema


½
−∆u = f em Ω,
u=0 sobre ∂Ω,

é o problema ½
−∆d ud = fd em Ωd ,
(2.13)
ud = 0 sobre ∂Ωd .
Para estabelecer a existência e unicidade da solução discreta, provaremos que a matriz de discretização A,
que é uma matriz simétrica, é também uma matriz positiva definida, pois isso implica em particular que A
é invertı́vel.
Lembrando que as autofunções de Dirichlet do laplaciano no retângulo [0, a] × [0, b] são as funções

kπx lπy
Ukl (x, y) = sen sen ,
a b
este fato sugere que os autovetores ukl da matriz A na ordem lexicográfica são os vetores de coordenadas

Ukl (x1 , y1 ) , Ukl (x2 , y1 ) , . . . , Ukl (xn−1 , y1 ) ,


Ukl (x1 , y2 ) , Ukl (x2 , y2 ) , . . . , Ukl (xn−1 , y2 ) ,
..
.
Ukl (x1 , ym−1 ) , Ukl (x2 , ym−1 ) , . . . , Ukl (xn−1 , ym−1 )
Rodney Josué Biezuner 48

= Ukl (∆x, ∆y) , Ukl (2∆x, ∆y) , . . . , Ukl ((n − 1) ∆x, ∆y) ,
Ukl (∆x, 2∆y) , Ukl (2∆x, 2∆y) , . . . , Ukl ((n − 1) ∆x, 2∆y) ,
..
.
Ukl (∆x, (m − 1) ∆y) , Ukl (2∆x, (m − 1) ∆y) , . . . , Ukl ((n − 1) ∆x, (m − 1) ∆y) ,

ou seja, como ∆x = a/n e ∆y = b/m, os vetores


µ
kπ lπ 2kπ lπ (n − 1) kπ lπ
ukl = sen sen , sen sen , . . . , sen sen ,
n m n m n m
kπ 2lπ 2kπ 2lπ (n − 1) kπ 2lπ
sen sen , sen sen , . . . , sen sen ,
n m n m n m
...,

kπ (m − 1) lπ 2kπ (m − 1) lπ (n − 1) kπ (m − 1) lπ
sen sen , sen sen , . . . , sen sen .
n m n m n m

2.2 Lema. Os (n − 1) × (m − 1) autovalores da matriz A são


· µ ¶ µ ¶¸ µ ¶
1 kπ 1 lπ 1 2 kπ 1 2 lπ
λkl = 2 1 − cos + 1 − cos = 4 sen + sen , (2.14)
∆x2 n ∆y 2 m ∆x2 2n ∆y 2 2m
k = 1, . . . , n − 1, l = 1, . . . , m − 1, e os autovetores correspondentes são
µ
kπ lπ 2kπ lπ (n − 1) kπ lπ
ukl = sen sen , sen sen , . . . , sen sen ,
n m n m n m
kπ 2lπ 2kπ 2lπ (n − 1) kπ 2lπ
sen sen , sen sen , . . . , sen sen , (2.15)
n m n m n m
...,

kπ (m − 1) lπ 2kπ (m − 1) lπ (n − 1) kπ (m − 1) lπ
sen sen , sen sen , . . . , sen sen ,
n m n m n m
k = 1, . . . , n − 1, l = 1, . . . , m − 1.

Prova. Embora a demonstração deste lema possa ser feita de maneira análoga à do Lema 2.1, usando
identidades trigonométricas, daremos uma demonstração diferente. Lembrando que as autofunções e os
autovalores de Dirichlet do laplaciano no retângulo são facilmente obtidos através do método de separação
de variáveis, encontraremos os autovalores da matriz A usando um método de separação de variáveis discreto
para achar os autovalores do laplaciano discreto
µ ¶
ui−1,j − 2ui,j + ui+1,j ui,j−1 − 2ui,j + ui,j+1
− + = λui,j . (2.16)
∆x2 ∆y 2

Em particular, este método não depende da maneira como os pontos da malha são ordenados (não depende
da matriz A usada para representar o laplaciano discreto). Como no método de separação de variáveis
contı́nuo, assumimos que as soluções da equação discreta acima são produtos da forma

ui,j = F (i) G (j) , (2.17)

onde F e G são funções de uma variável inteira. Substituindo esta expressão na equação de Helmholtz
discreta, obtemos
F (i − 1) G (j) − 2F (i) G (j) + F (i + 1) G (j) F (i) G (j − 1) − 2F (i) G (j) + F (i) G (j + 1)
+ = −λF (i) G (j) .
∆x2 ∆y 2
Rodney Josué Biezuner 49

Dividindo esta equação por F (i) G (j), segue que


F (i − 1) − 2F (i) + F (i + 1) G (j − 1) − 2G (j) + G (j + 1)
+ = −λ.
∆x2 F (i) ∆y 2 G (j)
Separando as variáveis, concluı́mos que cada um dos quocientes acima é independente de i ou de j, isto é,
eles são constantes:
F (i − 1) − 2F (i) + F (i + 1)
= A, (2.18)
F (i)
G (j − 1) − 2G (j) + G (j + 1)
= B, (2.19)
G (j)
onde as constantes α, β estão relacionadas pela identidade
A B
2
+ = −λ. (2.20)
∆x ∆y 2
Estas equações podem ser escritas como fórmulas de recorrência (análogas às equações diferenciais ordinárias
obtidas no método de separação de variáveis contı́nuo)

F (i + 1) − (A + 2) F (i) + F (i − 1) = 0,
G (j − 1) − (B + 2) G (j) + G (j + 1) = 0.

Para resolvê-las, é mais conveniente trabalhar com as constantes

2α = A + 2, 2β = B + 2.

Desta forma, as equações para F e G tornam-se

F (i − 1) − 2αF (i) + F (i + 1) = 0, (2.21)


G (j − 1) − 2βG (j) + G (j + 1) = 0. (2.22)

Observe que µ ¶
1−α 1−β
λ=2 + . (2.23)
∆x2 ∆y 2
Vamos resolver a equação para F , já que a equação para G é completamente análoga. Substituindo em
(2.21) uma solução da forma
F (i) = z i (2.24)
obtemos
z i−1 − 2αz i + z i+1 = 0,
donde, dividindo por z i−1 extraı́mos a equação quadrática (análoga à equação indicial)

z 2 − 2αz + 1 = 0. (2.25)

As duas raı́zes são p


z± = α ± α2 − 1,
com z+ + z− = 2α e z+ z− = 1. Portanto, a solução geral para a equação (2.21) é
i i
F (i) = c1 z+ + c2 z−

para algumas constantes c1 , c2 . Para determinarmos estas constantes e também α, aplicamos as condições
de fronteira, que implicam
F (0) = F (n) = 0.
Rodney Josué Biezuner 50

A primeira destas por sua vez implica que c1 = −c2 , logo


¡ i i
¢
F (i) = c z+ − z− . (2.26)

Como a equação para F é homogênea, a constante c é arbitrária. Aplicando a segunda, segue que
n n
z+ = z− ,

ou, como z+ z− = 1,
2n
z+ =1
Conseqüentemente, z+ é uma 2n-ésima raiz complexa de 1:

z+ = eijπ/n (2.27)

para algum inteiro 1 6 k 6 2n − 1, onde i = −1. Como z− = 1/z+ , podemos restringir 0 6 k 6 n − 1 e
(2.26) produz todas as soluções não-triviais F de (2.21).
Portanto,
z+ + z− eiπk/n + e−iπk/n kπ
α= = = cos , 0 6 k 6 n − 1,
2 2 n
e, escolhendo c = 1/2,
ikπ
Fk (i) = eiπki/n − e−iπki/n = sen .
n
Analogamente,

β = cos , 0 6 l 6 m − 1,
m
e
jlπ
Gl (j) = sen .
m
Segue que os autovalores são
· µ ¶ µ ¶¸
1 kπ 1 lπ
λkl = 2 1 − cos + 1 − cos
∆x2 n ∆y 2 m

e as coordenadas das autofunções associadas são dadas por


ikπ jlπ
(ukl )i,j = Fk (i) Gl (j) = sen sen .
n m
¥

2.3 Teorema. (Existência e Unicidade da Solução Discreta) Seja Ω = (0, a) × (0, b). Então o problema
discretizado ½
−∆d ud = fd em Ωd ,
ud = 0 sobre ∂Ωd ,
possui uma única solução.

Prova. Pelo lema anterior, os autovalores da matriz simétrica A são positivos, logo ela é uma matriz
invertı́vel. ¥
Rodney Josué Biezuner 51

2.2.3 Princı́pio do Máximo Discreto


Para obter uma estimativa a priori para a equação de Poisson discretizada, e com isso provar a convergência
da solução discreta para a solução clássica, usaremos um princı́pio do máximo discreto que enunciaremos e
provaremos nesta subseção.
2.3 Lema. (Propriedade do Valor Médio) Se ∆d ud = 0, então para pontos interiores vale
∆x2 (ui,j−1 + ui,j+1 ) + ∆y 2 (ui−1,j + ui+1,j )
ui,j = .
2 (∆x2 + ∆y 2 )
Em particular, se ∆x = ∆y, então para pontos interiores vale
ui,j−1 + ui,j+1 + ui−1,j + ui+1,j
ui,j = .
4

2.4 Teorema. (Princı́pio do Máximo Discreto) Se ∆d ud > 0, o máximo de ud em Ωd é atingido na fronteira


∂Ωd ; se o máximo de ud é atingido no interior, então ud é constante.
Se ∆d ud 6 0, o mı́nimo de ud em Ωd é atingido na fronteira ∂Ωd ; se o mı́nimo de ud é atingido no
interior, então ud é constante.
Prova. Primeiro provaremos para ∆x = ∆y, para ilustrar a analogia com o caso contı́nuo. ∆d ud > 0 implica
ui,j−1 + ui,j+1 + ui−1,j + ui+1,j
ui,j 6 .
4
Logo, um ponto interior é um máximo local, isto é,
ui,j > ui,j−1 , ui,j+1 , ui−1,j , ui+1,j
(ou seja, é um máximo em relação aos seus quatro vizinhos), somente se cada um dos seus quatro vizinhos
assume este mesmo valor máximo, e a desigualdade torna-se uma identidade. Aplicando este argumento a
todos os pontos da malha, concluı́mos que ou não existe um máximo interior, e portanto o máximo é atingido
na fronteira, ou existe um máximo interior e todos os pontos da malha assumem o mesmo valor, isto é, ud é
constante.
No caso geral ∆x 6= ∆y, se ∆d ud > 0 temos
µ ¶ µ ¶
1 1 1 ui,j−1 + ui,j+1 ui−1,j + ui+1,j
+ ui,j 6 + .
∆x2 ∆y 2 2 ∆y 2 ∆x2
Se ui,j é um máximo local, segue que
µ ¶ µ ¶ µ ¶
1 1 1 ui,j + ui,j ui,j + ui,j 1 1 1
+ ui,j 6 + = + ui,j ,
∆x2 ∆y 2 2 ∆y 2 ∆x2 2 ∆x2 ∆y 2
logo nenhum dos seus quatro vizinhos pode assumir um valor menor que ui,j , isto é, cada um dos quatro
vizinhos assume o mesmo valor máximo e o argumento prossegue como no caso anterior. O caso ∆d ud 6 0
é provado considerando-se −ud . ¥

2.2.4 Convergência da Solução Discreta para a Solução Clássica


Por simplicidade, trabalharemos no quadrado unitário, isto é, Ω = (0, 1) × (0, 1). Consideraremos a norma
do máximo discreta para funções vd definidas no domı́nio discretizado Ωd :
kvd k∞ = max |vi,j | .
06i6n
06j6m

Em primeiro lugar, obtemos uma estimativa a priori discreta (que também pode ser visto como um resultado
de regularidade discreto) para soluções da equação de Poisson discreta com condição de Dirichlet homogênea:
Rodney Josué Biezuner 52

2
2.5 Lema. (Estimativa a Priori) Seja Ω = (0, 1) . Seja ud uma solução de
½
−∆d ud = fd em Ωd ,
ud = 0 sobre ∂Ωd .
Então
1
kud k∞ 6 k∆d ud k∞ . (2.28)
8
Prova. Considere a função "µ ¶2 µ ¶2 #
1 1 1
w (x, y) = x− + y−
4 2 2
e sua versão discretizada wd definida por
"µ ¶2 µ ¶2 #
1 1 1
wi,j = xi − + yj − . (2.29)
4 2 2

Então
w>0 e ∆w = 1,
e também
wd > 0 e ∆d wd = 1, (2.30)
pois
wi−1,j − 2wi,j + wi+1,j wi,j−1 − 2wi,j + wi,j+1
∆d wd = +
∆x2 ∆y 2
"¡ ¢ ¡ ¢ ¡ ¢2 ¡ ¢2 ¡ ¢2 ¡ ¢2
1 2 1 2
1 xi−1 − 2 + yj − 2 − 2 xi − 12 − 2 yj − 12 + xi+1 − 21 + yj − 12
=
4 ∆x2
¡ ¢2 ¡ ¢2 ¡ ¢2 ¡ ¢2 ¡ ¢2 ¡ ¢2 #
xi − 12 + yj−1 − 12 − 2 xi − 12 − 2 yj − 12 + xi − 12 + yj+1 − 12
+
∆y 2
"¡ ¢2 ¡ ¢2 ¡ ¢2 ¡ ¢2 ¡ ¢2 ¡ ¢2 #
1 xi−1 − 12 − 2 xi − 12 + xi+1 − 12 yj−1 − 21 − 2 yj − 12 + yj+1 − 12
= +
4 ∆x2 ∆y 2
"¡ ¢2 ¡ ¢2 ¡ ¢2 ¡ ¢2 ¡ ¢2 ¡ ¢2 #
1 xi − ∆x − 12 − 2 xi − 12 + xi + ∆x − 12 yj − ∆y − 12 − 2 yj − 12 + yj + ∆y − 12
= +
4 ∆x2 ∆y 2
"¡ ¢ ¡ ¢ ¡ ¢
1 x2i + ∆x2 + 14 − 2xi ∆x − xi + ∆x − 2 x2i − xi + 14 + x2i + ∆x2 + 14 + 2xi ∆x − xi − ∆x
=
4 ∆x2
¡ 2 ¢ ¡ ¢ ¡ ¢#
yj + ∆y 2 + 14 − 2yj ∆y − yj + ∆y − 2 yj2 − yj + 41 + yj2 + ∆y 2 + 14 + 2yj ∆y − yj − ∆y
+
∆y 2
µ ¶
1 2∆x2 2∆y 2
= + = 1.
4 ∆x2 ∆y 2
Considere agora a função
ud − k∆d ud k∞ wd . (2.31)
Temos então
∆d (ud − k∆d ud k∞ wd ) = ∆d ud − k∆d ud k∞ ∆d wd
= ∆d ud − k∆d ud k∞
6 0.
Rodney Josué Biezuner 53

Segue do Princı́pio do Máximo Discreto que a função ud − k∆d ud k∞ wd assume o seu mı́nimo na fronteira.
Este último é igual a − k∆d ud k∞ max∂Ωd wd . Por sua vez, o máximo de wd na fronteira é menor ou igual ao
máximo de w em ∂Ω, dado por
µ ¶2 µ ¶2
1 1 1 1 1
max x− = max y− = .
06x61 4 2 06x61 4 2 8
Portanto, concluı́mos que
1
ui,j > ui,j − k∆d ud k∞ wi,j > − k∆d ud k∞ (2.32)
8
para todos i, j. Analogamente,
∆d (ud + k∆d ud k∞ wd ) > 0
e a função ud + k∆d ud k∞ wd assume o seu máximo na fronteira, igual a k∆d ud k∞ max∂Ωd wd 6 18 a, donde

1
ui,j 6 ui,j − k∆d ud k∞ wi,j 6 k∆d ud k∞ (2.33)
8
para todos i, j. Reunindo as duas desigualdades, segue que
1
|ui,j | 6 k∆d ud k∞
8
para todos i, j, o que conclui a demonstração. ¥
2 ¡ ¢
2.6 Teorema. Seja Ω = (0, 1) . Sejam u ∈ C 4 Ω uma solução clássica para o problema de Dirichlet
½
−∆u = f em Ω,
u=0 sobre ∂Ω,

e vd uma solução do correspondente problema discretizado


½
−∆d vd = fd em Ωd ,
vd = 0 sobre ∂Ωd .

Então existe uma constante C > 0 independente de u tal que


° ° ¡ ¢
kud − vd k∞ 6 C °D4 u°L∞ (Ω) ∆x2 + ∆y 2 . (2.34)

¡ ¢ ¡ ¢
Prova. A hipótese f ∈ C 2,α Ω garante que u ∈ C 4 Ω . Lembre-se que
¯ 4 ¯
° 4 ° ¯ ∂ u ¯
°D u° ∞ = sup ¯ (x, y) ¯.
L (Ω) ¯ ∂xp ∂y q ¯
(x,y)∈Ω
p+q=4

Pela Fórmula de Taylor,

∂2u u(xi − ∆x, yj ) − 2u(xi , yj ) + u(xi + ∆x, yj ) 2 ∂4u 2 ∂6u


2
(xi , yj ) = 2
− 4
(xi , yj )∆x2 − (xi , yj )∆x4 − . . .
∂x ∆x 4! ∂x 5! ∂x6
ui−1,j − 2ui,j + ui+1,j 2 ∂4u 2 2 ∂6u
= − (x i , y j )∆x − (xi , yj )∆x4 − . . . ,
∆x2 4! ∂x4 5! ∂x6
∂2u u(xi , yj − ∆y) − 2u(xi , yj ) + u(xi , yj + ∆y) 2 ∂4u 2 2 ∂6u
(xi , y j ) = − (x i , yj )∆y − (xi , yj )∆y 4 − . . .
∂y 2 ∆y 2 4! ∂y 4 5! ∂y 6
ui,j−1 − 2ui,j + ui,j+1 2 ∂4u 2 2 ∂6u
= − (x i , y j )∆y − (xi , yj )∆y 4 − . . . ,
∆y 2 4! ∂y 4 5! ∂y 6
Rodney Josué Biezuner 54

donde µ ¶
1 ∂4u ∂4u ¡ ¢
∆u (xi , yj ) = (∆d ud )ij − 4
(xi , yj )∆x2 + 4 (xi , yj )∆y 2 + O ∆x4 , ∆y 4 . (2.35)
3! ∂x ∂y
Como
−∆u (xi , yj ) = f (xi , yj ) ,
temos que
µ ¶
1 ∂4u ∂4u ¡ ¢
− (∆d ud )i,j = (fd )i,j − 4
(xi , yj )∆x2 + 4 (xi , yj )∆y 2 + O ∆x4 , ∆y 4 . (2.36)
3! ∂x ∂y
Subtraindo desta equação a equação
− (∆d vd )i,j = (fd )i,j ,
obtemos µ ¶
1 ∂4u ∂4u ¡ ¢
− (∆d ud − ∆d vd )i,j = − 4
(xi , yj )∆x2 + 4 (xi , yj )∆y 2 + O ∆x4 , ∆y 4 ,
3! ∂x ∂y
o que implica
1 ° °
°D4 u° ∞
¡ 2 ¢ ¡ ¢
k∆d (ud − vd )k∞ 6 L (Ω)
∆x + ∆y 2 + O ∆x4 , ∆y 4
3! ° ° ¡ ¢
6 C °D4 u°L∞ (Ω) ∆x2 + ∆y 2 .

Usando a estimativa a priori do lema anterior, obtemos finalmente o resultado desejado. ¥

Definição. Dizemos que as soluções do problema discretizado


½
−∆d vd = fd em Ωd ,
vd = 0 sobre ∂Ωd ,

convergem para a solução exata u do problema de Poisson


½
−∆u = f em Ω,
u=0 sobre ∂Ω,

com relação à norma k·k se


kud − vd k → 0
quando ∆x, ∆y → 0. Dizemos que a convergência é de ordem k (ou que o esquema de diferenças
finitas é convergente de ordem k) se
¡ ¢
kud − vd k = O ∆xk , ∆y k .

O Teorema 2.6 diz que o esquema de diferenças


¡ ¢ finitas da fórmula de cinco pontos é um esquema convergente
na norma do sup de ordem 2, se u ∈ C 4 Ω . Maior regularidade da solução u não causa melhor convergência
no método. Na verdade, a ordem de convergência da fórmula de cinco
¡ ¢ pontos ainda é 2 mesmo
¡ ¢ sob hipóteses
mais fracas sobre a regularidade de u: basta assumir u ∈ C 3,1 Ω , ao invés de u ∈ C 4 Ω . No entanto,
regularidade menor que esta em u afeta negativamente
¡ ¢ a ordem de convergência da fórmula de cinco pontos.
Em geral, pode-se provar que se u ∈ C k,α Ω , 2 6 k 6 4, então existe uma constante C = C (k, α) tal que
¡ ¢
kud − vd k∞ 6 C ∆xk+α−2 + ∆y k+α−2 kukC k,α (Ω) . (2.37)

Para uma demonstração destes resultados, veja [Hackbusch], págs. 60-61. Se quisermos uma melhor ordem
de convergência para as soluções discretizadas, é necessário considerar outras forma de discretizar o laplaciano
através de diferenças finitas. Isto será feito na próxima seção.
Rodney Josué Biezuner 55

2.3 Discretizações de Ordem Superior


Para obter esquemas de diferenças finitas com melhor ordem de convergência, em geral é necessário acres-
centar mais pontos na fórmula. O método dos coeficientes indeterminados é um método simples para
construir estes esquemas.

2.3.1 Caso Unidimensional


Vamos obter um esquema de diferenças finitas convergente de ordem 4 para o caso unidimensional. O
esquema envolvendo três pontos, que obtivemos no inı́cio do capı́tulo através da aproximação da derivada
segunda em um ponto por uma diferença finita centrada (que envolve o ponto e seus dois vizinhos, à esquerda
e à direita), é convergente de ordem 2 (isso que pode ser provado de maneira semelhante a como fizemos para
a fórmula de cinco pontos). Para obter um esquema com uma maior ordem de convergência, acrescentamos
mais dois pontos à fórmula de diferenças finitas do esquema, que denotaremos por δui :
δui = c1 ui−2 + c2 ui−1 + c3 ui + c4 ui+1 + c5 ui+2 . (2.38)
Cada termo tem sua expansão em série de Taylor:
4 00 8 16 32 ¡ ¢
u(xi − 2∆x) = u(xi ) − 2u0 (xi )∆x + u (xi )∆x2 − u000 (xi )∆x3 + u(4) (xi )∆x4 − u(5) (xi )∆x5 + O ∆x6 ,
2! 3! 4! 5!
1 00 1 000 1 (4) 1 (5) ¡ ¢
u(xi − ∆x) = u(xi ) − u (xi )∆x + u (xi )∆x − u (xi )∆x + u (xi )∆x − u (xi )∆x5 + O ∆x6 ,
0 2 3 4
2! 3! 4! 5!
1 00 1 000 1 (4) 1 ¡ ¢
u(xi + ∆x) = u(xi ) + u (xi )∆x + u (xi )∆x + u (xi )∆x + u (xi )∆x + u(5) (xi )∆x5 + O ∆x6 ,
0 2 3 4
2! 3! 4! 5!
4 00 8 000 16 (4) 32 ¡ ¢
0
u(xi + 2∆x) = u(xi ) + 2u (xi )∆x + u (xi )∆x + u (xi )∆x + u (xi )∆x + u(5) (xi )∆x5 + O ∆x6 .
2 3 4
2! 3! 4! 5!
Substituindo estas expressões na fórmula acima, obtemos:
δui = (c1 + c2 + c3 + c4 + c5 ) u (xi )
+ ∆x (−2c1 − c2 + c4 + 2c5 ) u0 (xi )
µ ¶
1 1
+ ∆x2 2c1 + c2 + c4 + 2c5 u00 (xi )
2 2
µ ¶
4 1 1 4
+ ∆x − c1 − c2 + c4 + c5 u000 (xi )
3
3 6 6 3
µ ¶
4 2 1 1 2
+ ∆x c1 + c2 + c4 + c5 u(4) (xi )
3 24 24 3
µ ¶
5 4 1 1 4
+ ∆x − c1 − c2 + c4 + c5 u(5) (xi )
15 120 120 15
¡ ¢
+ O ∆x6 .
Como procuramos um esquema de diferenças finitas com ordem de convergência maior que 2, queremos obter
uma solução não-nula para o sistema

 c1 + c2 + c3 + c4 + c5 = 0



 −2c 1 − c2 + c 4 + 2c 5 = 0



 1 1 1
 2c1 + c2 + c4 + 2c5 =
2 2 ∆x2 ;

 4 1 1 4

 − c1 − c2 + c4 + c5 = 0

 3 6 6 3


 2c + 1 c + 1 c + 2c =

0
1 2 4 5
3 24 24 3
Rodney Josué Biezuner 56

isso implicaria em princı́pio em um esquema com ordem de convergência pelo menos igual a 3:
¡ ¢
δui = u00 (xi ) + O ∆x3 .

Como a matriz  
1 1 1 1 1
 −2 −1 0 1 2 
 
 1 1 
 2 0 2 
 2 2 
 
 4 1 1 4 
 − 
 3 −6 0 6 3 
 
2 1 1 2
0
3 24 24 3
tem determinante igual a 1, ela é invertı́vel e o sistema possui a solução única
1 1
c1 = − ,
12 ∆x2
4 1
c2 = ,
3 ∆x2
5 1
c3 =−
2 ∆x2
4 1
c4 = ,
3 ∆x2
1 1
c5 =− .
12 ∆x2
Incidentalmente, esta solução também implica
4 1 1 4
− c1 − c2 + c4 + c5 = 0
15 120 120 15
o que permite obter um esquema com ordem de convergência igual a 4:
¡ ¢
δui = u00 (xi ) + O ∆x4 ,

aproximando a derivada segunda u00 pela diferença finita


1 4 5 4 1
− ui−2 + ui−1 − ui + ui+1 − ui+2
00
u = 12 3 2 3 12
∆x2
ou
ui−2 − 16ui−1 + 30ui − 16ui+1 + ui+2
−u00 = . (2.39)
12∆x2

2.3.2 Caso Bidimensional: A Fórmula dos Nove Pontos Compacta


Um esquema de ordem 4 para a equação de Poisson em duas dimensões é a fórmula de nove pontos compacta.
Se buscássemos uma fórmula de nove pontos simplesmente a partir da fórmula de cinco pontos unidi-
mensional obtida na subseção precedente (como obtivemos a fórmula de cinco pontos bidimensional a partir
da fórmula de três pontos unidimensional), escreverı́amos
ui−2,j − 16ui−1,j + 30ui,j − 16ui+1,j + ui+2,j ui,j−2 − 16ui,j−1 + 30ui,j − 16ui,j+1 + ui,j+2
−∆d ud = + ,
12∆x2 12∆y 2
(2.40)
Rodney Josué Biezuner 57

que pode ser resumida na forma


 1 

 12∆y 2 
 16 
 − 
 12∆y 2 
 µ ¶ 
 1 16 1 1 16 1 
−∆d ud = 
 − 12∆x2 − 30 + − − .

 12∆x2 12∆x2 12∆y 2 12∆x2 12∆x2 
 16 
 − 
 12∆y 2 
 1 

12∆y 2
Embora este esquema seja de fato de ordem 4, ele apresenta dificuldades para pontos interiores adjacentes à
fronteira do retângulo (por exemplo, se considerarmos o ponto (x1 , y1 ), os pontos (x−1 , y1 ) e (x1 , y−1 ) estão
fora do retângulo). Uma possibilidade para resolver este problema seria aplicar a fórmula dos cinco pontos
nos pontos interiores adjacentes à fronteira e aplicar a fórmula dos nove pontos apenas nos pontos interiores
mais distantes da fronteira. No entanto, como a fórmula de cinco pontos é de segunda ordem, a convergência
deste método misto não deve ser de ordem 4.
Vamos tentar encontrar uma fórmula de nove pontos compacta, em que os nove pontos estão dispostos
em três linhas e três colunas, de modo que não há problemas em usá-la nos pontos interiores adjacentes à
fronteira. Aplicando o método dos coeficientes indeterminados, buscamos nove coeficientes para a diferença
finita

−∆d ud = c1 ui−1,j−1 + c2 ui,j−1 + c3 ui+1,j−1


+ c4 ui−1,j + c5 ui,j + c6 ui+1,j (2.41)
+ c7 ui−1,j+1 + c8 ui,j+1 + c9 ui+1,j+1 .

Observe a distribuição dos nove pontos. Além dos cinco usuais, foram acrescentados os quatro pontos que
ocupam as posições diagonais. Para os quatro pontos vizinhos horizontais ou verticais do ponto central, a
fórmula de Taylor produz

∂u 1 ∂2u 1 ∂3u 1 ∂4u


u(xi − ∆x, yj ) = u(xi , yj ) − (xi , yj )∆x + 2
(xi , yj )∆x2 − 3
(xi , yj )∆x3 + (xi , yj )∆x4
∂x 2! ∂x 3! ∂x 4! ∂x4
1 ∂5u ¡ ¢
− (xi , yj )∆x5 + O ∆x6
5! ∂x5
∂u 1 ∂2u 1 ∂3u 1 ∂4u
u(xi + ∆x, yj ) = u(xi , yj ) + (xi , yj )∆x + 2
(xi , yj )∆x2 + 3
(xi , yj )∆x3 + (xi , yj )∆x4
∂x 2! ∂x 3! ∂x 4! ∂x4
1 ∂5u ¡ ¢
+ (xi , yj )∆x5 + O ∆x6
5! ∂x5
∂u 1 ∂2u 2 1 ∂3u 3 1 ∂4u
u(xi , yj − ∆y) = u(xi , yj ) − (xi , yj )∆y + (x i , y j )∆y − (x i , y j )∆y + (xi , yj )∆y 4
∂y 2! ∂y 2 3! ∂y 3 4! ∂y 4
1 ∂5u ¡ ¢
− 5
(xi , yj )∆x5 + O ∆x6
5! ∂x
∂u 1 ∂2u 1 ∂3u 1 ∂4u
u(xi , yj + ∆y) = u(xi , yj ) + (xi , yj )∆y + 2
(xi , yj )∆y 2 + 3
(xi , yj )∆y 3 + (xi , yj )∆y 4
∂y 2! ∂y 3! ∂y 4! ∂y 4
1 ∂5u ¡ ¢
+ 5
(xi , yj )∆x5 + O ∆x6 , ∆y 6
5! ∂x
Rodney Josué Biezuner 58

enquanto que para os quatro pontos diagonais temos

u(xi + ∆x, yj + ∆y)


· ¸ · ¸
∂u ∂u 1 ∂2u 2 ∂2u ∂2u 2
= u(xi , yj ) + (xi , yj )∆x + (xi , yj )∆y + (xi , yj )∆x + 2 (xi , yj )∆x∆y + 2 (xi , yj )∆y
∂x ∂y 2! ∂x2 ∂x∂y ∂y
· 3 3 3 3
¸
1 ∂ u ∂ u ∂ u ∂ u
+ (xi , yj )∆x3 + 3 2 (xi , yj )∆x2 ∆y + 3 (xi , yj )∆x∆y 2 + 3 (xi , yj )∆y 3
3! ∂x3 ∂x ∂y ∂x∂y 2 ∂y
· 4 4 4
¸
1 ∂ u 4 ∂ u 3 ∂ u 2 2 ∂3u 3 ∂4u 4
+ (xi , yj )∆x + 4 3 (xi , yj )∆x ∆y + 6 (xi , yj )∆x ∆y + 4 (xi , yj )∆x∆y + 4 (xi , yj )∆y
4! ∂x4 ∂x ∂y ∂x∂y 3 ∂x∂y 3 ∂y
· 5 5 5 5
1 ∂ u ∂ u ∂ u ∂ u
+ 5
(xi , yj )∆x5 + 5 4 (xi , yj )∆x4 ∆y + 10 3 2 (xi , yj )∆x3 ∆y 2 + 10 (xi , yj )∆x2 ∆y 3
5! ∂x ∂x ∂y ∂x ∂y ∂x∂y 4
¸
∂5u ∂5u ¡ ¢
+5 4
(xi , yj )∆x∆y + 5 (xi , yj )∆y + O ∆x6 , ∆y 6 ,
4 5
∂x∂y ∂y

u(xi − ∆x, yj − ∆y)


· ¸ · ¸
∂u ∂u 1 ∂2u 2 ∂2u ∂2u 2
= u(xi , yj ) − (xi , yj )∆x + (xi , yj )∆y + (x ,
i jy )∆x + 2 (x ,
i jy )∆x∆y + (x ,
i jy )∆y
∂x ∂y 2! ∂x2 ∂x∂y ∂y 2
· 3 ¸
1 ∂ u ∂3u ∂3u ∂3u
− 3
(xi , yj )∆x3 + 3 2 (xi , yj )∆x2 ∆y + 3 2
(xi , yj )∆x∆y 2 + 3 (xi , yj )∆y 3
3! ∂x ∂x ∂y ∂x∂y ∂y
· 4 4 4
¸
1 ∂ u 4 ∂ u 3 ∂ u 2 2 ∂3u 3 ∂4u 4
+ (x ,
i j y )∆x + 4 (x ,
i jy )∆x ∆y + 6 (x ,
i j y )∆x ∆y + 4 (x ,
i jy )∆x∆y + (x ,
i jy )∆y
4! ∂x4 ∂x3 ∂y ∂x∂y 3 ∂x∂y 3 ∂y 4
· 5
1 ∂ u ∂5u ∂5u ∂5u
− 5
(xi , yj )∆x5 + 5 4 (xi , yj )∆x4 ∆y + 10 3 2 (xi , yj )∆x3 ∆y 2 + 10 (xi , yj )∆x2 ∆y 3
5! ∂x ∂x ∂y ∂x ∂y ∂x∂y 4
¸
∂5u ∂5u ¡ ¢
+5 4
(xi , yj )∆x∆y + 5 (xi , yj )∆y + O ∆x6
4 5
∂x∂y ∂y

u(xi + ∆x, yj − ∆y)


· ¸
∂u ∂u
= u(xi , yj ) + (xi , yj )∆x − (xi , yj )∆y
∂x ∂y
· 2 ¸
1 ∂ u 2 ∂2u ∂2u 2
+ (xi , yj )∆x − 2 (xi , yj )∆x∆y + 2 (xi , yj )∆y
2! ∂x2 ∂x∂y ∂y
· 3 3
¸
1 ∂ u 3 ∂ u 2 ∂3u 2 ∂3u 3
+ (xi , yj )∆x − 3 2 (xi , yj )∆x ∆y + 3 (xi , yj )∆x∆y − 3 (xi , yj )∆y
3! ∂x3 ∂x ∂y ∂x∂y 2 ∂y
· 4 4 4
¸
1 ∂ u 4 ∂ u 3 ∂ u 2 2 ∂3u 3 ∂4u 4
+ (xi , yj )∆x − 4 3 (xi , yj )∆x ∆y + 6 (xi , yj )∆x ∆y − 4 (xi , yj )∆x∆y + 4 (xi , yj )∆y
4! ∂x4 ∂x ∂y ∂x∂y 3 ∂x∂y 3 ∂y
· 5 5 5 5
1 ∂ u ∂ u ∂ u ∂ u
+ (xi , yj )∆x5 − 5 4 (xi , yj )∆x4 ∆y + 10 3 2 (xi , yj )∆x3 ∆y 2 − 10 (xi , yj )∆x2 ∆y 3
5! ∂x5 ∂x ∂y ∂x ∂y ∂x∂y 4
¸
∂5u 4 ∂5u 5
¡ ¢
+5 4
(x i , y j )∆x∆y − 5
(x i , y j )∆y + O ∆x6 , ∆y 6 ,
∂x∂y ∂y
Rodney Josué Biezuner 59

u(xi − ∆x, yj + ∆y)


· ¸
∂u ∂u
= u(xi , yj ) + − (xi , yj )∆x + (xi , yj )∆y
∂x ∂y
· ¸
1 ∂2u 2 ∂ 2
u ∂2u 2
+ (x i , y j )∆x − 2 (x i , y j )∆x∆y + (xi , y j )∆y
2! ∂x2 ∂x∂y ∂y 2
· 3 ¸
1 ∂ u ∂3u ∂3u ∂3u
+ − 3 (xi , yj )∆x3 + 3 2 (xi , yj )∆x2 ∆y − 3 (x ,
i jy )∆x∆y 2
+ (x ,
i jy )∆y 3
3! ∂x ∂x ∂y ∂x∂y 2 ∂y 3
· 4 ¸
1 ∂ u 4 ∂4u 3 ∂4u 2 2 ∂3u 3 ∂4u 4
+ (x ,
i j y )∆x − 4 (x ,
i j y )∆x ∆y + 6 (x ,
i jy )∆x ∆y − 4 (x ,
i jy )∆x∆y + (x ,
i jy )∆y
4! ∂x4 ∂x3 ∂y ∂x∂y 3 ∂x∂y 3 ∂y 4
· 5
1 ∂ u ∂5u ∂5u ∂5u
+ − 5 (xi , yj )∆x5 + 5 4 (xi , yj )∆x4 ∆y − 10 3 2 (xi , yj )∆x3 ∆y 2 + 10 (xi , yj )∆x2 ∆y 3
5! ∂x ∂x ∂y ∂x ∂y ∂x∂y 4
¸
∂5u 4 ∂5u 5
¡ ¢
−5 4
(x ,
i j y )∆x∆y + 5
(x ,
i j y )∆y + O ∆x6 , ∆y 6 .
∂x∂y ∂y
Substituindo estas expressões na fórmula acima, obtemos:
−∆d ud = (c1 + c2 + c3 + c4 + c5 + c6 + c7 + c8 + c9 ) u (xi , yj )
∂u
+ ∆x (−c1 + c3 − c4 + c6 − c7 + c9 ) (xi , yj )
∂x
∂u
+ ∆y (−c1 − c2 − c3 + c7 + c8 + c9 ) (xi , yj )
∂y
µ ¶ 2
1 1 1 1 1 1 ∂ u
+ ∆x2 c1 + c3 + c4 + c6 + c7 + c9 (xi , yj )
2 2 2 2 2 2 ∂x2
∂2u
+ ∆x∆y (c1 − c3 − c7 + c9 ) (xi , yj )
∂x∂y
µ ¶ 2
2 1 1 1 1 1 1 ∂ u
+ ∆y c1 + c2 + c3 + c7 + c8 + c9 (xi , yj )
2 2 2 2 2 2 ∂y 2
µ ¶ 3
1 1 1 1 1 1 ∂ u
+ ∆x3 − c1 + c3 − c4 + c6 − c7 + c9 (xi , yj )
6 6 6 6 6 6 ∂x3
µ ¶ 3
1 1 1 1 ∂ u
+ ∆x2 ∆y − c1 − c3 + c7 + c9 (xi , yj )
2 2 2 2 ∂x2 ∂y
µ ¶ 3
1 1 1 1 ∂ u
+ ∆x∆y 2 − c1 + c3 − c7 + c9 (xi , yj )
2 2 2 2 ∂x∂y 2
µ ¶ 3
1 1 1 1 1 1 ∂ u
+ ∆y 3 − c1 − c2 − c3 + c7 + c8 + c9 (xi , yj )
6 6 6 6 6 6 ∂y 3
µ ¶ 4
1 1 1 1 1 1 ∂ u
+ ∆x4 c1 + c3 + c4 + c6 + c7 + c9 (xi , yj )
24 24 24 24 24 24 ∂x4
µ ¶ 4
1 1 1 1 ∂ u
+ ∆x3 ∆y c1 − c3 − c7 + c9 (xi , yj )
6 6 6 6 ∂x3 ∂y
µ ¶
2 2 1 1 1 1 ∂4u
+ ∆x ∆y c1 + c3 + c7 + c9 (xi , yj )
4 4 4 4 ∂x2 ∂y 2
µ ¶ 4
1 1 1 1 ∂ u
+ ∆x∆y 3 c1 − c3 − c7 + c9 (xi , yj )
6 6 6 6 ∂x∂y 3
µ ¶ 4
4 1 1 1 1 1 1 ∂ u
+ ∆y c1 + c2 + c3 + c7 + c8 + c9 (xi , yj )
24 24 24 24 24 24 ∂y 4
Rodney Josué Biezuner 60
µ ¶ 5
5 1 1 1 1 1 1 ∂ u
+ ∆x − c1 + c3 − c4 + c6 − c7 + c9 (xi , yj )
120 120 120 120 120 120 ∂x5
µ ¶ 5
1 1 1 1 ∂ u
+ ∆x4 ∆y − c1 − c3 + c7 + c9 (xi , yj )
24 24 24 24 ∂x4 ∂y
µ ¶
1 1 1 1 ∂5u
+ ∆x3 ∆y 2 − c1 + c3 + c7 + c9 (xi , yj )
12 12 12 12 ∂x3 ∂y 2
µ ¶
1 1 1 1 ∂5u
+ ∆x2 ∆y 3 − c1 − c3 − c7 + c9 (xi , yj )
12 12 12 12 ∂x2 ∂y 3
µ ¶ 5
1 1 1 1 ∂ u
+ ∆x∆y 4 − c1 + c3 − c7 + c9 (xi , yj )
24 24 24 24 ∂x∂y 4
µ ¶ 5
1 1 1 1 1 1 ∂ u
+ ∆y 5 − c1 − c2 − c3 + c7 + c8 + c9 (xi , yj )
120 120 120 120 120 120 ∂y 5
Para obter um esquema com ordem de convergência pelo menos igual a 3, precisarı́amos obter uma solução
não-nula para o sistema


 c1 + c2 + c3 + c4 + c5 + c6 + c7 + c8 + c9 = 0



 −c1 + c3 − c4 + c6 − c7 + c9 = 0



 −c1 − c2 − c3 + c7 + c8 + c9 = 0

 1

 c1 + c3 + c4 + c6 + c7 + c9 =



 ∆x2

 c1 − c3 − c7 + c9 = 0



 1

 c1 + c2 + c3 + c7 + c8 + c9 =

 ∆y 2
−c1 + c3 − c4 + c6 − c7 + c9 = 0

 −c1 − c3 + c7 + c9 = 0



 −c1 + c3 − c7 + c9 = 0



 −c1 − c2 − c3 + c7 + c8 + c9 = 0



 c1 + c3 + c4 + c6 + c7 + c9 = 0



 c1 − c3 − c7 + c9 = 0



 c1 + c3 + c7 + c9 = 0



 c1 − c3 − c7 + c9 = 0


c1 + c2 + c3 + c7 + c8 + c9 = 0

Infelizmente este sistema não tem solução pois ele é inconsistente: a sexta e a última equação são incom-
patı́veis, assim como a quarta e a décima primeira. Portanto, não existe uma fórmula de nove pontos
compacta tal que ¡ ¢
−∆d ud = −∆u + O ∆x3 , ∆y 3 .
No entanto, em 1975 o matemático e lógico Rosser introduziu a seguinte fórmula de nove pontos compacta
no caso especial ∆x = ∆y (em [Rosser1]; veja também [Rosser2])
ui−1,j−1 + 4ui,,j−1 + ui+1,j−1 + 4ui−1,j − 20ui,j + 4ui+1,j + ui−1,j+1 + 4ui,j+1 + ui+1,j+1
∆d ud = , (2.42)
6∆x2
que pode ser resumida na forma
 
−1 −4 −1
1 
−∆d ud = −4 20 −4  , (2.43)
6∆x2
−1 −4 −1
¡ ¢ ¡ ¢
a qual produz um esquema convergente de quarta ordem se a solução u ∈ C 6 Ω (ou mesmo se u ∈ C 5,1 Ω
apenas) dependendo de como a função f é discretizada. Para entender como isso ocorre, observe que se
Rodney Josué Biezuner 61
¡ ¢
u ∈ C 8 Ω a fórmula de Taylor produz
· ¸
∆x2 2 ∆x4 ∂ 4 ∂4 ∂4 ¡ ¢
−∆d ud = −∆u − ∆ u− 4
+ 4 2 2 + 4 ∆u + O ∆x6 (2.44)
12 360 ∂x ∂x ∂y ∂y
· ¸
∆x2 ∆x4 ∂ 4 ∂4 ∂4 ¡ ¢
= −∆u − ∆f − 4
+ 4 2 2 + 4 f + O ∆x6 . (2.45)
12 360 ∂x ∂x ∂y ∂y

O ponto crucial aqui é que o erro é expresso em termos de −∆u e, conseqüentemente, por f . Ainda é
necessário escolher uma discretização especial para f :
fi,,j−1 + fi−1,j + 8fi,j + fi+1,j + fi,j+1
fd = (2.46)
12
ou  
1
1 
fd = 1 8 1 . (2.47)
12
1
Usando a fórmula de Taylor para f , obtemos que esta discretização especial para f satisfaz

∆x2 ¡ ¢
fd = f + ∆f + O ∆x4 . (2.48)
12
Somando esta estimativa com (2.45), e usando −∆d ud = fd , −∆u = f , obtemos
¡ ¢
−∆d ud = −∆u + O ∆x4

Para este esquema, pode-se provar (veja [Hackbusch], pág. 64) que existe uma constante C > 0 tal que

kud − vd k∞ 6 C∆x4 kukC 6 (Ω) ou kud − vd k∞ 6 C∆x4 kukC 5,1 (Ω) (2.49)

O esquema de Rosser também satisfaz o princı́pio do máximo. Concluindo, vemos que uma maior regularidade
da solução permite obter métodos de diferenças finitas com maior ordem de convergência, embora esta não
seja uma tarefa simples.

2.4 Diferenças Finitas em Coordenadas Polares


Consideraremos nesta seção diferenças finitas em coordenadas polares para domı́nios com simetria radial.
Consideraremos em detalhes os casos do disco e do anel. O primeiro caso inclui a origem no domı́nio da
definição, onde o laplaciano apresenta uma singularidade quando escrito em coordenadas polares, singulari-
dade esta que não existe no problema original, e esta particularidade deve ser tratada com cuidado para não
atrapalhar a ordem de convergência do esquema obtido.
Considere a equação de Poisson em coordenadas polares no disco Ω = [0, R) × [0, 2π) :
(
1 1
urr + ur + 2 uθθ = f (r, θ) se 0 6 r < R e 0 < θ < 2π,
r r
u (R, θ) = 0 se 0 6 θ 6 2π.

A solução exata deste problema deve satisfazer a condição de continuidade

u (r, 0) = u (r, 2π) para todo 0 6 r 6 R.

Embora esta condição não seja uma condição de fronteira e aparece apenas por causa do sistema de coor-
denadas utilizado, ela acaba funcionando como uma condição de fronteira em muitos métodos numéricos (e
Rodney Josué Biezuner 62

mesmo analı́ticos), pois não deixa de ser uma condição na fronteira do retângulo (0, R) × (0, 2π).

∆r

∆θ

Discretizamos o disco através de uma malha polar


Ωd = {(ri , θj ) ∈ Ω : ri = i∆r, θj = j∆θ, 0 6 i 6 n − 1, 0 6 j 6 m}
onde
R 2π
∆r = , ∆θ = .
n m
Sua fronteira discretizada é o conjunto
∂Ωd = {(rn , θj ) ∈ ∂Ω : rn = n∆r = R, θj = j∆θ, 0 6 j 6 m} .
Discretizamos a equação de Poisson da seguinte forma. Denotamos os valores das discretizações ud e fd
em pontos da malha por
ui,j = u (ri , θj ) ,
fi,j = f (ri , θj ) ,
entendendo que ui,j e fi,j devem satisfazer
u0,0 = u0,j e f0,0 = f0,j (2.50)
para todo 0 6 j 6 m, já que existe apenas um ponto associado com i = 0 (a origem, correspondente a r = 0).
Além disso, pela condição de continuidade, devemos ter também
ui,0 = ui,2π e fi,0 = fi,2π (2.51)
para todo 0 6 i 6 n. Usando uma diferença centrada usual para derivadas segundas, o terceiro termo do
laplaciano em coordenadas polares pode ser aproximado para pontos interiores do disco por
µ ¶
1 1 ui,j−1 − 2ui,j − ui,j+1
2
uθθ (ri , θj ) ≈ 2 . (2.52)
r ri ∆θ2
Para aproximar os primeiros dois termos, escrevemos
1 1
urr + ur = (rur )r .
r r
Se (ri , θj ) é um ponto interior do disco diferente da origem (isto é, i 6= 0), podemos usar diferenças centradas
para a derivada primeira, tanto na primeira quanto na segunda aproximações a seguir, obtendo
1 1 (rur ) (ri + ∆r/2, θj ) − (rur ) (ri − ∆r/2, θj )
(rur )r (ri , θj ) ≈
r ri 2∆r/2
u (ri + ∆r, θj ) − u (ri , θj ) u (ri , θj ) − u (ri − ∆r, θj )
1 ri+1/2 ∆r
− ri−1/2
∆r

ri ∆r
1 ri+1/2 (ui+1,j − ui,j ) − ri−1/2 (ui,j − ui−1,j )
= . (2.53)
ri ∆r2
Rodney Josué Biezuner 63

Portanto, a discretização da equação de Poisson no disco para pontos interiores do disco diferentes da origem
é · ¸
1 ri+1/2 (ui+1,j − ui,j ) − ri−1/2 (ui,j − ui−1,j ) 1 ui,j−1 − 2ui,j − ui,j+1
− + = fi,j (2.54)
ri ∆r2 ri2 ∆θ2
para 1 6 i 6 n − 1 e 1 6 j 6 m − 1. Se j = 0, usando a condição de continuidade que identifica o ponto
(i, 0) com o ponto (i, n), substituı́mos ui,j−1 por ui,n−1 e escrevemos
· ¸
1 ri+1/2 (ui+1,0 − ui,0 ) − ri−1/2 (ui,0 − ui−1,0 ) 1 ui,n−1 − 2ui,0 − ui,1
− + 2 = fi,0 (2.55)
ri ∆r2 ri ∆θ2
para 1 6 i 6 n − 1. Como este esquema de diferenças finitas foi obtido através de diferenças centradas,
ele deve ser de segunda ordem. No entanto, devemos ter cuidado ao discretizar a equação de Poisson na
origem para preservar esta ordem de convergência. Para isso, multiplicamos a equação de Poisson por r e
integramos o resultado sobre um pequeno disco Dε centrado na origem de raio ε:
Z 2π Z ε Z 2π Z ε · ¸
1 1
f r drdθ = r (rur )r + 2 uθθ drdθ
0 0 0 0 r r
Z 2π Z ε Z ε Z 2π
1
= (rur )r drdθ + uθθ drdθ
0 0 0 r 0
Z 2π Z ε
ε 1 2π
= [rur ]0 dθ + [uθ ]0 drdθ
0 0 r
Z 2π
=ε ur (ε, θ) dθ,
0
2
onde assumimos u ∈ C (Ω) de modo que
uθ (r, 0) = uθ (r, 2π)
para todo 0 6 r < R. Escolhendo ε = ∆r/2, discretizamos a equação integral
Z Z 2π Z ∆r/2
∆r 2π
ur (∆r/2, θ) dθ = f r drdθ
2 0 0 0

aproximando a derivada primeira ur (∆r/2, θ) = (ur )i+1/2,j por diferenças centradas e f por f (0) (pois ∆r
é suposto pequeno), de modo que
u1,j − u0,j
ur (∆r/2, θj ) ≈ ,
∆r
Z 2π Z ∆r/2 Z 2π Z ∆r/2 ¯∆r/2
r2 ¯¯ π
f r drdθ ≈ f (0) r drdθ = 2πf (0) = f (0) ∆r2 ,
0 0 0 0 2 ¯0 4
e assim
m−1
∆r X u1,j − u0,j π
∆θ = f (0) ∆r2 ,
2 j=0 ∆r 4
donde, como u0 := u0,j independe de j, segue que o valor de u na origem será dado por
m−1
∆θ ∆θ X π
m u0 = u1,j − f (0) ∆r2 ,
2 2 j=0 4

ou, usando m∆θ = 2π,


m−1
4u0 2∆θ X
− u1,j = f0 . (2.56)
∆r2 π∆r2 j=0
Rodney Josué Biezuner 64

Para escrever essas diferenças finitas em forma matricial

Au = f ,

escolhemos ordenar os pontos da malha discretizada no retângulo polar {(ri , θj ) : 1 6 i 6 n − 1, 0 6 j 6 m}


pela ordem lexicográfica em (θ, r) e colocando a origem antes de todos estes pontos:.

u = (u0 , u1,0 , u1,1 , . . . , u1,m−1 , u2,0 , u2,1 , . . . , u2,m−1 , . . . . . . , un−1,0 , un−1,1 , . . . , un−1,m−1 ) . (2.57)

Observe que existem (n − 1) × m + 1 incógnitas. Nesta ordenação, segue que A tem a forma em blocos
 
α0 b
 a B1 −β1 I 
 
 .. 
 −α2 I B2 −β2 I . 
 
A=  −α3 I B3 −β3 I , (2.58)

 . . . 
 .. .. .. 
 
 −αn−2 I Bn−2 −βn−2 I 
−αn−1 I Bn−1

onde
4
α0 = ,
∆r2
 
−α1
 
a =  ...  ,
−α1 m×1

1 ri−1/2
αi = , i = 1, . . . , n − 1,
∆r2 ri
1 ri+1/2
βi = , i = 1, . . . , n − 2,
∆r2 ri
£ ¤
b = −β0 . . . −β0 1×m ,
2 ∆θ
β0 = ,
π ∆r2
I = Im ,
 
γi −δi 0 −δi
 −δi γi −δi 
 
 −δi γi −δi 
 
Bi =  .. .. ..  ,
 . . . 
 
 −δi γi −δi 
−δi −δi γi m×m

onde
1 ri+1/2 + ri−1/2 2 1
γi = + 2 ,
ri ∆r2 ri ∆θ2
1 1
δi = 2 .
ri ∆θ2
Rodney Josué Biezuner 65

A matriz A em geral não é simétrica. Por exemplo, no caso n = 4 e m = 5 ((n − 1) × m + 1 = 16) temos
 
α −β0 −β0 −β0 −β0 −β0 0 0 0 0 0 0 0 0 0 0
 −α1 γ1 −δ1 0 0 −δ1 −β1 0 0 0 0 0 0 0 0 0 
 
 −α1 −δ1 γ1 −δ1 0 0 0 −β1 0 0 0 0 0 0 0 0 
 
 −α1 0 −δ1 γ1 −δ1 0 0 0 −β1 0 0 0 0 0 0 0 
 
 −α1 0 0 −δ1 γ1 −δ1 0 0 0 −β1 0 0 0 0 0 0 
 
 −α1 −δ1 0 0 −δ1 γ1 0 0 0 0 −β1 0 0 0 0 0 
 
 0 −α2 0 0 0 0 γ2 −δ2 0 0 −δ2 −β2 0 0 0 0 
 
 0 0 −α2 0 0 0 −δ2 γ2 −δ2 0 0 0 −β2 0 0 0 
 
 0 0 0 −α2 0 0 0 −δ2 γ2 −δ2 0 0 0 −β2 0 0 
 
 0 0 0 0 −α2 0 0 0 −δ2 γ2 −δ2 0 0 0 −β2 0 
 
 0 0 0 0 0 −α2 −δ2 0 0 −δ2 γ2 0 0 0 0 −β2 
 
 0 0 0 0 0 0 −α3 0 0 0 0 γ3 −δ3 0 0 −δ3 
 
 0 0 0 0 0 0 0 −α3 0 0 0 −δ3 γ3 −δ3 0 0 
 
 0 0 0 0 0 0 0 0 −α3 0 0 0 −δ3 γ3 −δ3 0 
 
 0 0 0 0 0 0 0 0 0 −α3 0 0 0 −δ3 γ3 −δ3 
0 0 0 0 0 0 0 0 0 0 −α3 −δ3 0 0 −δ3 γ3
A primeira linha e a primeira coluna são diferentes porque os pontos (0, j), j = 0, . . . , m, são realmente um
único ponto e este ponto é vizinho a todos os pontos (1, j), j = 0, . . . , m.
A matriz de discretização A no caso do anel será um pouco mais simples, já que ela será igual à matriz
de discretização no caso do disco menos a primeira linha e a primeira coluna.

2.5 Domı́nios Arbitrários


Queremos agora discutir a resolução numérica da equação de Poisson através de diferenças finitas em um
domı́nio arbitrário.
Seja Ω ⊂ R2 um domı́nio arbitrário. Se sobrepusermos uma malha uniforme
M = {(i∆x, j∆y) ∈ Ω : i ∈ Z e j ∈ Z}
sobre Ω, obtemos um domı́nio discretizado definido por
Ωd = {(x, y) ∈ Ω : x/∆x ∈ Z e y/∆y ∈ Z} . (2.59)
Esta é exatamente a maneira como discretizamos o retângulo. No entanto, o conjunto discretizado dos
pontos de fronteira ∂Ωd de um domı́nio arbitrário deve ser tratado de maneira diferente do retângulo, já que
a malha uniforme M em geral não vai se sobrepor à fronteira de Ω, podendo não possuir nenhum ponto em
comum com a fronteira ou um número muito pequeno de pontos em poucas regiões da fronteira.
Uma maneira de tratar este problema é a seguinte. Para determinar se o ponto (xi , yj ) ∈ Ωd é adjacente
à “fronteira esquerda” de Ω, por exemplo, e ao mesmo tempo encontrar o seu vizinho à esquerda na fronteira
se for o caso, basta verificar se o segmento
[xi − ∆x, yj ] = {(xi − t∆x, yj ) : t ∈ [0, 1]}
está inteiramente contido em Ω ou não. Se não estiver, então (xi , yj ) é um ponto interior adjacente à fronteira
e existe um número tW ∈ (0, 1) tal que
(xi − tW ∆x, yj ) ∈ ∂Ω e (xi − t∆x, yj ) ∈ Ω para todo t ∈ [0, tW ). (2.60)
Este será o vizinho à esquerda de (xi , yj ) na fronteira discretizada ∂Ωd do domı́nio. Analogamente, os
pontos vizinhos na fronteira discretizada à direita, abaixo e acima de pontos adjacentes à fronteira podem
ser encontrados; eles satisfazem, respectivamente,
(xi + tE ∆x, yj ) ∈ ∂Ω e (xi + t∆x, yj ) ∈ Ω para todo t ∈ [0, tE ). (2.61)
Rodney Josué Biezuner 66

(xi , yj − tS ∆y) ∈ ∂Ω e (xi , yj − t∆y) ∈ Ω para todo t ∈ [0, tS ). (2.62)


(xi , yj + tN ∆y) ∈ ∂Ω e (xi , yj + t∆y) ∈ Ω para todo t ∈ [0, tN ). (2.63)
(os subı́ndices W, E, S, N correspondem aos quatro pontos cardeais oeste, leste, sul, norte em inglês). Defin-
imos
∂Ωd = {(x, y) ∈ ∂Ω : (x, y) satisfaz (2.60), (2.61), (2.62) ou (2.63)} (2.64)
Dependendo da geometria de Ω é concebı́vel que um ponto seja simultaneamente adjacente às “quatro
fronteiras” de Ω, isto é, que ele tenha os seus quatro vizinhos em ∂Ωd . Além disso, embora os pontos
interiores da malha estejam distribuı́dos uniformemente, esta discretização da fronteira do domı́nio permite
que às vezes dois pontos da malha da fronteira estejam bem próximos um do outro em alguma região da
fronteira e relativamente distantes em outras (isso ocorre mesmo em domı́nio regulares como um disco).
Para discretizar a equação de Poisson nesta malha, observe que pela fórmula de Taylor temos, para pontos
x− < x < x+ , µ ¶
2 u (x+ ) − u (x) u (x) − u (x− )
u00 (x) = − + r, (2.65)
x+ − x− x+ − x x − x−
onde
2 2
1 (x+ − x) + (x − x− ) 1
|r| 6 kukC 3 ([x− ,x+ ]) 6 max (x+ − x, x − x− ) kukC 3 ([x− ,x+ ]) . (2.66)
3 x+ − x− 3

De fato,
1 2 1 000 3
u(x− ) = u(x) − u0 (x) (x − x− ) + u00 (x) (x − x− ) − u (ξ− ) (x − x− ) ,
2 3!
1 2 1 000 3
u(x+ ) = u(x) + u0 (x) (x+ − x) + u00 (x) (x+ − x) + u (ξ+ ) (x+ − x) ,
2 3!
para alguns ξ− ∈ [x− , x] , ξ+ ∈ [x, x+ ], de modo que

u (x) − u (x− ) 1 1 2
− = −u0 (x) + u00 (x) (x − x− ) − u000 (ξ− ) (x − x− ) ,
x − x− 2 6
u (x+ ) − u (x) 1 1 2
= u0 (x) + u00 (x) (x+ − x) + u000 (ξ+ ) (x+ − x) ,
x+ − x 2 6

donde, somando as duas expressões,

u (x+ ) − u (x) u (x) − u (x− ) 1 1 h 000 2 2


i
− = u00 (x) (x+ − x− ) + u (ξ+ ) (x+ − x) − u000 (ξ− ) (x − x− ) .
x+ − x x − x− 2 6

Assim, podemos aproximar


µ ¶
2 u (x+ ) − u (x) u (x) − u (x− )
u00 (x) ≈ −
x+ − x− x+ − x x − x−

Se x− = x − ∆x e x+ = x + ∆x, obtemos a fórmula de diferenças centradas usual para a derivada segunda.


Para aproximar o laplaciano através de uma fórmula de cinco pontos, usamos os quatro pontos vizinhos

(xi − tW ∆x, yj ) , (xi + tE ∆x, yj ) , (xi , yj − tS ∆y) , (xi , yj + tN ∆y) , com t∗ ∈ (0, 1]
Rodney Josué Biezuner 67

definindo o esquema de diferenças finitas de Shortley-Weller :


µ ¶
2 u (xi + tE ∆x, yj ) − u (xi , yj ) u (xi , yj ) − u (xi − tW ∆x, yj )
∆d ud = −
(xi + tE ∆x) − (xi − tW ∆x) (xi + tE ∆x) − xi xi − (xi − tW ∆x)
µ ¶
2 u (xi , yj + tN ∆y) − u (xi , yj ) u (xi , yj ) − u (xi , yj − tS ∆y)
+ −
(yj + tN ∆y) − (yj − tS ∆y) (yj + tN ∆y) − yj yj − (yj − tS ∆y)
µ ¶
2 ui+tE ∆x,j − ui,j ui,j − ui−tW ∆x,j
= −
(tE + tW ) ∆x tE ∆x tW ∆x
µ ¶
2 ui,j+tN ∆y − ui,j ui,j − ui,j−tS ∆y
+ −
(tN + tS ) ∆y tN ∆y tS ∆y
ou
· ¸
2 1 1 1
−∆d ud = − ui+tE ∆x,j + ui,j − ui−tW ∆x,j (2.67)
∆x2 tE (tE + tW ) tE tW tW (tE + tW )
· ¸
2 1 1 1
+ − ui,j−tS ∆y + ui,j − ui,j+tN ∆y .
∆y 2 tS (tN + tS ) tN tS tN (tN + tS )

Se (xi , yj ) é um ponto interior distante da fronteira (isto é, não adjacente à fronteira), então t∗ = 1 e para
este ponto vale a fórmula dos cinco pontos usual.
Embora a ordem de aproximação do laplaciano para pontos próximos à fronteira é apenas 1, o esquema de
Shortley-Weller é convergente de segunda ordem, conforme veremos no próximo capı́tulo, onde provaremos
também que o correspondente problema discretizado possui solução única.

2.6 Exercı́cios
1. Implemente os métodos discutidos neste capı́tulo computacionalmente, verifique a precisão comparando
com a solução exata e também a velocidade de convergência.

2. Discretize o problema de Poisson com valor de fronteira de Dirichlet a seguir, usando a fórmula de
cinco pontos. ½
−∆u = f (x, y) em (0, a) × (0, b) ,
u = g (x, y) sobre ∂ ((0, a) × (0, b)) ,
Implemente alguns exemplos deste problema computacionalmente e compare os resultados obtidos com
as soluções exatas.
3. Prove que a fórmula dos nove pontos compacta satisfaz o princı́pio do máximo discreto.
4. Prove resultados equivalentes ao Lema 2.5 e ao Teorema 2.6 para a fórmula dos nove pontos compacta.
5. Investigue a ordem de convergência do esquema de diferenças finitas misto: fórmula dos nove pontos nos
pontos interiores distantes da fronteira e fórmula dos cinco pontos para pontos adjacentes à fronteira.
6. Encontre um esquema de diferenças finitas de segunda ordem para a equação de laplace tridimensional
em um paralelepı́pedo reto. Escolha uma ordenação apropriada dos pontos da malha e descreva a
matriz de discretização obtida. Implemente o método no computador.
7. Mostre que o esquema de diferenças finitas em coordenadas polares introduzido neste capı́tulo satisfaz
o princı́pio do máximo discreto desde que o valor de u0 seja dado pela fórmula (2.56).
Rodney Josué Biezuner 68

8. Mostre que se ∆d denota o esquema de diferenças finitas em coordenadas polares introduzido neste
capı́tulo e Ω é o disco unitário, então vale a estimativa a priori: se ud é uma solução de
½
−∆d ud = fd em Ωd ,
ud = 0 sobre ∂Ωd ,

então
1
kud k∞ 6
k∆d ud k∞ (2.68)
4
desde que o valor de u0 seja dado pela fórmula (2.56). Conclua que este esquema tem ordem de
convergência 2.
9. Encontre os autovalores da matriz de discretização do esquema de diferenças finitas em coordenadas
polares e compare com os autovalores de Dirichlet do laplaciano no disco.
10. Discretize o problema de Poisson com valor de fronteira de Dirichlet para o anel:

 −∆u = f (r, θ) se R1 < r < R2 e 0 < θ < 2π,
u (R1 , θ) = g1 (θ)

u (R2 , θ) = g2 (θ) se 0 6 θ 6 2π.

Implemente alguns exemplos deste problema computacionalmente e compare os resultados obtidos com
as soluções exatas.

11. Mostre que tomando o “quadrado” da fórmula de três pontos para o laplaciano unidimensional (es-
quema de diferenças centradas para a derivada segunda) obtemos a seguinte fórmula de cinco pontos
para o operador biharmônico unidimensional (esquema de diferenças centradas para a derivada quarta):
ui−2 − 4ui−1 + 6ui − 4ui+1 + ui+2
δ 4 ui = (2.69)
∆x4
Usando a fórmula de Taylor, obtenha o expoente p tal que

δ 4 ui = u(4) (xi ) + O (∆xp ) .

12. O esquema de diferenças finitas mais simples para o operador biharmônico ∆2 em duas dimensões é a
seguinte fórmula de 13 pontos (para o caso ∆x = ∆y):
 
1
 2 −8 2 
1 

2
∆ u= 1 −8 20 −8 1  . (2.70)
∆x4 
 
2 −8 2
1

Mostre que esta fórmula pode ser obtida a partir do “quadrado” da fórmula de cinco pontos para
o laplaciano. Como a equação biharmônica não satisfaz o princı́pio do máximo, a demonstração da
ordem de convergência deste esquema necessita de argumentos diferentes dos usados neste capı́tulo
para o laplaciano. Na realidade, dependendo de como
¡ as duas
¢ condições
¡ ¢ de fronteira são discretizadas,
a ordem de convergência deste método pode ser O ∆x3/2 ou O ∆x2 . Veja [Hackbusch], pág. 103 e
págs. 105-109, para detalhes e referências.
Capı́tulo 3

Existência e Unicidade de Soluções


Discretas

Determinar a existência e unicidade de soluções discretas para as matrizes de discretização obtidas via
esquemas de diferenças finitas através do cálculo de seus autovalores como fizemos no capı́tulo anterior para
diferenças centradas em uma dimensão e para a fórmula de cinco pontos é inviável em geral (tente calcular
os autovalores da matriz de discretização para a fórmula dos nove pontos, para o esquema em coordenadas
polares e para o esquema de Shortley-Weller). Neste capı́tulo, desenvolveremos métodos mais gerais e mais
fáceis de aplicar.

3.1 Normas Matriciais


Uma norma matricial no espaço vetorial Mn (C) das matrizes complexas n × n é uma norma vetorial que
satisfaz a propriedade submultiplicativa
kABk 6 kAk kBk (3.1)
para todas as matrizes A, B ∈ Mn (C). Algumas das normas mais importantes em Mn (C) são as seguintes:

1. Norma l1
n
X
kAk1 = |aij | . (3.2)
i,j=1

De fato,
¯
n ¯X
¯
X n ¯ n
X n
X n
X n
X
¯ ¯
kABk1 = ¯ aik bkj ¯ 6 |aik bkj | 6 |aik blj | = |aik | |blj | = kAk1 kBk1 .
¯ ¯
i,j=1 k=1 i,j,k=1 i,j,k,l=1 i,j=1 k,l=1

2. Norma l2
 1/2
n
X 2
kAk2 =  |aij |  . (3.3)
i,j=1

Com efeito,
¯
n ¯X
¯2 Ã n !Ã n !  n  
X n ¯ n
X X X X n
X
2 ¯ ¯ 2 2 2 2 2 2
kABk2 = ¯ aik bkj ¯ 6 |aik | |blj | = |aik |   |blj |  = kAk2 kBk2 .
¯ ¯
i,j=1 k=1 i,j=1 k=1 l=1 i,k=1 j,l=1

69
Rodney Josué Biezuner 70

A norma l2 também é chamada norma euclidiana e, mais raramente e somente para matrizes, norma
de Schur, norma de Frobenius ou norma de Hilbert-Schmidt.
3. Norma l∞ modificada
A norma l∞
kAk∞ = max |aij | .
16i,j6n

é uma norma vetorial no espaço das matrizes complexas, mas não é uma norma matricial, pois se
· ¸
1 1
A= ,
1 1
então · ¸
2 2
A2 =
2 2
e portanto ° 2°
°A ° = 2 > 1 = kAk∞ kAk∞ .

Mas um múltiplo escalar desta norma vetorial é uma norma matricial:

kAkn∞ = n max |aij | . (3.4)


16i,j6n

Com efeito,
¯ ¯
¯Xn ¯ n
X n
X
¯ ¯
kABkn∞ = n max ¯ aik bkj ¯ 6 n max |aik bkj | 6 n max kAk∞ kBk∞
16i,j6n ¯ ¯ 16i,j6n 16i,j6n
k=1 k=1 k=1
= n kAk∞ n kBk∞ = kABkn∞ .

4. Norma induzida
Dada uma norma vetorial |·| em Cn , ela induz uma norma matricial através da definição
|Ax|
kAk = max |Ax| = max . (3.5)
|x|=1 x6=0 |x|
De fato,
µ ¶
|ABx| |ABx| |Bx| |ABx| |Bx| |Ay| |Bx|
kABk = max = max 6 max max 6 max max = kAk kBk .
x6=0 |x| x6=0 |Bx| |x| x6=0 |Bx| x6=0 |x| y6=0 |y| x6=0 |x|

Esta norma também é chamada norma do operador. Ela satisfaz a propriedade muitas vezes útil

|Ax| 6 kAk |x| (3.6)

para todo vetor x ∈ Cn .


5. Norma do máximo das somas das linhas
n
X
kAkL = max |aij | . (3.7)
16i6n
j=1

Esta norma é induzida pela norma vetorial l∞ . De fato, se x = (x1 , . . . , xn ), temos


¯ ¯
¯ n ¯ n n
¯X ¯ X X
|Ax|∞ = max ¯¯ aij xj ¯¯ 6 max |aij xj | 6 max |aij | |x|∞ = kAkL |x|∞ ,
16i6n ¯ ¯ 16i6n j=1 16i6n
j=1 j=1
Rodney Josué Biezuner 71

de modo que
max |Ax|∞ 6 kAkL .
|x|=1

Supondo que a k-ésima linha de A é não-nula, definimos o vetor y = (y1 , . . . , yn ) ∈ Cn por



 akj se aij 6= 0,
yi = |a | ,
 1kj se aij = 0.

o que implica |y|∞ = 1, akj yj = |akj | e


¯ ¯ ¯ ¯
¯X ¯ ¯X ¯ X
¯ n ¯ ¯ n ¯ n
max |Ax|∞ > |Ay|∞ = max ¯¯ ¯ ¯
aij yj ¯ > ¯ akj yj ¯¯ = |akj | .
|x|∞ =1 16i6n ¯ ¯ ¯ j=1 ¯ j=1
j=1

Isso vale para todo k, logo


n
X
max |Ax|∞ > max |aij | = kAkL .
|x|∞ =1 16k6n
j=1

6. Norma do máximo das somas das colunas


n
X
kAkC = max |aij | . (3.8)
16j6n
i=1

Esta norma é induzida pela norma vetorial l1 . De fato, escrevendo A em termos de suas colunas

A = [A1 . . . An ]

segue que
kAkC = max |Aj |1 .
16j6n

Se x = (x1 , . . . , xn ), segue que


n
X n
X n
X
|Ax|1 = |x1 A1 + . . . + xn An |1 6 |xi Ai |1 = |xi | |Ai |1 6 |xi | max |Aj |1
16j6n
i=1 i=1 i=1
n
X
= kAkC |xi | = kAkC |x|1 ,
i=1

donde
max |Ax|1 6 kAkC .
|x|1 =1

Agora, se escolhermos y = ej , temos que |y|1 = 1 e

|Ay|1 = |Aj |1

para todo k, logo


max |Ax|1 > |Ay|1 = max |Aj |1 = kAkC .
|x|1 =1 16j6n

7. p-normas
Este é o nome geral para as normas induzidas pela norma vetorial lp . O caso especial da norma induzida
pela norma vetorial l2 (a norma vetorial euclidiana) é também chamada a norma espectral e satisfaz
p n√ o
k|A|k2 = λmax = max λ : λ é um autovalor de A∗ A .
Rodney Josué Biezuner 72

De fato, A∗ A é uma matriz hermitiana e possui autovalores não-negativos, pois se A∗ Ay = λy, então
2 2
λ |y|2 = hy, λyi2 = hy, A∗ Ayi2 = hAy, Ayi2 = |Ay|2
e, além disso, pela caracterização variacional dos autovalores de uma matriz hermitiana temos
2
hA∗ Ax, xi2 |Ax|2
λmax = max 2 = max 2 .
x6=0 |x|2 x6=0 |x|2
Observe que a 2-norma é diferente da norma matricial l2 . Note também que se A é uma matriz
hermitiana, então A∗ A = A2 e k|A|k2 é portanto o módulo do maior autovalor de A, isto é, a norma
espectral de A é o raio espectral de A, definido como sendo o maior valor absoluto dos autovalores
de A:
ρ (A) = max |λi | ,
i=1,...,n

8. Norma induzida por uma matriz invertı́vel


Se k·k é uma norma matricial qualquer e se S é uma matriz invertı́vel, então
° °
kAkS = °S −1 AS ° (3.9)
define uma norma matricial. Com efeito,
° ° ° ° ° °° °
kABkS = °S −1 ABS ° = °S −1 ASS −1 BS ° 6 °S −1 AS ° °S −1 BS ° = kAkS kBkS .

Lembramos que todas as normas em um espaço vetorial são equivalentes, e isso vale em particular para
normas matriciais.

3.2 Matrizes Diagonalmente Dominantes


Definição. Dizemos que uma matriz An×n é diagonalmente dominante se
n
X
|aii | > |aij | para todo i = 1, . . . , n
j=1
j6=i

e estritamente diagonalmente dominante se


n
X
|aii | > |aij | para todo i = 1, . . . , n.
j=1
j6=i

3.1 Proposição. Se A é uma matriz estritamente diagonalmente dominante, então A é invertı́vel.


Prova. Uma matriz A é invertı́vel se existe alguma norma matricial k·k tal que kI − Ak < 1. De fato, se
esta condição é satisfeita, então a inversa é dada explicitamente pela série

X k
A−1 = (I − A) . (3.10)
k=0
P∞
A condição kI − Ak < 1 garante a convergência desta série, pois a série geométrica k=0 rk tem raio de
convergência 1; como para todo N temos
N
X N
X N
X N
X +1
k k k k N +1
A (I − A) = [I − (I − A)] (I − A) = (I − A) − (I − A) = I − (I − A) ,
k=0 k=0 k=0 k=1
Rodney Josué Biezuner 73

tomando o limite quando N → ∞, concluı́mos (3.10).


Para provar a proposição, denote por D a matriz diagonal cujas entradas diagonais são as entradas
diagonais de A. Uma matriz estritamente diagonalmente dominante possui, por definição, entradas diagonais
não-nulas, logo D é uma matriz invertı́vel. A matriz D−1 A tem apenas 1’s na diagonal principal e se
mostramos que D−1 A é invertı́vel, isto implicará que A é invertı́vel. Para provar isso, considere a matriz
I − D−1 A. Temos ½
¡ −1
¢ 0 se i = j,
I − D A ij =
−aij /aii se i 6= j.
Usemos a norma do máximo das somas das linhas. Para cada 1 6 i 6 n temos
n ¯ n ¯ ¯
X ¯¡ ¢ ¯¯ X ¯ aij ¯ Xn
¯ I − D−1 A ij ¯ = ¯ ¯= 1 |aij | < 1,
¯ aii ¯ |aii |
j=1 j=1 j=1
j6=i j6=i
° °
logo °I − D−1 A° < 1 e o resultado segue. ¥
Às vezes, exigir dominância diagonal estrita em todas as linhas é pedir demais. Para certas matrizes,
dominância diagonal junto com dominância diagonal estrita em apenas uma linha é suficiente para garantir
a sua invertibilidade. As matrizes de discretização obtidas no capı́tulo anterior satisfazem esta condição
(nas linhas correspondentes à pontos adjacentes à fronteira), e nenhuma delas é estritamente diagonalmente
dominante. Por outro lado, esta condição não é suficiente para estabelecer a invertibilidade de uma matriz
em geral, como o exemplo  
4 2 1
 0 1 1 
0 1 1
demonstra. Precisamos de desenvolver várias idéias e ferramentas teóricas antes de provar a invertibilidade
das matrizes de discretização do capı́tulo anterior.

3.3 Teorema dos Discos de Gershgorin


A primeira ferramenta teórica é o importante Teorema dos Discos de Gershgorin. Ele decorre da seguinte
observação: se A é uma matriz complexa n × n, podemos sempre escrever A = D + B, onde D = diag
(a11 , . . . , ann ) é a matriz diagonal formada pela diagonal principal de A e B consiste dos elementos restantes
de A, possuindo uma diagonal principal nula. Se definirmos Aε = D + εB, então A0 = D e A1 = A. Os
autovalores de D são a11 , . . . , ann , enquanto que os autovalores de Aε devem estar localizados em vizinhanças
dos pontos a11 , . . . , ann , desde que ε seja suficientemente pequeno. O mesmo deve valer para os autovalores
da matriz A: eles devem estar contidos em discos centrados nos elementos a11 , . . . , ann da diagonal principal
se os discos são suficientemente grandes. O Teorema de Gershgorin dá uma estimativa precisa e simples de
calcular para os raios destes discos em função das entradas restantes da matriz A. Denote o disco complexo
fechado de centro em a e raio R por
DR (a) = {z ∈ C : |z − a| 6 R} .
3.2 Teorema. (Teorema dos Discos de Gershgorin) Se A ∈ Mn (C) e
n
X
Ri (A) = |aij | (3.11)
j=1
j6=i

denota a soma dos valores absolutos dos elementos da linha i de A excetuando o elemento da diagonal
principal, então todos os autovalores de A estão contidos na união dos n discos de Gershgorin
n
[
G (A) = DRi (A) (aii ) . (3.12)
i=1
Rodney Josué Biezuner 74

Além disso, se uma união de k destes discos forma uma região que é disjunta dos n−k discos restantes,
então existem exatamente k autovalores de A nesta região.

Prova. Seja λ um autovalor de A e x = (x1 , . . . , xn ) 6= 0 um autovetor associado. Seja k um ı́ndice tal que

|xk | > |xj | para j = 1, . . . , n,

isto é, xk é a coordenada de x de maior valor absoluto. Denotando por (Ax)k a k-ésima coordenada do vetor
Ax = λx, temos
Xn
λxk = (Ax)k = akj xj
j=1

que é equivalente a
n
X
xk (λ − akk ) = akj xj .
j=1
j6=k

Daı́,
n
X n
X n
X
|xk | |λ − akk | 6 |akj xj | = |akj | |xj | 6 |xk | |akj | = |xk | Rk (A) ,
j=1 j=1 j=1
j6=k j6=k j6=k

ou seja,
|λ − akk | 6 Rk (A) .
Isso prova o resultado principal do Teorema de Gershgorin (como não sabemos qual k é apropriado para
cada autovalor λ, e um mesmo k pode servir para vários autovalores λ, tudo o que podemos afirmar é que
os autovalores estão na união dos discos).
Para provar a segunda afirmação, escreva A = D + B, onde D = diag (a11 , . . . , ann ) e defina

At = D + tB

para 0 6 t 6 1. Note que


Ri (At ) = Ri (tB) = tRi (A) .
Para simplificar a notação, assuma que a união dos primeiros k discos de Gershgorin
k
[
Gk (A) = DRi (A) (aii )
i=1

satisfaz Gk (A) ∩ [G (A) \Gk (A)] = ∅. Temos

DRi (At ) (aii ) = {z ∈ C : |z − aii | 6 Ri (At )} = {z ∈ C : |z − aii | 6 tRi (A)} ⊂ DRi (A) (aii ) ,

logo
Gk (At ) ⊂ Gk (A)
e
Gk (A) ∩ [G (At ) \Gk (At )] = ∅
para 0 6 t 6 1. Porque os autovalores são funções contı́nuas das entradas de uma matriz, o caminho

λi (t) = λi (At )

é um caminho contı́nuo que liga λi (A0 ) = λi (D) = aii a λi (A1 ) = λi (A). Como λi (At ) ∈ Gk (At ) ⊂ Gk (A),
concluı́mos que para cada 0 6 t 6 1 existem k autovalores de At em Gk (A); em particular, fazendo t = 1,
Rodney Josué Biezuner 75

obtemos que Gk (A) possui pelo menos k autovalores de A. Da mesma forma, não pode haver mais que
k autovalores de A em Gk (A), pois os n − k autovalores restantes de A0 = D começam fora do conjunto
Gk (A) e seguem caminhos contı́nuos que permanecem fora de Gk (A). ¥
A união G (A) dos discos de Gershgorin é conhecida como a região de Gershgorin. Observe que enquanto
não podemos em geral afirmar com certeza que cada disco de Gershgorin possui um autovalor, a segunda
afirmação do teorema permite-nos fazer tal conclusão desde que os discos de Gershgorin sejam dois a dois
disjuntos.
O Teorema dos Discos de Gershgorin permite entender o resultado da Proposição 3.1: se uma matriz A é
estritamente diagonalmente dominante, então os discos de Gershgorin DRi (A) (aii ) não interceptam a origem,
logo 0 não pode ser um autovalor para a matriz A, o que implica que A é invertı́vel. Além disso, se todos
os elementos da diagonal principal de A são reais e positivos, então os autovalores de A estão localizados no
semiplano direito de C, de modo que se A é também simétrica, concluı́mos que todos os autovalores de A
são positivos.
A aplicação mais óbvia do Teorema dos Discos de Gershgorin é na estimativa dos autovalores de uma
matriz, o que é importante se vamos usar os autovalores de matrizes de discretização para aproximar os
autovalores do laplaciano:

Aplicação 1. Pelo Teorema dos Discos de Gershgorin, os autovalores da matriz de discretização do lapla-
ciano no intervalo (0, π) discretizado com n + 1 pontos (esquema de diferenças finitas centradas para
a derivada segunda unidimensional)
 
2 −1
 −1 2 −1 
 
 .. .. 
n2 
 −1 . . 

A= 2 
π  . .. . . . −1 
 
 −1 2 −1 
−1 2

estão todos localizados no intervalo (A é simétrica,£ logo seus¤autovalores são todos reais) centrado em
x = 2n2 /π 2 de raio 2n2 /π 2 , ou seja, no intervalo 0, 4n2 /π 2 . Em particular o maior autovalor de A
não pode exceder 4n2 /π 2 . Como os autovalores do laplaciano neste intervalo são da forma λj = j 2 ,
para termos esperança em aproximar o autovalor λj por autovalores da matriz A precisamos que
j 2 6 4n2 /π 2 , isto é, precisamos discretizar o intervalo (0, π) com
π
n> j
2
pontos. Isso dá uma estimativa bastante grosseira do quão refinada a nossa malha precisa ser para
aproximar os autovalores do laplaciano. Na prática, vimos que apenas os primeiros autovalores de
A aproximam bem os primeiros autovalores do laplaciano e portanto precisamos de uma malha com
um número muito maior de pontos. Observe que uma estimativa semelhante vale para a matriz de
2
discretização M fornecida pela fórmula de cinco pontos no quadrado (0, π) quando tomamos ∆x =
2 2
∆y = π/n: como os£ autovalores ¤ de M estão localizados no intervalo de centro em x = 4n /π de raio
2 2 2 2
4n /π , isto é, em 0, 8n /π , precisamos de
π p2
n> √ i + j2
2 2
pontos no eixos horizontal e vertical para aproximar o autovalor i2 + j 2 . Por outro lado, no caso
bidimensional isso implica em uma matriz de discretização da ordem de i2 + j 2 . ¤

Usos mais refinados do Teorema de Gershgorin permitem obter conhecimento mais preciso sobre onde
os autovalores da matriz se encontram e correspondentemente melhores estimativas para o raio espectral
Rodney Josué Biezuner 76

de uma matriz. Por exemplo, como A e At possuem os mesmos autovalores, existe um teorema dos discos
de Gershgorin equivalente para as colunas de uma matriz. Em particular, todos os autovalores de A estão
localizados na interseção destas duas regiões: G (A) ∩ G (At ). Isso implica a seguinte estimativa simples para
o raio espectral de uma matriz complexa:
3.3 Corolário. Se A ∈ Mn (C), então
 
n
X n
X
ρ (A) 6 min  max |aij | , max |aij | = min (kAkL , kAkC ) .
i=1,...,n j=1,...,n
j=1 i=1

Prova. O ponto no i-ésimo disco de Gershgorin que é mais distante da origem tem módulo
n
X
|aii | + Ri (A) = |aij |
j=1

e um resultado semelhante vale para as colunas de A. ¥


O resultado do Corolário 3.3 não é surpreendente em vista do raio espectral de uma matriz ser menor que
qualquer norma matricial (veja o próximo capı́tulo). Um resultado melhor pode ser obtido uma vez que
se observa que A e S −1 AS também possuem os mesmos autovalores, qualquer que seja a matriz invertı́vel
S. Em particular, quando S = D = diag (p1 , . . . , pn ) é uma matriz diagonal com todos os seus elementos
positivos, isto é, pi > 0 para todo i, aplicando o Teorema de Gershgorin à matriz
µ ¶
−1 pj
D AD = aij
pi
e à sua transposta, obtemos o seguinte resultado que permite obter uma estimativa arbitrariamente boa dos
autovalores de A:
3.4 Corolário. Se A ∈ Mn (C) e p1 , . . . , pn > 0, então todos os autovalores de A estão contidos em
 

 

¡ −1 ¢ ¡ t −1
¢ [ n
1 X
n 
G D AD ∩ G DA D = z ∈ C : |z − aii | 6 pj |aij | (3.13)
 pi j=1 
i=1 
 

j6=i
 
[ n 
 Xn 

1
∩ z ∈ C : |z − aii | 6 pj |aij | .
 p 
i=1  i=1 i 
i6=j

Em particular,
 
Xn Xn
1 1
ρ (A) 6 min  max pj |aij | , max pj |aij | . (3.14)
p1 ,...,pn >0 i=1,...,n pi j=1,...,n pi
j=1 i=1

3.4 Propriedade FC
Na nossa busca por propriedades para matrizes diagonalmente dominantes que garantirão a sua invertibil-
idade, uma observação fundamental é a de que se A é uma matriz diagonalmente dominante, então 0 não
pode ser um ponto interior de nenhum disco de Gershgorin. De fato, se λ é um autovalor de A interior a
algum disco de Gershgorin então devemos ter desigualdade estrita
n
X
|λ − aii | < Ri (A) = |aij |
j=1
j6=i
Rodney Josué Biezuner 77

para algum i. Se 0 é um autovalor de A interior a algum disco de Gershgorin, então


n
X
|aii | < |aij |
j=1
j6=i

para algum i e A não pode ser diagonalmente dominante na linha i.


Uma condição equivalente para que um autovalor λ de A não seja um ponto interior de nenhum disco de
Gershgorin é que
n
X
|λ − aii | > Ri (A) = |aij | para todo i = 1, . . . , n.
j=1
j6=i

Tais pontos λ na região de Gershgorin G (A) (não necessariamente autovalores de A) constituem precisa-
mente a fronteira ∂G (A) da região de Gershgorin. Chamaremos a fronteira de um disco de Gershgorin
{z ∈ C : |z − aii | = Ri (A)} um cı́rculo de Gershgorin.

3.5 Lema. Seja A ∈ Mn (C) e λ um autovalor de A que não é um ponto interior de nenhum disco de
Gershgorin. Seja x = (x1 , . . . , xn ) 6= 0 um autovetor associado a λ e k um ı́ndice tal que

|xk | > |xj | para j = 1, . . . , n.

Se i é qualquer ı́ndice tal que


|xi | = |xk |
então o i-ésimo cı́rculo de Gershgorin passa por λ. Se, além disso,

aij 6= 0,

então
|xj | = |xk |
e o j-ésimo cı́rculo de Gershgorin também passa por λ.

Prova. Como na demonstração do Teorema de Gershgorin, temos


n
X n
X n
X
|xi | |λ − aii | 6 |aij xj | = |aij | |xj | 6 |xk | |aij | = |xk | Ri (A) (3.15)
j=1 j=1 j=1
j6=k j6=k j6=k

para todo ı́ndice i. Logo, se |xi | = |xk |, temos

|λ − aii | 6 Ri (A) .

Como por hipótese


|λ − aii | > Ri (A)
para todo ı́ndice i, segue que
|λ − aii | = Ri (A) .
Em geral, |xi | = |xk | implica que as desigualdades em (3.15) são identidades; em particular,
n
X n
X
|aij | |xj | = |xi | |aij |
j=1 j=1
j6=k j6=k
Rodney Josué Biezuner 78

donde
n
X
|aij | (|xi | − |xj |) = 0.
j=1
j6=k

Esta é uma soma de termos não-negativos, pois |xi | > |xj |, logo se aij 6= 0 necessariamente devemos ter
|xj | = |xi | = |xk |. ¥
Este lema técnico tem as seguintes conseqüências úteis:

3.6 Teorema. Seja A ∈ Mn (C) uma matriz cujas entradas são todas não-nulas e seja λ um autovalor de
A que não é um ponto interior de nenhum disco de Gershgorin. Então todo cı́rculo de Gershgorin
de A passa por λ (isto é, λ está na interseção de todos os cı́rculos de Gershgorin de A) e se x =
(x1 , . . . , xn ) 6= 0 é um autovetor associado a λ então

|xi | = |xj | para todos i, j = 1, . . . , n.

Prova. Decorre diretamente do lema anterior. ¥

3.7 Corolário. Se A ∈ Mn (C) é uma matriz cujas entradas são todas não-nulas e diagonalmente dominante
P
n
tal que |aii | > |aij | para pelo menos alguma linha i, então A é invertı́vel.
j=1
j6=i

Prova. Pois, como A é diagonalmente dominante, se 0 é um autovalor de A então 0 não pode ser um ponto
interior de nenhum disco de Gershgorin. Por outro lado, pelo teorema anterior, segue que todo cı́rculo de
Gershgorin passa por 0. Entretanto, o i-ésimo cı́rculo de Gershgorin centrado em aii e com raio Ri < |aii |
não pode passar por 0. Concluı́mos que 0 não é um autovalor de A, logo A é invertı́vel. ¥
Na verdade, usando com maior cuidado a informação dada pelo Lema 3.5 podemos obter resultados ainda
melhores:

Definição. Dizemos que uma matriz A = (aij ) ∈ Mn (C) satisfaz a propriedade FC se para todo par de
inteiros distintos i, j existe uma seqüência de inteiros distintos i1 = i, i2 , i3 , . . . , im−1 , im = j, com
1 6 m 6 n, tais que todas as entradas matriciais

ai1 i2 , ai2 i3 , . . . , aim−1 im

são não-nulas.

Por exemplo, a matriz diagonalmente dominante não-invertı́vel


 
4 2 1
 0 1 1 ,
0 1 1

já vista anteriormente, não satisfaz a propriedade FC porque o par 2, 1 não admite tal seqüência (a única
seqüência possı́vel é a23 , a31 ). Já qualquer par de inteiros distintos i, j tal que aij 6= 0 admite a seqüência
trivial não-nula aij , de modo que uma matriz cujas entradas não-diagonais são todas não-nulas satisfaz a
propriedade FC. O significado da abreviatura “FC”, ou “fortemente conexo”, ficará claro mais adiante.

3.8 Teorema. Seja A ∈ Mn (C) uma matriz que satisfaz a propriedade FC e seja λ um autovalor de A que
não é um ponto interior de nenhum disco de Gershgorin. Então todo cı́rculo de Gershgorin de A passa
por λ (isto é, λ está na interseção de todos os cı́rculos de Gershgorin de A) e se x = (x1 , . . . , xn ) 6= 0
é um autovetor associado a λ então

|xi | = |xj | para todos i, j = 1, . . . , n.


Rodney Josué Biezuner 79

Prova. Seja x = (x1 , . . . , xn ) 6= 0 um autovetor associado a λ e i um ı́ndice tal que

|xi | > |xk | para k = 1, . . . , n.

Pelo Lema 3.5,


|λ − aii | = Ri (A) .
Seja j 6= i qualquer outro ı́ndice e i1 = i, i2 , i3 , . . . , im−1 , im = j, com 1 6 m 6 n, ı́ndices tais que todas as
entradas matriciais
aii2 , ai2 i3 , . . . , aim−1 j 6= 0.
Como aii2 6= 0, segue da segunda afirmativa do Lema 3.5 que |xi2 | = |xi |. Mas então ai2 i3 6= 0 e portanto
|xi3 | = |xi2 | = |xi |. Prosseguindo desta forma, concluı́mos que
¯ ¯
|xi | = |xi2 | = . . . ¯xim−1 ¯ = |xj | .

Em particular, segue novamente do Lema 3.5 que o j-ésimo cı́rculo de Gershgorin passa por λ. Como j é
arbitrário, isso prova o teorema. ¥

3.9 Corolário. Se A ∈ Mn (C) é uma matriz que satisfaz a propriedade FC e diagonalmente dominante tal
P
n
que |aii | > |aij | para pelo menos alguma linha i, então A é invertı́vel.
j=1
j6=i

Prova. Segue do teorema anterior da mesma forma que o Corolário 3.7 segue do Teorema 3.6. ¥
Vamos tentar entender melhor o significado da propriedade FC. Note que ela se refere apenas à localização
dos elementos não-nulos de A fora da diagonal principal – os elementos da diagonal principal e os valores
especı́ficos dos elementos fora da diagonal principal são irrelevantes. Isso motiva as seguintes definições:

Definição. Dada uma matriz A = (aij ) ∈ Mn (C) definimos o módulo da matriz A como sendo a matriz

|A| = (|aij |)

cujos elementos são os módulos dos elementos da matriz A e a matriz indicadora de A como sendo
a matriz
M (A) = (µij ) ,
onde ½
1 se aij 6= 0,
µij =
0 se aij = 0.

O conceito de uma seqüência de entradas não-nulas da matriz A que aparece na definição da propriedade
FC pode ser visualizado em termos de caminhos em um grafo associado a A:

Definição. Dada uma matriz A ∈ Mn (C), o grafo direcionado de A é o grafo direcionado Γ (A) com n
nodos P1 , . . . , Pn tais que existe um arco direcionado em Γ (A) de Pi a Pj se e somente se aij 6= 0.
Um caminho direcionado γ em um grafo Γ é uma seqüência de arcos Pi1 Pi2 , Pi2 Pi3 , . . . em Γ. O
comprimento de um caminho direcionado é o número de arcos sucessivos no caminho direcionado. Um
ciclo é um caminho direcionado que começa e termina no mesmo nó.
Dizemos que um grafo direcionado é fortemente conexo se entre qualquer par de nodos distintos
Pi , Pj ∈ Γ existir um caminho direcionado de comprimento finito que começa em Pi e termina em Pj .

Observe que quando Γ é um grafo direcionado com n nodos, se existe um caminho direcionado entre dois
nodos de Γ, então sempre existe um caminho direcionado entre estes dois nodos de comprimento menor que
ou igual a n − 1.
Rodney Josué Biezuner 80

3.10 Teorema. A ∈ Mn (C) satisfaz a propriedade FC se e somente se Γ (A) é fortemente conexo.

Verificar a propriedade FC a partir do grafo direcionado de A pode ser impraticável se o tamanho da


matriz for muito grande. Existe um método computacional mais explı́cito para fazê-lo:

3.11 Teorema. Sejam A ∈ Mn (C) e Pi , Pj nodos de Γ (A). Existe um caminho direcionado de compri-
mento m em Γ (A) de Pi para Pj se e somente se
m
(|A| )ij 6= 0

ou, equivalentemente, se e somente se


m
[M (A) ]ij 6= 0.

Prova. Provaremos o teorema por indução. Para m = 1 a afirmativa é trivial. Para m = 2, temos
³ ´ n
X n
X
2
|A| = (|A|)ik (|A|)kj = |aik | |akj | ,
ij
k=1 k=1
³ ´
2
de modo que |A| 6= 0 se e somente se aik , akj são ambos não-nulos para algum ı́ndice k. Mas isso é
ij
equivalente a dizer que existe um caminho direcionado de comprimento 2 em Γ (A) de Pi para Pj .
Em geral, supondo a afirmativa provada para m, temos
³ ´ n
X n
X
m+1 m m
|A| = (|A| )ik (|A|)kj = (|A| )ik |akj | 6= 0
ij
k=1 k=1

m
se e somente se (|A| )ik , akj são ambos não-nulos para algum ı́ndice k. Por hipótese de indução, isso é
equivalente a existir um caminho direcionado de comprimento m em Γ (A) de Pi para Pk e um caminho
direcionado de comprimento 1 em Γ (A) de Pk para Pj , isto é, um caminho direcionado de comprimento
m + 1 em Γ (A) de Pi para Pj . O mesmo argumento vale para M (A). ¥

Definição. Seja A = (aij ) ∈ Mn (C). Dizemos que A > 0 se aij > 0 para todos 1 6 i, j 6 n e que A > 0 se
aij > 0 para todos 1 6 i, j 6 n.

3.12 Corolário. Seja A ∈ Mn (C). Existe um caminho direcionado de comprimento m em Γ (A) de cada
nodo Pi para cada nodo Pj se e somente se
m
|A| >0

ou, equivalentemente, se e somente se


m
M (A) > 0.

3.13 Corolário. Seja A ∈ Mn (C). A satisfaz a propriedade FC se e somente se


n−1
(I + |A|) >0

ou, equivalentemente, se e somente se


n−1
[I + M (A)] > 0.

Prova. Temos
µ ¶ µ ¶
n−1 n−1 2 n−1 n−1 n−1
(I + |A|) = I + (n − 1) |A| + |A| + . . . + |A| + |A| >0
2 n−3
Rodney Josué Biezuner 81

2 n−1
se e somente se para cada par de ı́ndices i, j com i 6= j pelo menos um dos termos |A| , |A| , . . . , |A|
tem uma entrada positiva em (i, j). Pelo Teorema 3.11, isso ocorre se e somente se existe algum caminho
direcionado em Γ (A) de Pi para Pj com comprimento 6 n−1. Isto é equivalente a A satisfazer a propriedade
FC. O mesmo argumento vale para M (A). ¥
Em geral, a maneira como uma matriz foi obtida (como as nossas matrizes de discretização; veja a última
seção do capı́tulo) torna clara se elas são matrizes que satisfazem a propriedade FC ou não. Se isso
não é possı́vel, e pretende-se verificar a propriedade FC através do Corolário 3.13, é preferı́vel calcular
n−1
[I + M (A)] , já que M (A) é uma matriz composta apenas de 0’s e 1’s.

3.5 Matrizes Irredutı́veis


Lembre-se que uma matriz de permutação P é uma matriz quadrada cujas entradas são todas 0 ou 1 e,
além disso, em cada linha e em cada coluna de P existe exatamente um 1. Em particular, P é uma matriz
ortogonal, de modo que P −1 = P t , isto é, a inversa de P também é uma matriz de permutação. Um caso
especial de uma matriz de permutação é uma matriz de transposição, que é uma matriz de permutação T
igual à matriz identidade exceto em duas posições, isto é, para algum par de ı́ndices fixado k, l temos

 δij se (i, j) 6= (k, l) , (l, k) , (k, k) ou (l, l) ,
Tij = 1 e (i, j) = (k, l) ou se (i, j) = (l, k) ,

0 se (i, j) = (k, k) ou se (i, j) = (l, l) .

Matrizes de transposição são simétricas. O efeito de multiplicar uma matriz A por uma matriz de transposição
à esquerda é trocar a posição de duas linhas da matriz A (no caso acima, as linhas k e l), enquanto que a
multiplicação de A por uma matriz de transposição à direita muda a posição de duas colunas de A (no caso
acima, as colunas k e l).
    
1 0 0 0 a11 a12 a13 a14 a11 a12 a13 a14
 0 0 1 0   a21 a22 a23 a24   a31 a32 a33 a34 
TA =    
 0 1 0 0   a31 a32 a33 a34  =  a21 a22 a23 a24  ,

0 0 0 1 a41 a42 a43 a44 a41 a42 a43 a44


    
a11 a12 a13 a14 1 0 0 0 a11 a13 a12 a14
 a21 a22 a23 a24   0 0 1 0   a21 a23 a22 a24 
AT =    
 a31 a32 a33 a34   0 1 0 0  =  a31 a33 a32 a34  .

a41 a42 a43 a44 0 0 0 1 a41 a43 a42 a44

Pode-se provar que toda matriz de permutação P é o produto de matrizes de transposição P = T1 . . . Tm ;


em particular, P t = Tm . . . T1 . A matriz

P t AP = Tm . . . T1 AT1 . . . Tm

é portanto obtida através da permutação de linhas e colunas de A, de modo que nenhum novo elemento é
criado ou algum elemento existente de A destruı́do.

Definição. Dizemos que uma matriz A ∈ Mn (C) é redutı́vel se existe alguma matriz de permutação P e
algum inteiro 1 6 m 6 n − 1 tal que · ¸
B C
P t AP =
0 D
onde B é uma matriz m × m, D é uma matriz (n − m) × (n − m), C é uma matriz m × (n − m) e 0 é
a matriz nula (n − m) × m. Caso contrário, dizemos que A é irredutı́vel.
Rodney Josué Biezuner 82

Da definição vemos que se |A| > 0, então A é irredutı́vel, e para que A seja redutı́vel, ela precisa ter pelo
menos n − 1 zeros (caso m = 1). A motivação para este nome é a seguinte. Suponha que queiramos resolver
o sistema Ax = b e que A seja redutı́vel. Então, se escrevermos
· ¸
B C
A = P t AP = ,
0 D

teremos Ax = P AP t x = b ou AP t x = P t b; denotando x = P t x e b = P t b, resolver o sistema Ax = b é então


equivalente a resolver o sistema
Ax = b.
Escrevendo · ¸ · ¸
y b1
x= , b=
z b2
onde y, b1 ∈ Cm e z, b2 ∈ Cn−m , este sistema é por sua vez equivalente ao sistema
½
By + Cz = b1
Dz = b2

Se resolvermos primeiro Dz = b2 e utilizarmos o valor de z encontrado na primeira equação resolvendo


By = b1 − Cz, teremos reduzido o problema original a dois problemas menores, mais fáceis de resolver.

3.14 Teorema. Uma matriz A ∈ Mn (C) é irredutı́vel se e somente se


n−1
(I + |A|) >0

ou, equivalentemente, se e somente se


n−1
[I + M (A)] > 0.

n−1
Prova. Para provar o resultado, mostraremos que A é redutı́vel se e somente se (I + |A|) possui pelo
menos uma entrada nula.
Assuma primeiramente que A é redutı́vel, de modo que para alguma matriz de permutação P tenhamos
· ¸
B C
A=P P t =: P AP t .
0 D

Observe que ¯ ¯ ¯ ¯
|A| = ¯P AP t ¯ = P ¯A¯ P t ,
já que o efeito de P é apenas trocar linhas e colunas. Além disso, note que
· k ¸
k B Ck
A =
0 Dk

para alguma matriz Ck . Logo, como


¡ ¯ ¯ ¢n−1 ¡ ¯ ¯¢n−1 t
= I + P ¯A¯ P t = P I + ¯A¯
n−1
(I + |A|) P
· µ ¶ µ ¶ ¸
n−1 2 n−1 n−1 n−1
= P I + (n − 1) |A| + |A| + . . . + |A| + |A| Pt
2 n−3

e todos os termos dentro dos colchetes são matrizes que tem um bloco (n − m) × m nulo no canto esquerdo
n−1
inferior, segue que (I + |A|) é redutı́vel, logo possui entradas nulas e não pode ser positiva.
Rodney Josué Biezuner 83

n−1
Reciprocamente, suponha que (I + |A|) possui pelo menos uma entrada nula. Como
n−1
X µ ¶
n−1 n−1 m
(I + |A|) =I+ |A| ,
m=1
m

n−1
(I
h + |A|) não
i possui entradas diagonais nulas, logo podemos assumir que para algum par i 6= j temos
n−1 m
(I + |A|) = 0, o que implica [|A| ]ij = 0 para todo 1 6 m 6 n − 1. Pelo Teorema 3.11 (e observação
ij
imediatamente posterior à definição de grafo direcionado), não existe um caminho direcionado em Γ (A) de
comprimento finito entre Pi e Pj . Defina os conjuntos de nodos

S1 := {Pk : Pk = Pj ou existe um caminho direcionado em Γ (A) entre Pk e Pj } ,


S2 = [ nodos de Γ (A)] \S1 .

Por definição destes conjuntos, não pode existir nenhum caminho de algum nodo de S2 para algum nodo de
m
S1 , logo [|A| ]lk = 0 se Pl ∈ S2 e Pk ∈ S1 . E ambos os conjuntos são não-vazios, pois Pj ∈ S1 e Pi ∈ S2 .
Renomeando os nodos de modo que
n o
S1 = Pe1 , . . . , Pem ,
n o
S2 = Pem+1 , . . . , Pen ,

segue que existe uma matriz de permutação P tal que


· ¸
t B C
P AP = .
0 D

De fato, P é justamente a matriz de permutação que troca as colunas de tal forma que as variáveis anteriores
correspondentes aos nodos Pe1 , . . . , Pem no sistema Ax = b são as novas m primeiras variáveis do sistema linear
Ax = b; como não existe nenhum caminho direcionado entre nenhum dos nodos Pem+1 , . . . , Pen e qualquer um
dos nodos Pe1 , . . . , Pem , temos aij = 0 para m + 1 6 i 6 n e 1 6 j 6 m pelo Teorema 3.11. ¥

3.15 Corolário. Uma matriz A ∈ Mn (C) é irredutı́vel se e somente se ela satisfaz a propriedade FC.
P
n
3.16 Proposição. Se A é uma matriz irredutı́vel, diagonalmente dominante tal que |aii | > |aij | para
j=1
j6=i
pelo menos alguma linha i, então A é invertı́vel.
Além disso, se A é hermitiana e todos os elementos da diagonal principal de A são positivos, então
todos os autovalores de A são positivos.

Prova. O resultado segue do Teorema 3.14, do Corolário 3.9 e do Teorema dos Discos de Gershgorin (veja
comentários após o Teorema 3.2). ¥

3.6 Invertibilidade de Matrizes de Discretização


Os resultados obtidos nas seções anteriores fornecem uma demonstração alternativa de que as matrizes
de discretização do capı́tulo anterior (tanto no caso unidimensional, quanto no caso bidimensional) são
invertı́veis, sem a necessidade de se calcular os seus autovalores.
Rodney Josué Biezuner 84

3.6.1 Esquemas de Diferenças Finitas para o Intervalo e para o Retângulo


É fácil ver que todas as matrizes de discretização obtidas no capı́tulo anterior para o intervalo e para o
retângulo (isto é, os esquemas unidimensionais de três pontos e cinco pontos, e os esquemas bidimensionais
de cinco e nove pontos, compacto ou não-compacto) são matrizes diagonalmente dominantes com dominância
diagonal estrita nas linhas correspondentes a pontos adjacentes à fronteira. Além disso, elas são matrizes
irredutı́veis porque elas satisfazem a propriedade FC. De fato, cada ı́ndice i da matriz corresponde a um
ponto interior Pi da malha e aij 6= 0 sempre que Pi e Pj são pontos vizinhos naqueles esquemas. Então,
dados dois pontos distintos Pi , Pj é fácil encontrar uma seqüência de ı́ndices i1 = i, i2 , i3 , . . . , im−1 , im = j,
com 1 6 m 6 n, tais que todas as entradas matriciais

ai1 i2 , ai2 i3 , . . . , aim−1 im

são não-nulas: no caso unidimensional, basta percorrer a malha diretamente de Pi até Pj (andando a partir
de Pi sempre para a direita ou sempre para a esquerda, conforme o caso, até encontrar Pj ), e no caso
bidimensional basta usar qualquer caminho interior de Pi até Pj (pode-se usar a ordem lexicográfica para
percorrer a malha, ou a ordem lexicográfica inversa, dependendo das posições relativas de Pi e Pj ; no entanto,
estes caminhos são mais longos que o necessário). Em outras palavras, identificando as malhas de pontos
internos com os grafos direcionados da matriz de discretização, de modo que existe um arco direcionado entre
dois pontos da malha se e somente se eles são vizinhos, os esquemas de discretização considerados garantem
que estes grafos são fortemente conexos.
As matrizes obtidas através de diferenças finitas em geral são irredutı́veis, pois elas satisfazem a pro-
priedade FC. É difı́cil imaginar um esquema de diferenças finitas para uma malha sobre um domı́nio conexo
em que não houvesse um caminho direcionado entre pontos vizinhos (isto é, em que tivéssemos aij = 0
para dois pontos vizinhos Pi e Pj ). Outra maneira de pensar sobre isso é observar que se uma matriz de
discretização fôsse (após permutação de linhas e colunas) da forma
· ¸
B C
,
0 D

isso implicaria que um conjunto de pontos da malha (os correspondentes ao bloco D) teriam diferenças
finitas independentes do conjunto dos pontos restantes da malha (os correspondentes ao bloco D); pior
ainda, estes últimos poderiam ter diferenças finitas dependentes dos primeiros (já que o bloco C poderia
ser não-nulo). Em última análise, seria possı́vel reduzir o problema de resolver o sistema linear associado à
discretização a dois problemas mais simples. É difı́cil imaginar um esquema de diferenças finitas com esta
propriedade, embora talvez possa ocorrer em algum domı́nio com geometria altamente irregular em que a
malha de pontos interiores se dividisse em essencialmente duas malhas independentes. Tal situação deve ser
evitada com cuidado na hora de discretizar tais regiões.

3.6.2 Esquema de Coordenadas Polares


As mesmas observações anteriores valem para a matriz de discretização obtida através do esquema de coorde-
nadas polares do capı́tulo anterior, isto é, ela satisfaz a propriedade FC. Para verificar que ela é diagonalmente
dominante, note que para todas as linhas, exceto a primeira que deve ser tratada separadamente, temos
1 ri+1/2 + ri−1/2 2 1
|aii | = γi = + 2 .
ri ∆r2 ri ∆θ2
Além disso, para todas as linhas, excetuando a primeira e as linhas correspondentes a pontos adjacentes à
fronteira do disco temos
n
X 1 ri−1/2 1 ri+1/2 2 1
|aij | = αi + βi + 2δi = 2
+ 2
+ 2 = |aii | .
j=1
∆r ri ∆r ri ri ∆θ2
j6=i
Rodney Josué Biezuner 85

Nestas linhas existe dominância diagonal, enquanto que nas linhas correspondentes a pontos adjacentes à
fronteira do disco temos
(n−1)×m+1
X
|aij | = αi + 2δi < |aii | ,
j=1
j6=i

isto é, temos dominância diagonal estrita. Finalmente, para a primeira linha também temos dominância
diagonal, pois
4
|a00 | = ,
∆r2
(n−1)×m+1
X 2 ∆θ m ∆θ 4
|a0j | = m =4 = = |a00 | .
j=1
π ∆r2 2π ∆r2 ∆r2
j6=0

3.6.3 Esquema de Shortley-Weller


Se a geometria é razoavelmente regular, o esquema de Shortley-Weller para o problema de Dirichlet deve
satisfazer a propriedade FC : aij 6= 0 sempre que Pi e Pj são pontos internos vizinhos, e se a geometria não é
altamente irregular (por exemplo, se o domı́nio é “razoavelmente” convexo) existe um caminho direcionado de
um ponto interno arbitrário a qualquer outro ponto interno da malha passando apenas por pontos internos do
domı́nio. Caso contrário, a matriz de discretização obtida pode deixar de ser irredutı́vel, mas isso deve ocorrer
apenas devido à quebra da malha de pontos internos em várias submalhas desconexas, e cada submalha por
si só deve ser fortemente conexa. Portanto, a matriz de discretização total deve ser uma matriz em blocos,
cada bloco satisfazendo a propriedade FC, logo a matriz é invertı́vel.
Capı́tulo 4

Métodos Iterativos para a Resolução


de Sistemas Lineares

Neste capı́tulo investigaremos métodos iterativos para a resolução de sistemas lineares

Ax = b.

Embora a matriz A que temos em mente é em geral uma matriz grande e esparsa, do tipo que aparece
em esquemas de diferenças finitas, os métodos considerados aqui requerem apenas que A seja uma matriz
invertı́vel com todas as entradas diagonais aii não-nulas.
Métodos iterativos requerem um chute inicial x0 , um vetor inicial que aproxima a solução exata x (se
não há nenhuma informação disponı́vel sobre a solução exata, de modo que não temos como construir o
chute inicial de forma inteligente, x0 pode ser uma aproximação muito ruim de x). Uma vez que x0 é dado,
o método iterativo gera a partir de x0 uma nova aproximação x1 , que esperamos deve aproximar melhor a
solução exata. Em seguida, x1 é usada para gerar 2
¡ k ¢uma nova melhor aproximação x e assim por diante.
Desta forma, gera-se uma seqüência de vetores x que espera-se convergir para x. Como na prática não
podemos iterar para sempre, algum critério de parada deve ser estabelecido a priori. Uma vez que xk esteja
suficientemente próximo da solução exata quanto se precise, de acordo com uma margem de tolerância aceita,
pára-se o processo de iteração e aceita-se xk como a solução aproximada adequada para o problema. Por
exemplo, o critério de parada pode ser estabelecido através de uma cota de tolerância τ : quando
° °
°b − Axk ° < τ

ou quando ° k+1 °
°x − xk ° < τ
as iterações são interrompidas e o último valor aproximado obtido é aceito como a melhor aproximação da
solução dentro das circunstâncias.
Os métodos discutidos neste capı́tulo não necessitam de um bom chute inicial (embora, é claro, quanto
melhor o chute inicial, menor o número de iterações necessárias para se chegar à solução aproximada com a
precisão especificada).

4.1 Métodos Iterativos Lineares


Nesta seção apresentamos alguns exemplos clássicos de métodos iterativos lineares. Na próxima seção dare-
mos condições necessárias e suficientes para estabelecer a sua convergência.

86
Rodney Josué Biezuner 87

4.1.1 Método de Jacobi


O primeiro método iterativo (que já foi descrito como o mais lento para convergir, embora isso realmente
depende da matriz A do sistema) é o algoritmo de Jacobi. Escrevendo o sistema Ax = b na forma
 n
 P

 a1j xj = b1


 j=1
.. ,
 .

 P
n

 anj xj = bn

j=1

se aii 6= 0 para todo i, cada xi pode ser isolado na i-ésima equação e escrito na forma
 
Xn
1 bi −

xi =  aij xj 
.
aii j=1
j6=i
¡ ¢
Isso sugere definir um método iterativo da seguinte forma: suposto xk = xk1 , . . . , xkn obtido no passo
¡ ¢
anterior, obtemos xk+1 = xk+1
1 , . . . , xk+1
n por
 
Xn
1 bi −

xk+1
i =  aij xkj 
. (4.1)
aii j=1
j6=i

No caso da fórmula de cinco pontos para o problema de Poisson com ∆x = ∆y, como a equação para
cada ponto (i, j) é dada por

−ui,j−1 − ui,j+1 + 4ui,j − ui−1,j − ui+1,j = ∆x2 fi,j

o método de Jacobi é
1¡ k ¢
uk+1
i,j = ui,j−1 + uki,j+1 + uki−1,j + uki+1,j + ∆x2 fi,j . (4.2)
4
No caso especial da equação de Laplace (f = 0) com condição de fronteira de Dirichlet não-nula, o método
de Jacobi é simplesmente a propriedade do valor médio discreta
1¡ k ¢
uk+1
i,j = ui,j−1 + uki,j+1 + uki−1,j + uki+1,j . (4.3)
4
Em outras palavras, calculados os valores de u em todos os pontos da malha na iteração anterior, o novo
valor de u em um ponto interior da malha nesta iteração é calculado através da média dos seus quatro
pontos vizinhos. Os valores iniciais de u nos pontos interiores da malha para a primeira iteração (isto é, o
chute inicial) podem ser atribuidos arbitrariamente ou através de algum argumento razoável; por exemplo,
podemos utilizar uma média ponderada dos valores de fronteira para o valor inicial em cada ponto interior
da malha, de acordo com a posição do ponto em relação aos pontos das quatro fronteiras discretizadas.
Em forma matricial, o algoritmo de Jacobi pode ser descrito da seguinte forma. Denotando por D = diag
(a11 , . . . , ann ) a matriz diagonal cujas entradas são as entradas diagonais de A, temos que
£ ¤
xk+1 = D−1 (D − A) xk + b (4.4)

ou ¡ ¢
xk+1 = D−1 Cxk + b (4.5)
onde C = D − A é a matriz consistindo dos elementos restantes de A fora da diagonal principal.
Rodney Josué Biezuner 88

4.1.2 Método de Gauss-Seidel


Um método iterativo que converge cerca de duas vezes mais rápido que o método de Jacobi (pelo menos em
várias aplicações) é o método de Gauss-Seidel, onde os valores de x são atualizados dentro de cada iteração,
sem esperar pela próxima. Em outras palavras, obtido o valor de xk+1 l este é usado no lugar de xkl no cálculo
seguinte. No sistema Ax = b em que aii 6= 0 para todo i, como antes isolamos cada xi na i-ésima equação
mas desta vez escrevemos  
Xi−1 Xn
1 
xi = bi − aij xj + aij xj  .
aii j=1 j=i+1

Então definimos  
i−1
X Xn
1 
xk+1
i = bi − aij xk+1
j + aij xkj  (4.6)
aii j=1 j=i+1

pois os valores xk+1


1 , . . . , xk+1 k k
i−1 já foram computados nesta iteração, enquanto que os valores xi+1 , . . . , xn são
fornecidos pela iteração anterior.
Por exemplo, no caso da equação de Laplace, poderı́amos utilizar a fórmula
1 ¡ k+1 ¢
uk+1
i,j = ui,j−1 + uki,j+1 + uk+1 k
i−1,j + ui+1,j (4.7)
4
assumindo que os pontos da malha são percorridos na ordem lexicográfica, de modo que quando vamos
calcular o valor de u no ponto i, j na iteração k + 1, nesta mesma iteração já calculamos os valores de u em
i − 1, j e em i, j − 1, e usamos estes valores para calcular uk+1 k k
i,j ao invés dos valores ui,j−1 e ui−1,j obtidos
na iteração anterior.
Em forma matricial, o algoritmo de Jacobi pode ser descrito da seguinte forma. Dada uma matriz A,
existe uma única decomposição
A=D−L−U (4.8)
onde D é uma matriz diagonal, L é uma matriz estritamente triangular inferior e U é uma matriz estritamente
triangular superior; de fato, D = diag (a11 , . . . , ann ) é a parte diagonal de A, −L é a parte estritamente
triangular inferior de A e −U é a parte estritamente triangular superior de A. Então o algoritmo de Jacobi
pode ser definido por ¡ ¢
xk+1 = D−1 Lxk+1 + U xk + b (4.9)
ou
(D − L) xk+1 = U xk + b,
donde ¡ k ¢
−1
xk+1 = (D − L) Ux + b . (4.10)
É importante ressaltar que existem matrizes para as quais o método de Jacobi converge e o método de
Gauss-Seidel diverge, e vice-versa. Veja a próxima seção sobre a convergência dos métodos.

4.1.3 Método SOR


O processo de corrigir uma equação através da modificação de uma variável é às vezes chamado de relax-
amento. Antes da correção, a equação não é verdadeira; como um conjunto de partes que não se ajustam,
ela está em estado de tensão. A correção de uma variável relaxa a tensão. O método de Gauss-Seidel efetua
relaxamento sucessivo, ou seja, passa de equação para equação, relaxando uma depois da outra. [Watkins]
Por este motivo, os métodos de Jacobi e de Gauss-Seidel são também chamados métodos de relaxamento.
Em muitos casos, a convergência pode ser substancialmente acelerada através de sobrerelaxamento. Isso
significa que ao invés de fazer uma correção para a qual a equação é satisfeita exatamente, nós fazemos uma
correção maior. No caso mais simples, escolhe-se um fator de relaxamento ω > 1 que sobrecorrige por aquele
Rodney Josué Biezuner 89

fator em cada passo (se mover um passo na direção de xk para xk+1 é bom, mover naquela direção ω > 1
passos é melhor). Este é o chamado método de sobrerelaxamento sucessivo (SOR, successive overrelaxation):
usando o método de Gauss-Seidel obtemos
 
i−1
X Xn
1 bi −
bk+1
xi = aij xk+1
j + aij xkj  ;
aii j=1 j=i+1

daı́ tomamos ¡ k+1 ¢


xk+1
i = xki + ω x
bi − xki .
Isso pode ser resumido em
   
i−1
X Xn
1
xk+1
i = xki + ω  bi − k+1
aij xj − aij xkj  − xki  . (4.11)
aii j=1 j=i+1

Quando ω = 1, o método SOR é exatamente o método de Gauss-Seidel. Um fator ω < 1 (subrelaxamento)


normalmente diminui a velocidade de convergência.
Para a maioria dos problemas, o melhor valor para o fator de relaxamento é desconhecido. Para a matriz
de discretização obtida a partir da fórmula de cinco pontos, é sabido que o valor ótimo de ω é, como veremos
na próxima seção,
2
ω= . (4.12)
1 + sen (π∆x)
Em forma matricial, o método SOR pode ser descrito da seguinte forma. Como antes, dada uma matriz
A escrevemos
A=D−L−U (4.13)
onde D é uma matriz diagonal, L é uma matriz estritamente triangular inferior e U é uma matriz estritamente
triangular superior. Então, escrevendo o algoritmo SOR na forma
 
i−1
X n
X
aii xk+1
i = aii xki + ω bi − aij xk+1
j − aij xkj  ,
j=1 j=i

temos £ ¤
Dxk+1 = Dxk + ω Lxk+1 + (U − D) xk + b (4.14)
ou µ ¶ µ ¶
1 k+1 1−ω
D−L x = D + U xk + b,
ω ω
donde µ ¶−1 ·µ ¶ ¸
k+1 1 1−ω k
x = D−L D+U x +b . (4.15)
ω ω

4.1.4 Comparação da Velocidade de Convergência dos Três Métodos


A tabela a seguir foi extraı́da de [Watkins], págs. 533 e 542. Os métodos introduzidos acima foram usados
para resolver o sistema linear Ax = b onde A é a matriz de discretização obtida a partir da fórmula dos
2
cinco pontos do laplaciano no quadrado unitário Ω = (0, 1) e b é estabelecido pela condição de fronteira de
Dirichlet dada por 

 0 se x = 0,

y se x = 1,
g (x, y) =

 (x − 1) sen x se y = 0,

x (2 − x) se y = 1,
Rodney Josué Biezuner 90

ou seja, para resolver o problema discretizado


½
−∆d ud = 0 em Ωd ,
ud = gd sobre ∂Ωd .
As iterações foram interrompidas quando
¯ k+1 ¯
¯u − uk ¯ 2
< 10−8 .
|uk+1 |2
O número de iterações necessárias para convergir de acordo com esta margem de tolerância, para três refina-
mentos possı́veis da malha (correspondentes a matrizes de dimensões n = 81, 361 e 1521, respectivamente),
de acordo com cada método e para diferentes valores de ω no caso do método SOR é apresentado na tabela
abaixo.

∆x = 0.1 ∆x = 0.05 ∆x = 0.025


Jacobi 299 1090 3908
SOR (ω = 0.8) 235 845 3018
Gauss-Seidel 160 581 2082
SOR (ω = 1.4) 67 262 955
SOR (ω = 1.6) 42 151 577
SOR (ω = 1.7) 57 96 412
SOR (ω = 1.8) 86 89 252
SOR (ω = 1.9) 176 180 179
SOR (ω = 2.0) ∞ ∞ ∞
Vemos que o método de Gauss-Seidel é cerca de duas vezes mais rápido para convergir que o método de
Jacobi e que dependendo da escolha de ω, o método SOR pode ser até dez vezes mais rápido que o método
de Gauss-Seidel para a malha mais refinada. Subrelaxamento não ajuda e para ω = 2 o método SOR é
divergente.

4.1.5 Método de Jacobi Amortecido


O método de Gauss-Seidel pode ser sobrerelaxado através de um parâmetro ω > 1 para obter um método
que converge mais rápido.Já o método de Jacobi não pode em geral ser sobrerelaxado, porque o método
obtido não converge. Ele pode no entanto ser subrelaxado através de um parâmetro ω < 1 para obter um
método convergente, se bem que mais vagaroso. A vantagem de se utilizar um tal método é que para certos
valores de ω ele é um ótimo suavizador de erro (em um sentido que será explicado no próximo capı́tulo),
enquanto que o método de Jacobi usual não possui esta propriedade. Assim, o método de Jacobi amortecido
pode ser usado em métodos multigrid (veja o próximo capı́tulo).
Pelo método de Jacobi usual obtemos
 
Xn
1 bi −

bk+1
x i =  aij xkj 
,
aii j=1
j6=i

e tomamos ¡ k+1 ¢
xk+1
i = xki + ω x
bi − xki ,
ou seja,    
Xn
 1   
xk+1 = xk
+ ω  b − aij xkj  k
i i  aii  i  − xi  . (4.16)
j=1
j6=i
Rodney Josué Biezuner 91

Este método é conhecido como método de Jacobi amortecido, método de Jacobi ponderado ou ainda
método de relaxamento simultâneo (diferente do método de relaxamento sucessivo, baseado no método de
Gauss-Seidel, em que cada variável é substituı́da sucessivamente dentro da mesma iteração à medida que
ela é atualizada; no método de Jacobi, as variáveis são todas substituı́das simultameamente na próxima
iteração).
Em forma matricial, o método de Jacobi amortecido pode ser descrito da seguinte forma. Denotando por
D a parte diagonal de A, temos
 
Xn
aii xk+1
i = aii xki + ω bi − aij xkj  ,
j=1

temos £ ¤
Dxk+1 = Dxk + ω b − Axk (4.17)
ou µ ¶ µ ¶
1 1
D xk+1 = D − A xk + ωb,
ω ω
donde µ ¶−1 ·µ ¶ ¸
k+1 1 1 k
x = D D−A x +b . (4.18)
ω ω
Em contraste com o método SOR, que converge em geral para 0 < ω < 2, o método de Jacobi amortecido
converge para 0 < ω 6 1 (veja a próxima seção).

4.2 Análise de Convergência dos Métodos Iterativos Lineares


Os métodos descritos na seção anterior são casos especiais de uma classe geral de métodos chamados métodos
iterativos lineares ou métodos de correção residual. Um método iterativo linear para resolver o sistema
linear
Ax = b
envolve a decomposição da matriz A na forma
A = B − C, (4.19)
onde B é necessariamente uma matriz invertı́vel, e então a resolução iterativa do sistema de equações
Bxk+1 = Cxk + b (4.20)
ou, mais explicitamente, ¡ ¢
xk+1 = B −1 Cxk + b .
Se xk → x, então Bx = Cx + b, donde Ax = b. Do ponto de vista prático, é importante que a matriz B
seja “fácil de resolver” (mesmo que a inversa de B não seja efetivamente calculada), como nos exemplos da
seção anterior:
B C
Jacobi D D−A
Gauss-Seidel D−L U
1 1−ω
SOR D−L D+U
ω ω
Para obter uma convergência rápida, também gostarı́amos que B ≈ A e C ≈ 0. Deste ponto de vista, o ideal
seria B = A e C = 0 (convergência em uma iteração), mas isso viola em geral o critério que B seja “fácil
de resolver”. Um compromisso é necessário: B deve aproximar A o melhor possı́vel sem se tornar muito
complicada.
Rodney Josué Biezuner 92

4.2.1 Convergência dos Métodos Iterativos Lineares


Para métodos iterativos em geral, definimos o erro algébrico por

ek = x − xk , (4.21)

enquanto que o erro residual é dado por

rk = Ax − Axk = f − Axk . (4.22)

O erro algébrico tem interesse puramente teórico (para provar que determinado método iterativo converge,
precisamos mostrar que o erro algébrico tende a zero), já que ele só pode ser calculado uma vez que se
conhece a solução exata, e se este for o caso obviamente não há necessidade de resolver o sistema. Já o erro
residual pode ser usado como critério de parada para o método iterativo. Como
¡ ¢
Bek+1 = Bx − Bxk+1 = Ax + Cx − Cxk − b = C x − xk = Cek ,

segue que
ek+1 = B −1 Cek .
Observe que
B −1 C = B −1 (B − A) = I − B −1 A.
A matriz
R = I − B −1 A = B −1 C (4.23)
é chamada a matriz de iteração ou matriz de propagação do erro do algoritmo considerado, porque

xk+1 = Rxk + B −1 b. (4.24)

e o erro é dado por


ek+1 = Rek . (4.25)
Em particular,
ek = R k e0 (4.26)
0 k
de modo que o erro converge para 0, independentemente do chute inicial x , se e somente se R → 0. Isso
ocorre se e somente se existe alguma norma matricial k·k tal que kRk < 1. Obter uma norma matricial
que satisfaz esta propriedade, no entanto, é difı́cil. Vamos obter uma condição necessária e suficiente para
Rk → 0 em termos do raio espectral da matriz de iteração (Corolário 4.5 a seguir), que é em geral um pouco
mais fácil de calcular. Antes, para motivar o resultado, suponha que A seja uma matriz diagonalizável com
λ1 , . . . , λn os seus autovalores e {v1 , . . . , vn } uma correspondente base de autovetores. Escrevendo o erro
inicial como uma combinação linear dos autovetores, temos
n
X
e0 = ai vi .
i=1

Logo,
n
X
ek = Rk e0 = ai λki vi ,
i=1

de modo que
n
¯ k¯ X
¯e ¯ 6 k
|ai | |λi | |vi | .
i=1
k
Como |λi | → 0 se e somente se |λi | < 1, concluı́mos que ek → 0 qualquer que seja o erro inicial (isto é,
qualquer que seja o chute inicial), se e somente se ρ (R) = max16i6n |λi | < 1 .
Rodney Josué Biezuner 93

4.1 Lema. Se A ∈ Mn (C) e k·k é qualquer norma matricial, então

ρ (A) 6 kAk .

Prova. Seja λ um autovalor qualquer de A e x um autovetor não-nulo correspondente a λ, de modo que

Ax = λx.

Considere a matriz X ∈ Mn (C) cujas colunas são todas iguais ao vetor x. Temos também

AX = λX

de modo que
|λ| kXk = kAXk 6 kAk kXk ,
donde
|λ| 6 kAk
para todo autovalor λ de A. Como existe um autovalor λ de A tal que ρ (A) = λ, isso prova o resultado. ¥

4.2 Lema. Seja A ∈ Mn (C) e ε > 0 dado. Então existe uma norma matricial k·k tal que

ρ (A) 6 kAk 6 ρ (A) + ε. (4.27)

Prova. Toda matriz complexa é triangularizável através de uma matriz unitária (isto é, uma matriz U que
satisfaz U ∗ U = U U ∗ = I; sua inversa é a sua adjunta ou transposta conjugada). Sejam então
 
λ1 a12 a22 . . . a1n
 λ2 a23 . . . a2n 
 
 λ3 . . . a3n 
T = 
 .. .. 
 . . 
λn
uma matriz triangular e U uma matriz unitária tais que

A = U ∗ T U.

Considere a matriz diagonal  


t
 t2 
 
Dt =  .. .
 . 
tn
Temos  
λ1 a12 t−1 a22 t−2 ... ... a1n t−n+1
 λ2 a23 t−1 ... ... a2n t−n+2 
 
 λ3 ... ... a3n t−n+3 
 
Dt T Dt−1 = .. .. .
 . . 
 
 λn−1 an−1,n t−1 
λn
Logo, para t > 0 suficientemente grande, a matriz Dt T Dt−1 tem a propriedade que a soma dos valores
absolutos de elementos fora da diagonal principal é menor que ε. Em particular, se k·kL denota a norma do
máximo das somas das linhas, podemos garantir que
° °
°Dt T Dt−1 ° 6 ρ (A) + ε
L
Rodney Josué Biezuner 94

para t suficientemente grande. Portanto, fixado um tal t, se definirmos uma norma por
° ° °¡ ¢−1 °
° °
kAk := °Dt U AU ∗ Dt−1 °L = ° U ∗ Dt−1 AU ∗ Dt−1 ° ,
L

teremos ° ° ° °
kAk = °Dt U AU ∗ Dt−1 °L = °Dt T Dt−1 °L 6 ρ (A) + ε.
Pelo lema anterior, ρ (A) 6 kAk. ¥

4.3 Lema. Seja A ∈ Mn (C). Se existe alguma norma matricial k·k tal que kAk < 1, então

Ak → 0.

Prova. Se kAk < 1, então ° k°


°A ° 6 kAkk → 0.
¥

4.4 Proposição. Seja A ∈ Mn (C). Então


Ak → 0
se e somente se
ρ (A) < 1.

Prova. Se existe algum autovalor λ de A tal que |λ| > 1 e x é um autovetor não-nulo correspondente, então

Ak x = λk x

não converge para 0. Reciprocamente, se ρ (A) < 1, então pelo Lema 4.2 existe uma norma matricial k·k tal
que kAk < 1, logo Ak → 0 pelo lema anterior. ¥

4.5 Corolário. Seja R a matriz de iteração de um método iterativo linear. Então

ek → 0

se e somente se
ρ (R) < 1.
Em outras palavras, um método iterativo linear é convergente independentemente da escolha do chute
inicial se e somente se todos os autovalores da matriz de iteração têm valor absoluto menor que 1.

4.2.2 Velocidade de Convergência dos Métodos Iterativos Lineares


O raio espectral também dá informação sobre a velocidade de convergência. Se nós tivermos dois métodos
iterativos lineares diferentes, isto é, duas maneiras diferentes de decompor a matriz A:

A = B1 − C1 = B2 − C2 ,

então o segundo método convergirá mais rápido se e somente se

ρ (R2 ) < ρ (R1 ) .

Vamos analisar a velocidade de convergência dos métodos iterativos com maior precisão. Novamente à
tı́tulo de motivação, suponha que A é uma matriz diagonalizável com seu maior autovalor sendo um autovalor
simples. Ordene os autovalores de A na forma

|λ1 | > |λ2 | > . . . > |λn |


Rodney Josué Biezuner 95

e seja {v1 , . . . , vn } uma correspondente base de autovetores. Escrevendo de novo


n
X
e0 = ai vi ,
i=1

donde
n
X
ek = Rk e0 = ai λki vi ,
i=1
segue que " #
n
X µ ¶k
λi
ek = λk1 a1 x1 + ai vi .
i=2
λ1
Como µ ¶k
λi
→ 0,
λ1
k
a taxa de convergência é determinada por |λ1 | . Para k grande, temos
ek ≈ λk1 a1 v1 .
Portanto, ¯ k+1 ¯
¯e ¯
= |λ1 | = ρ (R) . (4.28)
|ek |
Em outras palavras, a convergência é linear com taxa de convergência igual ao raio espectral. Se a1 =
0 a convergência será mais rápida, pois dependerá do módulo do segundo autovalor, mas é obviamente
extremamente raro que o chute inicial satisfaça esta condição. Para o caso geral, precisamos do seguinte
resultado:
4.6 Proposição. Seja A ∈ Mn (C) e k·k uma norma matricial. Então
° °1/k
ρ (A) = lim °Ak ° .

Prova. Como os autovalores da matriz Ak são as k-ésimas potências dos autovalores de A, temos que
¡ ¢ ° °
ρ (A) = ρ Ak 6 °Ak ° ,
k

donde ° °1/k
ρ (A) 6 °Ak ° .
Dado ε > 0, a matriz
1
B= A
ρ (A) + ε
tem raio espectral menor que 1, logo B k → 0. Portanto, existe algum N = N (ε, A) tal que
° k°
°B ° < 1

ou seja,
° k °1/k
°A ° < ρ (A) + ε
para todo k > N . ¥
Definimos a taxa média de convergência de um método iterativo linear com matriz de iteração R por
° °1/k 1 ° °
Rk (R) = − log10 °Rk ° = − log10 °Rk ° (4.29)
k
e a taxa assintótica de convergência por
R∞ (R) = lim Rk (R) . (4.30)
k→∞
Rodney Josué Biezuner 96

4.7 Corolário. Seja R a matriz de iteração de um método iterativo linear. Então a taxa assintótica de
convergência do método é dada por

R∞ (R) = − log10 ρ (R) . (4.31)

Prova. Pois ° °1/k ° °1/k


R∞ (R) = − lim log10 °Rk ° = − log10 lim °Rk ° = − log10 ρ (R) .
k→∞ k→∞

¥
A taxa assintótica de convergência mede o aumento no número de casas decimais corretas na solução por
iteração. De fato, usando a norma matricial do Lema 4.2 e medindo as normas dos vetores de acordo, temos
¯ k+1 ¯ ¯ k+1 0 ¯
¯e ¯ ¯R e ¯
= 6 kRk = ρ (R) + ε,
|ek | |Rk e0 |
donde ¯ k+1 ¯
¯e ¯
− log10 = − log10 ρ (R) + O (ε)
|ek |
ou ¯ ¯ ¯ ¯
log10 ¯ek ¯ − log10 ¯ek+1 ¯ = R∞ (R) + O (ε) . (4.32)
Assim, se
¯ k¯ ¡ ¢
¯e ¯ = O 10−p ,
¯ k+1 ¯ ¡ ¢
¯e ¯ = O 10−q ,

teremos
q − p ≈ R∞ (R) ,
isto é, reduzimos R∞ (R) ≈ q − p casas decimais no erro. Visto de outra forma, como
¯ k+m ¯ ¯ k+m 0 ¯
¯e ¯ ¯R e ¯ m
= 6 kRm k = ρ (R) + O (ε) ,
|ek | |Rk e0 |
donde ¯ k+m ¯
¯e ¯
− log10 ≈ −m log10 ρ (R) ,
|ek |
ou ¡¯ ¯ ¯ ¯¢
log10 ¯ek+m ¯ / ¯ek ¯
m= (4.33)
log10 ρ (R)
é o número de iterações necessárias para diminuir o erro de um número prescrito de casas decimais.

4.2.3 Convergência para Matrizes Simétricas Positivas Definidas


Para matrizes reais simétricas positivas definidas é mais fácil provar a convergência dos métodos iterativos
lineares. Temos o seguinte resultado básico a seguir. Antes precisamos da seguinte definição:

Definição. Introduzimos uma ordenação parcial em Mn (C) definindo

A6B

se
hAx, xi 6 hBx, xi
n
para todo x ∈ C .
Rodney Josué Biezuner 97

Em particular, se A é uma matriz positiva definida, segue que A > εI para algum ε (o menor autovalor de
A) e denotamos este fato por
A > 0.

4.8 Teorema. Seja A uma matriz simétrica positiva definida e seja A = B − C com B invertı́vel. Então
o método iterativo linear com matriz de iteração R = B −1 C converge se e somente se B t + C é uma
matriz simétrica positiva definida.

Prova. Medimos a norma do erro através da norma induzida por A


1/2
|x|A := hAx, xi

e consideraremos a norma matricial k·kA induzida por esta norma. Se provarmos que

kRkA < 1,

o método convergirá. Temos


¯ −1 ¯2 ­ ® ­ t −t ®
° −1 °2 ¯B Cx¯ AB −1 Cx, B −1 Cx C B AB −1 Cx, x
2
kRkA ° °
= B C A = sup A
= sup = sup . (4.34)
2 hAx, xi hAx, xi
x6=0 |x|A x6=0 x6=0

Suponha que B t + C é uma matriz simétrica, positiva definida. Temos


¡ ¢ ¡ ¢ ¡ ¢
C t B −t AB −1 C = B t − A B −t AB −1 (B − A) = I − AB −t A I − B −1 A
¡ ¢
= A − AB −t A + AB −1 A − AB −t AB −1 A
¡ ¢
= A − AB −t B + B t − A B −1 A
¡ ¢t ¡ ¢
= A − B −1 A B + B t − A B −1 A

ou ¡ ¢t ¡ ¢
C t B −t AB −1 C = A − B −1 A B t + C B −1 A, (4.35)
de modo que C t B −t AB −1 C é uma matriz simétrica, positiva definida. Logo, por (4.34), mostrar que
kRkA < 1 é equivalente a provar que
C t B −t AB −1 C < A,
¡ ¢t
e por (4.35) C t B −t AB −1 C < A se e somente se B −1 A (B t + C) B −1 A > 0, o que é verdade porque B t +C
é positiva definida. ¥

4.3 Convergência dos Métodos Iterativos Lineares para as Ma-


trizes de Discretização
4.3.1 Convergência do Método de Jacobi
P
n
4.9 Teorema. Se A é uma matriz irredutı́vel, diagonalmente dominante tal que |aii | > |aij | para pelo
j=1
j6=i
menos alguma linha i, então o método de Jacobi converge.

Prova. Seja D a parte diagonal da matriz A e R = D−1 (D − A) = I − D−1 A a matriz de iteração do


método
¡ de Jacobi
¢ para A. Suponha por absurdo que exista um autovalor λ de R tal que |λ| > 1. Como
λ det λ−1 R − I = det (R − λI) = 0, temos
¡ ¢
det I − λ−1 R = 0.
Rodney Josué Biezuner 98

Por outro lado, observe que I − λ−1 R também é irredutı́vel, pois


(
¡ ¢ 0 se i = j,
−1
Rij = I − D A ij = aij
− se i 6= j,
aii
(
¡ ¢ 1 se i = j,
−1 aij
−1
I − λ R ij = λ se i 6= j,
aii
de modo que, onde A se anula, I − λ−1 R também se anula. Além −1
¡ disso,−1I −¢λ R é diagonalmente dominante
−1
e estritamente dominante nas linhas onde A é, pois |λ| 6 1, I − λ R ii = 1 e
n ¯
X ¯¡ ¢ ¯¯ |λ|−1 X n
1 X
n
¯ I − λ−1 R ij ¯ = |aij | 6 |aij | .
j=1
|aii | j=1 |aii | j=1
j6=i j6=i j6=i

Mas, pela Proposição 3.16, isso implica que I − λ−1 R é invertı́vel, uma contradição. ¥
O Teorema 4.8 mostra que o método de Jacobi converge para as matrizes de discretização obtidas através
dos esquemas de diferenças finitas do Capı́tulo 2.
Através do Teorema 4.9, fomos capazes de provar a convergência do método de Jacobi para as matrizes de
discretização sem calcular explicitamente os seus raios espectrais. Para analizar a velocidade de convergência
do método de Jacobi, no entanto, é necessário obter os raios espectrais destas matrizes. Vamos fazer isso
para as matrizes de discretização obtidas a partir da fórmula de três pontos unidimensional e a partir da
fórmula de cinco pontos bidimensional.

4.10 Teorema. Seja A a matriz de discretização obtida a partir da fórmula de três pontos unidimensional
ou a partir da fórmula de cinco pontos bidimensional com ∆x = ∆y. Seja R = D−1 (D − A) a matriz
de iteração do método de Jacobi. Então
π
ρ (R) = cos . (4.36)
n

Prova. Para o método de Jacobi, a matriz de discretização xk+1 = Rxk + D−1 b é obtida através da fórmula:
1¡ k ¢
uk+1
i,j = ui,j−1 + uki,j+1 + uki−1,j + uki+1,j .
4
Já vimos no Lema 2.2 que
¡ ¢ kl
−ukl kl kl kl kl
i−1,j − ui+1,j + 4ui,j − ui,j−1 − ui,j+1 = λkl ∆x
2
ui,j

com µ ¶
2 kπ lπ
λkl = 2 − cos − cos .
∆x2 n n
Daı́ segue que ¡ ¢ kl
ukl kl kl kl
i,j−1 + ui,j+1 + ui−1,j + ui+1,j = 4 − λkl ∆x
2
ui,j
Logo
1 ¡ kl ¢
u + ukl kl kl kl
i,j+1 + ui−1,j + ui+1,j = µlk ui,j
4 i,j−1
para µ ¶ µ ¶
1 1 kπ lπ 1 kπ lπ
µlk = 1 − λkl ∆x2 = 1 − 2 − cos − cos = cos + cos .
4 2 n n 2 n n
Rodney Josué Biezuner 99

Estes são os autovalores da matriz de iteração de Jacobi para a matriz de discretização obtida a partir da
fórmula de cinco pontos (observe que elas possuem os mesmos autovetores; no entanto R possui autovalores
nulos). Segue que o máximo autovalor ocorre quando k = l = 1, logo
π
ρ (R) = cos .
n
O argumento para a fórmula de três pontos é análogo. ¥
Para o quadrado unitário temos
ρ (R) = cos (π∆x) . (4.37)
Vemos em particular que ρ (R) → 1 quando ∆x → 0, de modo que a velocidade de convergência do método
de Jacobi vai ficando cada vez menor para malhas mais refinadas. Podemos dizer mais usando a expansão
da função cosseno em torno da origem
1 ¡ ¢
cos x = 1 − x2 + O x4 ;
2
se ∆x é pequeno podemos aproximar

π2
cos (π∆x) ≈ 1 − ∆x2 ,
2
de modo que ρ (R) → 1 quadraticamente quando ∆x → 0. Em outras palavras, para uma malha duas vezes
mais refinada (isto é, ∆x reduzido pela metade), o método de Jacobi é cerca de quatro vezes mais vagaroso
em média (consulte novamente a tabela no final da seção anterior). A tabela abaixo mostra os valores do
raio espectral para alguns valores de ∆x:

∆x 0.1 0.05 0.025


ρ (R) 0.9511 0.9877 0.9969

Para ∆x = 0.025 (correspondente a uma matriz de tamanho n = 39 × 39 = 1521), temos

R∞ (R) = − log10 (0.9969) = 0.0013484,

de modo que para reduzir o erro pelo fator de uma casa decimal precisamos de
log10 0.1 1 1
m= =− = ≈ 742
log10 ρ (R) log10 ρ (R) 0.00135
iterações.

4.3.2 Convergência do Método de Gauss-Seidel


P
n
4.11 Teorema. Se A é uma matriz irredutı́vel, diagonalmente dominante tal que |aii | > |aij | para pelo
j=1
j6=i
menos alguma linha i, então o método de Gauss-Seidel converge.

Prova. Sejam D a parte diagonal, −L a parte triangular inferior estrita e −U a parte triangular superior
−1
estrita da matriz A, e seja R = (D − L) U a matriz de iteração do método de Gauss-Seidel para A.
Escrevemos £ ¡ ¢¤−1
−1
R = (D − L) U = D I − D−1 L U
ou ¡ ¢−1 −1
R = I − D−1 L D U. (4.38)
Rodney Josué Biezuner 100

Suponha por absurdo que exista um autovalor λ de R tal que |λ| > 1; como na demonstração do Teorema
4.9, temos ³ h¡
¡ ¢ ¢−1 −1 i´
det I − λ−1 R = det I − λ−1 I − D−1 L D U = 0.
Agora, observando que ¡ ¢
det I − D−1 L = 1
porque I − D−1 L é uma matriz triangular inferior com apenas 1’s na diagonal principal, escrevemos
³ h¡ ¢−1 −1 i´
0 = det I − λ−1 I − D−1 L D U
¡ ¢ ³ h¡ ¢−1 −1 i´
= det I − D−1 L det I − λ−1 I − D−1 L D U
n¡ ¢ ³ h ¡ ¢−1 −1 i´o
= det I − D−1 L I − λ−1 I − D−1 L D U
¡ ¢
= det I − D−1 L − λ−1 D−1 U .

Por outro lado,


D−1 A = I − D−1 L − D−1 U
é irredutı́vel, diagonalmente dominante e estritamente dominante nas linhas onde A é porque
(
¡ −1 ¢ 1 se i = j,
D A ij = aij
se i 6= j.
aii
Logo, a matriz I − D−1 L − λ−1 D−1 U também satisfaz estas propriedades, pois I, −D−1 L e −D−1 U são
respectivamente a parte diagonal, a parte triangular inferior estrita e a parte triangular superior estrita da
matriz D−1 A, e multiplicar a parte triangular inferior estrita pelo número λ−1 cujo módulo é menor que ou
igual a 1 não alterará a dominância diagonal (na verdade só tende a melhorá-la) nem acrescentará zeros à
matriz. A Proposição 3.16 implica então que I − D−1 L − λ−1 D−1 U é invertı́vel, um absurdo. ¥
Usando o Teorema 4.11, concluı́mos que o método de Gauss-Seidel converge para as matrizes de discretização
obtidas através dos esquemas de diferenças finitas do Capı́tulo 2. Para analizar a velocidade de convergência
do método de Gauss-Seidel, vamos obter os raios espectrais para as matrizes de discretização obtidas a partir
da fórmula de três pontos unidimensional e a partir da fórmula de cinco pontos bidimensional.

4.12 Teorema. Seja A a matriz de discretização obtida a partir da fórmula de três pontos unidimensional
−1
ou a partir da fórmula de cinco pontos bidimensional com ∆x = ∆y. Seja R = (D − L) U a matriz
de iteração do método de Gauss-Seidel. Então
π
ρ (R) = cos2 . (4.39)
n
Prova. Para obter o raio espectral da matriz de iteração R, queremos encontrar os autovalores µ de R:
−1
Ru = (D − L) U u = µu,

ou seja,
U u = µ (D − L) u
(um problema de autovalor generalizado). No caso da matriz de discretização da fórmula de cinco pontos,
isso significa encontrar µ tal que

ui,j+1 + ui+1,j = µ (4ui,j − ui,j−1 − ui−1,j ) . (4.40)

Para os autovalores não-nulos, podemos fazer a substituição


i+j
ui,j = µ 2 vi,j (4.41)
Rodney Josué Biezuner 101

para transformar a equação de autovalor naquela que aparece no método de Jacobi. Temos
i+j+1 i+j+1
³ i+j i+j−1 i+j−1
´
µ 2 vi,j + µ 2 vi+1,j = µ 4µ 2 vi,j − µ 2 vi,j−1 − µ 2 vi−1,j
i+j+2 i+j+1 i+j+1
= 4µ 2 vi,j − µ 2 vi,j−1 − µ 2 vi−1,j ,
i+j+1
de modo que, dividindo por µ 2 , obtemos

vi−1,j + vi+1,j + vi,j−1 + vi,j+1 = µ1/2 4vi,j .

Portanto os autovalores da matriz de iteração de Gauss-Seidel para esta matriz são exatamente os quadrados
dos autovalores da matriz de iteração de Jacobi (e os autovetores são os mesmos):
µ ¶2
1 kπ lπ
µlk = cos + cos .
4 n n
Portanto, o máximo autovalor ocorre quando k = l = 1 e
π
ρ (R) = cos2 .
n
O argumento para a fórmula de três pontos é análogo. ¥
Para o quadrado unitário temos
ρ (R) = cos2 (π∆x) ,
e usando · ¸
1 ¡ ¢ 2 ¡ ¢
cos2 x = 1 − x2 + O x4 = 1 − x2 + O x4 ,
2
se ∆x é pequeno podemos aproximar

cos2 (π∆x) ≈ 1 − π 2 ∆x2 .

No método de Gauss-Seidel ainda temos ρ (R) → 1 quadraticamente quando ∆x → 0, mas a sua velocidade
de convergência para a matriz de discretização de cinco pontos do quadrado unitário é duas vezes maior que
a do método de Jacobi. Para ver isso, faça a expansão do logaritmo em torno do ponto x = 1:
¡ ¢
log (1 + x) = x + O ∆x2 .

Segue que
π2 ¡ ¢
R∞ (RJacobi ) = ∆x2 + O ∆x4 , (4.42)
2 ¡ ¢
R∞ (RGauss-Seidel ) = π 2 ∆x2 + O ∆x4 . (4.43)

4.3.3 Convergência do Método SOR


4.13 Teorema. Se o método SOR converge, então

0 < ω < 2.

Prova. A matriz de iteração do método SOR é


µ ¶−1 µ ¶ · ¸ µ ¶
1 1−ω 1 ¡ −1
¢ −1 1 − ω
R= D−L D+U = D I − ωD L D+U
ω ω ω ω
µ ¶
¡ ¢−1 1−ω
= I − ωD−1 L ωD−1 D+U
ω
Rodney Josué Biezuner 102

ou ¡ ¢−1 £ ¤
R = I − ωD−1 L (1 − ω) I + ωD−1 U . (4.44)
Se λ1 , . . . , λn são os autovalores de R, então

det R = λ1 . . . λn .

Mas,
n¡ ¢−1 £ ¤o
det R = det I − ωD−1 L (1 − ω) I + ωD−1 U
¡ ¢−1 £ ¤
= det I − ωD−1 L det (1 − ω) I + ωD−1 U
n
= (1 − ω) ,

já que I − ωD−1 L é uma matriz triangular inferior com apenas 1 na diagonal principal e (1 − ω) I + ωD−1 U
é uma matriz triangular superior com apenas 1 − ω na diagonal principal. Logo
n
λ1 . . . λn = (1 − ω) .

Em particular, pelo menos um dos autovalores λj de R deve satisfazer

|λj | > |1 − ω| .

Mas, se o método SOR converge, devemos ter também |λ| < 1 para todo autovalor λ de R. Logo

|1 − ω| < 1,

donde
0 < ω < 2.
¥

4.14 Corolário. Se R é a matriz de iteração n × n para o método SOR, então


n
det R = (1 − ω) .

Em particular, diferente das matrizes de iteração dos métodos de Jacobi e de Gauss-Seidel (para a matriz de
discretização de cinco pontos), zero não é um autovalor para a matriz de iteração do método SOR se ω 6= 1
(para nenhuma matriz).
P
n
4.15 Teorema. Se A é uma matriz irredutı́vel, diagonalmente dominante tal que |aii | > |aij | para pelo
j=1
j6=i
menos alguma linha i, então o método SOR converge se 0 < ω 6 1.

Prova. A demonstração é análoga à do Teorema 4.11. A matriz de iteração do método SOR é


¡ ¢−1 £ ¤
R = I − ωD−1 L (1 − ω) I + ωD−1 U .

Suponha por absurdo que exista um autovalor λ de R tal que |λ| > 1; temos
¡ ¢ ³ n¡ ¢−1 £ ¤o´
det I − λ−1 R = det I − λ−1 I − ωD−1 L (1 − ω) I + ωD−1 U = 0.

Agora, observando que ¡ ¢


det I − ωD−1 L = 1
Rodney Josué Biezuner 103

porque I − ωD−1 L é uma matriz triangular inferior com apenas 1’s na diagonal principal, escrevemos
³ n¡ ¢−1 £ ¤o´
0 = det I − λ−1 I − ωD−1 L (1 − ω) I + ωD−1 U
¡ ¢ ³ n¡ ¢−1 £ ¤o´
= det I − ωD−1 L det I − λ−1 I − ωD−1 L (1 − ω) I + ωD−1 U
h¡ ¢³ n¡ ¢−1 £ ¤o´i
= det I − ωD−1 L I − λ−1 I − ωD−1 L (1 − ω) I + ωD−1 U
¡ £ ¤¢
= det I − ωD−1 L − λ−1 (1 − ω) I + ωD−1 U
©£ ¤ ª
= det 1 − λ−1 (1 − ω) I − ωD−1 L − λ−1 ωD−1 U .

Por outro lado, como vimos na demonstração do Teorema 4.11, a matriz

D−1 A = I − D−1 L − D−1 U

é irredutı́vel, diagonalmente dominante e estritamente dominante nas linhas onde A é, logo a matriz
£ ¤
S = 1 − λ−1 (1 − ω) I − ωD−1 L − λ−1 ωD−1 U

também satisfaz estas propriedades. De fato, S tem zeros nas mesmas posições que I − D−1 L − D−1 U , logo
a sua irredutibilidade não é afetada. Além disso, pela dominância diagonal de D−1 A, sabemos que se
¡ ¢
bij = D−1 L ij ,
¡ ¢
cij = D−1 U ij .

então
i−1
X n
X
1> |bij | + |cij | .
j=1 j=i+1

Para provar a dominância diagonal de S, observamos que os valores que S possui na diagonal principal são
1−ω λ+ω−1
1 − λ−1 (1 − ω) = 1 − = ,
λ λ
de modo que precisamos provar que
¯ ¯ i−1 n
¯λ + ω − 1¯ X ω X
¯ ¯>ω |b | + |cij |
¯ λ ¯ ij
|λ| j=i+1
j=1

se 0 < ω 6 1 e |λ| > 1. Provaremos que


¯ ¯
¯λ + ω − 1¯
¯ ¯ > ω,
¯ λ ¯
¯ ¯
¯λ + ω − 1¯
¯ ¯> ω .
¯ λ ¯ |λ|

Para isso, observe que como |λ| > 1 basta provar a primeira desigualdade, a qual por sua vez é equivalente a

|λ + ω − 1| > |λ| ω.

É fácil ver que esta desigualdade é válida quando λ ∈ R, pois

|λ + ω − 1| = λ + ω − 1 > λω porque λ − 1 > λω − ω = ω (λ − 1) .


Rodney Josué Biezuner 104

Para o caso geral em que λ ∈ C, fazemos cair no caso real escrevendo


2 2 2 2
|λ + ω − 1| = |λ − (1 − ω)| = |λ| − 2 (Re λ) (1 − ω) + (1 − ω)
2 2 2
> |λ| − 2 |λ| (1 − ω) + (1 − ω) = [|λ| − (1 − ω)]
2 2
= [|λ| + ω − 1] > |λ| ω 2 .

O resultado acima continua valendo com desigualdade estrita nas linhas onde a desigualdade é estrita. A
Proposição 3.16 implica então que S é invertı́vel, contradizendo det S = 0. ¥

4.16 Teorema. Seja A uma matriz simétrica positiva definida. Então o método SOR converge se 0 < ω < 2.

Prova. Usaremos o Teorema 4.8. Escrevendo A = D − L − U , temos Lt = U porque A é simétrica e as


entradas diagonais de D positivas porque A é positiva definida. Para o método SOR temos
1 1−ω
B= D−L e C= D + U,
ω ω
logo
1 1−ω 2−ω
Bt + C = D − Lt + D+U = D
ω ω ω
é uma matriz simétrica positiva definida se 0 < ω < 2. ¥
Na verdade, se as entradas diagonais de uma matriz simétrica são positivas, a condição de ser definida
positiva é equivalente à convergência do método SOR para 0 < ω < 2, como o próximo resultado mostra.

4.17 Teorema. Seja A uma matriz simétrica com entradas diagonais positivas. Então o método SOR
converge se e somente se A é positiva definida e 0 < ω < 2.

Prova. Assuma que A é positiva definida e que 0 < ω < 2. Seja


¡ ¢−1 £ ¤
R = I − ωD−1 L (1 − ω) I + ωD−1 U

a matriz de iteração do método SOR. Se λ é um autovalor de R e x um autovetor associado, temos Rx = λx,


donde £ ¤ ¡ ¢
(1 − ω) I + ωD−1 U x = λ I − ωD−1 L x.
Fazendo o produto interno canônico (hermitiano) de Cn de ambos os lados com o vetor x, segue que
­ ® ¡ ­ ®¢
(1 − ω) hx, xi + ω x, D−1 U x = λ hx, xi − ω x, D−1 Lx

Isolando λ, ­ ®
(1 − ω) hx, xi + ω x, D−1 U x
λ= . (4.45)
hx, xi − ω hx, D−1 Lxi
Como A é simétrica, o produto de matrizes simétricas D−1 A = I − D−1 U − D−1 L também é; como
D−1 U, D−1 L são respectivamente a parte estritamente triangular superior e estritamente triangular infe-
rior de uma matriz simétrica, temos
¡ −1 ¢t
D U = D−1 L.
Logo
­ ® D¡ ¢t E ­¡ ¢ ®
x, D−1 U x = D−1 U x, x = D−1 L x, x = hx, (D−1 L) xi,

e definindo ­ ¡ −1 ¢ ®
x, D L x
z= ,
hx, xi
Rodney Josué Biezuner 105

podemos escrever
(1 − ω) + ωz
λ= . (4.46)
1 − ωz
Os argumentos acima assumem que o denominador é não-nulo. E, de fato, temos
í ¡ ¢ ® ­ ¡ −1 ¢ ® ! ­ ¡ ¢ ®
1 1 x, D−1 L x x, D U x 1 x, D−1 L + D−1 U x
Re z = (z + z) = + =
2 2 hx, xi hx, xi 2 hx, xi
­ ¡ ¢ ® Ã ­ ¡ ¢ ® !
1 x, I − D−1 A x 1 x, D−1 A x
= = 1− .
2 hx, xi 2 hx, xi

e como A é positiva definida, D−1 A também é, o que implica


­ ¡ −1 ¢ ®
x, D A x
>0
hx, xi
donde
1
Re z <
.
2
de modo que a parte real do denominador 1 − ωz de λ é não-nula para 0 < ω < 2. Segue que
2 2
2 [(1 − ω) + ωz] [(1 − ω) + ωz] (1 − ω) + 2ω (1 − ω) Re z + ω 2 |z|
|λ| = λλ = = 2
(1 − ωz) (1 − ωz) 1 − 2ω Re z + ω 2 |z|
2
ω 2 − 2ω 2 Re z − 2ω + 4ω Re z + 1 − 2ω Re z + ω 2 |z|
= 2
1 − 2ω Re z + ω 2 |z|
ω (2 − ω) (1 − 2 Re z)
=1− 2 .
1 − 2ω Re z + ω 2 |z|
1
Como 0 < ω < 2 e Re z < , temos
2
ω (2 − ω) (1 − 2 Re z) > 0,
e concluı́mos que
|λ| < 1
para todo autovalor λ de R, logo o método SOR converge. A demonstração da recı́proca (assim como uma
demonstração alternativa, variacional, deste teorema) pode ser vista em [Young]. ¥
Usando o Teorema 4.15, concluı́mos que o método SOR converge para as matrizes de discretização obtidas
através dos esquemas de diferenças finitas do Capı́tulo 2 se 0 < ω 6 1. Isso permite apenas subrelaxamento
do método de Gauss-Seidel, o que em geral reduz a velocidade de convergência. Por outro lado, usando o
Teorema 4.16 ou o Teorema 4.17, concluı́mos que o método SOR converge para as matrizes de discretização
obtidas a partir da fórmula de três pontos unidimensional e a partir da fórmula de cinco pontos bidimensional
se 0 < ω < 2, já que estas são matrizes simétricas, positivas definidas (já as matrizes de discretização obtidas
através de coordenadas polares ou pelo esquema de Shortley-Weller não são simétricas, em geral, como
vimos).
Em seguida fazemos uma análise da velocidade de convergência do método SOR para a matriz de dis-
cretização da fórmula de cinco pontos, bem como obtemos o melhor valor do fator de relaxamento ω para
este caso.
4.18 Lema. Seja A a matriz de discretização obtida a partir da fórmula de três pontos unidimensional ou
a partir da fórmula de cinco pontos bidimensional com ∆x = ∆y. Se λ 6= 0 é um autovalor de RSOR ,
então existe um autovalor λJ de RJ tal que
1−ω−λ
λJ = . (4.47)
λ1/2 ω 2
Rodney Josué Biezuner 106

Reciprocamente, se λJ é um autovalor de RJ e λ ∈ C satisfaz a equação acima, então λ é um autovalor


de RSOR .

Prova. Argumentamos como na demonstração do Teorema 4.12. Para obter o raio espectral da matriz de
iteração RSOR , queremos encontrar os autovalores λ de RSOR :
¡ ¢−1 £ ¤
RSOR u = I − ωD−1 L (1 − ω) I + ωD−1 U u = λu,

ou seja, £ ¤ ¡ ¢
(1 − ω) I + ωD−1 U u = λ I − ωD−1 L u
No caso da matriz de discretização da fórmula de cinco pontos, isso significa encontrar λ tal que
ω ω ³ ω ω ´
(1 − ω) ui,j + ui,j+1 + ui+1,j = λ ui,j − ui,j−1 − ui−1,j
4 4 4 4
ou
1−ω−λ 1
ui,j = (ui,j+1 + ui+1,j + λui,j−1 + λui−1,j ) . (4.48)
ω 4
Fazendo a substituição
i+j
ui,j = λ 2 vi,j
i+j+1
e dividindo por µ 2 , segue que
1−ω−λ
vi−1,j + vi+1,j + vi,j−1 + vi,j+1 = 4vi,j
λ1/2 ω
e daı́ o resultado. ¥ √ ¡p ¢2
Resolvendo a equação (4.47) como uma equação quadrática em λ, vemos que as duas raı́zes λ± = λ±
podem ser escritas na forma
· q ¸2
1
λ± = −ωλJ ± ω 2 λ2J − 4 (ω − 1) . (4.49)
4
Denotaremos
Λω,λJ = max (|λ+ | , |λ− |) (4.50)
e por λJ = ρ (RJ ) o maior autovalor do método de Jacobi.

4.19 Proposição. Seja A a matriz de discretização obtida a partir da fórmula de três pontos unidimensional
ou a partir da fórmula de cinco pontos bidimensional com ∆x = ∆y. Então

ρ (RSOR,ω ) = Λω,λJ (4.51)

Prova. Por definição,


ρ (RSOR,ω ) = max Λω,λJ .
λJ

De (4.49) segue que


¯ q ¯2
1 ¯¯ 2 ¯
Λω,λJ = ¯ωλJ + ω λJ − 4 (ω − 1)¯¯ .
2
4
2
Se 0 < ω 6 1, ω 2 λJ − 4 (ω − 1) > 0 e Λω,λJ é uma função crescente de λJ , logo o máximo é atingido em λJ .
Se ω > 1, defina r
4 (ω − 1)
λc = .
ω2
Rodney Josué Biezuner 107

2 2
Se λJ > λc , ω 2 λJ − 4 (ω − 1) > 0 e segue a conclusão como no caso anterior. Se λJ 6 λc , então ω 2 λJ −
4 (ω − 1) 6 0 e q q
2 2
ω 2 λJ − 4 (ω − 1) = 4 (ω − 1) − ω 2 λJ i,

onde i = −1, logo
¯ q ¯2 ¯¯r h
¯
i ¯2
¯ 2 ¯ ¯ 2 ¯
Λω,λJ = ¯¯ωλJ + ω 2 λJ − 4 (ω − 1)¯¯ = ¯ ω 2 λ2J + 4 (ω − 1) − ω 2 λJ ¯
¯ ¯
= ω − 1,

e novamente Λω,λJ é uma função crescente de λJ . ¥


Defina
2
ωótimo = q . (4.52)
2
1 + 1 − λJ
Note que 1 < ωótimo < 2. Mostraremos que ωótimo é de fato o melhor valor para o fator de relaxamento no
método SOR. Antes precisamos do seguinte resultado:

4.20 Proposição. Seja A a matriz de discretização obtida a partir da fórmula de três pontos unidimensional
ou a partir da fórmula de cinco pontos bidimensional com ∆x = ∆y. Então
 µ q ¶2
 1 2
2
ρ (RSOR,ω ) = ωλJ + ω λJ − 4 (ω − 1) se 0 < ω 6 ωótimo , (4.53)
 4
ω−1 se ωótimo 6 ω < 2.

2
Prova. Temos ω 2 λJ − 4 (ω − 1) > 0 para 0 < ω < 2 se e somente se ω 6 ωótimo . De fato, as raı́zes de
2
f (ω) = ω 2 λJ − 4ω + 4 são q
2 µ q ¶
4 ± 4 1 − λJ 2 2
ω± = 2 = 2 1 ± 1 − λ J
2λJ λJ
de modo que a raiz positiva de f é maior que 2, logo para que f (ω) > 0 se 0 < ω < 2, devemos ter
³ 2
´
µ q ¶ 1 − 1 − λ
2 2 2 J 2
ω 6 2 1 − 1 − λJ = 2 q = q .
λJ λJ 1 + 1 − λ2 1 + 1 − λ
2
J J

O resultado segue então como na demonstração da proposição anterior. ¥

4.21 Teorema. Seja A a matriz de discretização obtida a partir da fórmula de três pontos unidimensional
ou a partir da fórmula de cinco pontos bidimensional com ∆x = ∆y. Então o fator de relaxamento
ótimo para o método SOR é dado por
2
ωótimo = π (4.54)
1 + sen
n
é o fator de relaxamento ótimo para o método SOR.
2
Prova. Se 0 < ω 6 ωótimo , então ω 2 λJ − 4 (ω − 1) > 0 e
q
µ q ¶ 2 2
d 2 λJ ω 2 λJ − 4 (ω − 1) + ωλJ − 2
2
ωλJ + ω λJ − 4 (ω − 1) = q .
dω 2
ω 2 λJ − 4 (ω − 1)
Rodney Josué Biezuner 108

2
Temos ωλJ − 2 < 0, porque 0 < ω < 2 e λJ < 1, e
¯ ¯ q
¯ 2 ¯ 2
¯ωλJ − 2¯ > λJ ω 2 λJ − 4 (ω − 1),

pois
¯ ¯2
¯ 2 ¯ 4 2 4 2 2 4 2
¯ωλJ − 2¯ = ω 2 λJ − 4λJ ω + 4 > ω 2 λJ − 4λJ ω + 4λJ > ω 2 λJ − 4λJ (ω − 1)
· q ¸2
2
= λJ ω 2 λJ − 4 (ω − 1) .

Isso implica µ q ¶
d 2
2
ωλJ + ω λJ − 4 (ω − 1) < 0,

logo ρ (RSOR,ω ) é decrescente de 0 até ωótimo . Para ωótimo 6 ω < 2, ρ (RSOR,ω ) = ω − 1 é claramente
crescente. Portanto, ρ (RSOR,ω ) atinge o seu mı́nimo em ωótimo .
Pelo Teorema 4.10, temos
π
λJ = cos ,
n
logo
2 2 2
ωótimo = q = r = π.
2 π 1 + sen
1 + 1 − λJ 1 + 1 − cos 2
n
n
¥
Para o quadrado unitário temos
2
ωótimo =
1 + sen (π∆x)
e conseqüentemente
2 1 − sen (π∆x)
ρ (RSOR,ω ) = −1= .
1 + sen (π∆x) 1 + sen (π∆x)
e usando
1−x ¡ ¢
= 1 − 2x + O x2 ,
1+x
¡ ¢
sen x = x + O x3 ,
se ∆x é pequeno podemos aproximar
1 − sen (π∆x) ¡ ¢
≈ 1 − 2π∆x + O ∆x2 .
1 + sen (π∆x)
Portanto, usando o valor ótimo de ω no método SOR, temos ρ (R) → 1 linearmente quando ∆x → 0, um
resultado muito melhor que o obtido nos métodos de Jacobi e de Gauss-Seidel. Para uma comparação mais
precisa, usando ¡ ¢
log (1 + x) = x + O ∆x2
temos que ¡ ¢
R∞ (RSOR ) = 2π∆x + O ∆x2 . (4.55)
Segue que
R∞ (RSOR ) 2π∆x 2
≈ 2 2 = .
R∞ (RGauss-Seidel ) π ∆x π∆x
Em particular, se ∆x = 0.025, temos ωótimo = 1. 8545 e R∞ (RSOR ) /R∞ (RGauss-Seidel ) = 25.5, isto é, o
método SOR é 25 vezes mais rápido que o método de Gauss-Seidel. Quanto mais refinada a malha, maior é
a diferença na velocidade de convergência entre os dois métodos.
Rodney Josué Biezuner 109

4.3.4 Convergência do Método de Jacobi Amortecido


4.22 Teorema. Se o método de Jacobi converge, então o método de Jacobi amortecido converge para

0 < ω 6 1.

Prova. Vamos escrever a matriz de iteração RJ,ω do método de Jacobi amortecido em função da matriz de
iteração do método de Jacobi RJ . Temos

RJ = D−1 (D − A)

de modo que
µ ¶−1 µ ¶ µ ¶ µ ¶
1 1 1 1
RJ,ω = D D−A = ωD−1 D−D+D−A = ωD−1 D − D + ωD−1 (D − A)
ω ω ω ω

donde
RJ,ω = (1 − ω) I + ωRJ . (4.56)
Em particular,
RJ v = λv
se e somente se
[RJ,ω − (1 − ω) I] v = ωλv.
Portanto, λJ é um autovalor de RJ se e somente se

λJ,ω = ωλJ + 1 − ω (4.57)

é um autovalor de RJ,ω . Logo, se todo autovalor de RJ satisfaz |λJ | < 1 (isto é, ρ (RJ ) < 1 equivalente ao
método de Jacobi convergir) e ω < 1, então
2 ¡ ¢
|λJ,ω | = (ωλJ + 1 − ω) ωλJ + 1 − ω
2 2
= ω 2 |λJ | + 2 Re λJ ω (1 − ω) + (1 − ω)
2 2
6 ω 2 |λJ | + 2 |λJ | ω (1 − ω) + (1 − ω)
2
= (ω |λJ | + 1 − ω)
< 1.

¥
Segue do Teorema 4.8 que o método de Jacobi amortecido converge para as matrizes de discretização do
Capı́tulo 2 se 0 < ω 6 1.

4.23 Corolário.
ρ (RJ,ω ) = ω [ρ (RJ ) − 1] + 1. (4.58)

Para o quadrado unitário temos


ρ (RJ,ω ) = ω [cos (π∆x) − 1] + 1. (4.59)
Usando
1 ¡ ¢
cos x = 1 − x2 + O x4 ,
2 ¡ ¢
log (1 + x) = x + O ∆x2 ,
Rodney Josué Biezuner 110

se ∆x é pequeno podemos aproximar


π2 ¡ ¢
ρ (RJ,ω ) ≈ 1 − ω ∆x2 + O ∆x4 ,
2
π2
R∞ (RJ,ω ) ≈ ω ∆x2 .
2
Vemos que a velocidade de convergência do método de Jacobi amortecido é da mesma ordem que a do método
de Jacobi, um pouco pior para valores de ω próximos de 1 e muito pior para valores de ω próximos de 0.

4.3.5 Resumo

Método ρ (R) R∞ (R)


π2 ¡ ¢
Jacobi cos (π∆x) ∆x2 + O ∆x4
2
¡ ¢
Gauss-Seidel cos2 (π∆x) π 2 ∆x2 + O ∆x4
¡ ¢ ¡ ¢
SOR ótimo 1 − 2π∆x + O ∆x2 2π∆x + O ∆x2

π2 ¡ ¢ π2 ¡ ¢
Jacobi amortecido 1−ω ∆x2 + O ∆x4 ω ∆x2 + O ∆x4
2 2

4.4 Método do Gradiente Conjugado


Nesta seção, A será sempre uma matriz real simétrica, positiva definida. Neste caso, a resolução do sistema
Ax = b é equivalente à resolução de um problema de minimização de um funcional quadrático:
4.24 Teorema. (Método Variacional para a Resolução de Sistemas Lineares) Seja A ∈ Mn (R) uma matriz
simétrica positiva definida e b ∈ Rn . Então a solução do sistema
Ax = b
é o único ponto x que minimiza o funcional quadrático
1 t
f (y) = y Ay − y t b. (4.60)
2
Prova: Uma matriz simétrica positiva definida é invertı́vel, logo existe uma única solução x para o sistema
Ax = b. Para provar o teorema, começamos observando que, como y t Ax ∈ R é um escalar, temos
¡ ¢t
y t Ax = y t Ax = xt At y = xt Ay.
Daı́,
1 t 1
f (y) − f (x) = y Ay − y t b − xt Ax + xt b
2 2
1 t 1
= y Ay − y Ax − xt Ax + xt Ax
t
2 2
1 t 1
= y Ay − y Ax + xt Ax
t
2 2
1 t 1 t 1 1
= y Ay − y Ax − xt Ay + xt Ax
2 2 2 2
1 t 1
= y A (y − x) − xt A (y − x)
2 2
Rodney Josué Biezuner 111

ou
1 t
f (y) − f (x) = (y − x) A (y − x) . (4.61)
2
Como A é positiva definida, segue que
t
(y − x) A (y − x) = hA (y − x) , (y − x)i > 0

e
t
(y − x) A (y − x) = 0
se e somente se y = x. Portanto,
f (y) > f (x)
para todo y 6= x e o mı́nimo de f ocorre em x. ¥
Em muitos problemas, o funcional f tem significado fı́sico, correspondente a um funcional de energia que
quando é minimizado corresponde a um estado de equilı́brio do sistema. Observe que definindo um produto
interno a partir da matriz simétrica positiva definida A da maneira usual por hv, wiA = v t Aw e considerando
1/2
a norma induzida kvkA = hv, viA , o funcional f pode ser escrito na forma

1
f (y) = hy, Ayi − hy, Axi (4.62)
2
ou
1 2
f (y) =
kykA − hy, xiA . (4.63)
2
Outra maneira de enxergar o resultado do teorema anterior é observar que o gradiente do funcional f é

∇f (y) = Ay − b. (4.64)

Se x é um ponto de mı́nimo temos ∇f (x) = 0, ou seja,

Ax = b.

Este método variacional é a base dos métodos iterativos de descida em geral, e do método do gradiente
conjugado em particular. A idéia é usar as idéias do cálculo diferencial para encontrar o mı́nimo do funcional
quadrático f .

4.4.1 Métodos de Descida


A filosofia dos métodos de descida é começar com um chute inicial x0 e gerar uma seqüência de iterados
x1 , x2 , . . . , xk , . . . que satisfazem ¡ ¢ ¡ ¢
f xk+1 6 f xk
ou, melhor ainda, ¡ ¢ ¡ ¢
f xk+1 < f xk
de tal modo que xk convirja para o minimizador ¡ de
¢ f . Em outras palavras, em um método de descida
buscamos encontrar uma seqüência minimizante xk que convirja para a solução do sistema.
O passo de xk para xk+1 envolve dois ingredientes: (1) uma direção de busca e (2) um avanço de
comprimento especificado na direção de busca. Uma direção de busca significa a escolha de um vetor pk que
indicará a direção que avançaremos de xk para xk+1 . O comprimento do avanço é equivalente à escolha de
um escalar αk multiplicando o vetor pk . Assim,

xk+1 = xk + αk pk .
Rodney Josué Biezuner 112

A escolha de αk é também chamada uma busca na reta, já que queremos escolher um ponto na reta
© k ª
x + αpk : α ∈ R

tal que ¡ ¢ ¡ ¢
f xk + αpk 6 f xk .
Idealmente, gostarı́amos de escolher αk de tal modo que
¡ ¢ ¡ ¢ ¡ ¢
f xk+1 = f xk + αk pk = min f xk + αpk
α∈R

Esta é chamada uma busca na reta exata. Para funcionais quadráticos, a busca na reta exata é trivial e
obtemos uma fórmula para o valor de αk , como veremos a seguir. Denotaremos o resı́duo em cada iteração
por
rk = b − Axk . (4.65)

4.25 Proposição. Seja αk ∈ R tal que


¡ ¢ ¡ ¢
f xk + αk pk = min f xk + αpk .
α∈R

Então ¡ k ¢t k­ k k®
p r p ,r
αk = t = k . (4.66)
k
(p ) Apk hp , Apk i

Prova: Considere o funcional ¡ ¢


g (α) = f xk + αpk .
g é um polinômio quadrático em α, pois
1¡ k ¢t ¡ ¢ ¡ ¢t
g (α) = x + αpk A xk + αpk − xk + αpk b
2
1 ¡ k ¢t ¡ ¢t α ¡ k ¢t k α ¡ k ¢t α2 ¡ k ¢t k ¡ ¢t
= x Axk − xk b + x Ap + p Axk + p Ap − α pk b
2 · 2 2 ¸ 2
¡ k¢ 1 ¡ k ¢t k 1 ¡ k ¢t k
¡ k ¢t α 2 ¡ k ¢t k
=f x +α p Ax + p Ax − p b + p Ap
2 2 2
¡ ¢ ¡ ¢t α 2 ¡ k ¢t k
= f xk − α pk Ark + p Ap ,
2
portanto o mı́nimo de g é atingido no vértice −B/2A da parábola Y = AX 2 + BX + C. ¥
¡ ¢t
Observe que αk = 0 se e somente se pk rk = 0, isto é, a direção de busca é ortogonal ao resı́duo. Como
gostarı́amos sempre que possı́vel de ter xk+1 6= xk , devemos sempre escolher
¡ ¢a direção
¡ ¢de busca de forma a
não ser ortogonal a rk . Se esta escolha é feita, então teremos sempre f xk+1 < f xk .

Exemplo 1. (Método de Gauss-Seidel) Considere o método de descida em que as primeiras n direções de


busca p1 , . . . , pn são os vetores e1 , . . . , en da base canônica de Rn , e isso é repetido a cada n iterações,
de modo que pk+n = ek para todo k = 1, . . . , n, com uma busca na reta exata executada em cada
iteração. Então cada grupo de n iterações corresponde a uma iteração do método de Gauss-Seidel.
Exemplo 2. (Método SOR) Usando as mesmas direções de busca do exemplo anterior, mas com xk+1 =
xk + ωαk pk , ω 6= 1, obtemos um método de descida em que as buscas nas retas são inexatas. Cada
grupo de n iterações corresponde a uma iteração do método SOR.
Rodney Josué Biezuner 113

4.4.2 Método da Descida Mais Acentuada


Do Cálculo Diferencial, sabemos que a direção em que a função cresce a uma taxa mais rápida a partir de
um ponto é a direção do gradiente neste ponto. Esta observação é a base da escolha da direção de busca no
método da descida mais acentuada. Em outras palavras, escolhemos
¡ ¢
pk = −∇f xk = b − Axk

ou
pk = rk . (4.67)
Buscar na direção da descida mais acentuada é uma idéia natural, mas que na prática não funciona sem
modificações. De fato, em alguns casos o método é de velocidade comparável à do método de Jacobi, como
na matriz de discretização da fórmula de cinco pontos aplicada ao problema descrito na primeira seção deste
capı́tulo [Watkins]:

∆x = 0.1 ∆x = 0.05 ∆x = 0.025


Jacobi 299 1090 3908
Descida Mais Acentuada 304 1114 4010

De fato, como as iterações do método de descida mais acentuada são bem mais custosas que as do método
de Jacobi, o primeiro é muito pior que este último.
Para entender melhor o método da descida mais acentuada, porque ele pode ser lento e as modificações que
vamos fazer para torná-lo mais rápido levando ao método do gradiente conjugado, vamos entender o processo
do ponto de vista geométrico. Como vimos na demonstração do Teorema 4.24, o funcional quadrático f é
da forma
1 t
f (y) = (y − x) A (y − x) + c (4.68)
2
onde c = f (x) = 12 xt Ax − xt b é uma constante. Já que A é uma matriz simétrica, existe uma matriz
ortogonal P tal que P t AP é uma matriz diagonal D , cujos valores na diagonal principal são exatamente os
autovalores positivos de A. Nas coordenadas

z = P t (y − x) ,

o funcional f tem a forma


n
1 1X
f (z) = z t Dz + c = λi zi2 + c. (4.69)
2 2 i=1

As curvas de nı́vel do funcional f neste sistema de coordenadas são elipses (em R2 , elipsóides em R3 e
hiperelipsóides em Rn ) centradas na origem com eixos paralelos aos eixos coordenados e f (0) = c é nı́vel
mı́nimo de f ; elipses correspondentes a menores valores de f estão dentro de elipses correspondentes a
maiores valores de f . Como P é uma aplicação ortogonal, as curvas de nı́vel de f no sistema de coordenadas
original também são elipses, centradas em x, e uma reta de um ponto y até o ponto x corta elipses de nı́veis
cada vez menores até chegar ao mı́nimo da função f em x, centro de todas as elipses. O vetor gradiente é
perpendicular às curvas de nı́vel, logo é perpendicular às elipses. Seguir a direção de descida mais acentuada
equivale a cortar a elipse que contém xk ortogonalmente na direção do interior da elipse até encontrar um
ponto xk+1 situado em uma elipse que a reta tangencie, pois a partir daı́ a reta irá na direção de elipses com
nı́veis maiores, portanto este é o ponto da reta onde f atinge o seu mı́nimo. Em particular, vemos que a
próxima direção pk+1 é ortogonal à direção anterior pk , tangente a esta elipse. Em geral, a direção de descida
mais acentuada não é a direção de x (quando bastaria uma iteração para atingir a solução exata) a não ser
que A seja um múltiplo escalar da identidade, de modo que todos os autovalores de A são iguais e as elipses
são cı́rculos. Por outro lado, se os autovalores de A têm valores muito diferentes uns dos outros, com alguns
muito pequenos e alguns muito grandes, as elipses serão bastante excêntricas e, dependendo do chute inicial,
Rodney Josué Biezuner 114

a convergência pode ser muito lenta (matrizes com estas propriedades são chamadas mal-condicionadas; para
que o método de descida acentuada seja lento, a matriz A não precisa ser muito mal-condicionada).
Como vimos na seção anterior, os algoritmos de Gauss-Seidel e SOR podem ser encarados como algoritmos
de descida. A discussão no parágrafo anterior também pode ser usada para entender a relativa lentidão destes
algoritmos.

4.4.3 Método do Gradiente Conjugado


Todos os métodos iterativos que vimos neste capı́tulo são limitados pela sua falta de memória, no sentido de
que apenas informação sobre xk é usada para obter xk+1 . Toda a informação sobre as iterações anteriores é
deletada. O método do gradiente conjugado é uma variação simples do método da descida mais acentuada
que funciona melhor porque a informação obtida através das iterações anteriores é utilizada.
Para entender brevemente como isso funciona, observe que depois de j iterações xk+1 = xk + αk pk de
um método de descida temos
xj = x0 + α0 p0 + α1 p1 + . . . + αj−1 pj−1 ,
© ª
de modo que xj está no subespaço afim gerado pelo chute inicial x0 e pelos vetores p0 , p1 , . . . , pj−1 .
Enquanto o método da descida mais acentuada minimiza o funcional de energia ­ f apenas ao ®longo das j
retas xk + αk pk , cuja união constitui apenas um pequeno subconjunto­de x0 + p0 , p1 ,®. . . , pj−1 , o método
do gradiente conjugado minimiza f sobre todo o subespaço afim x0 + p0 , p1 , . . . , pj−1 .
Para definir as direções de busca do método do gradiente conjugado (que é, antes de mais nada, um
método de descida), lembramos que o funcional f foi escrito na forma
1 2
f (y) = kykA − hy, xiA .
2
Defina o erro
e = x − y. (4.70)
Pela regra do paralelogramo, temos
2 2 2 2
kx + ykA + kx − ykA = 2 kxkA + 2 kykA ,
donde
2 2 2 2 2
2 kykA = kx − ykA + kxkA + 2 hy, xiA + kykA − 2 kxkA
2 2 2
= kx − ykA + 2 hy, xiA − kxkA + kykA ,
ou
2 2 2
kykA − 2 hy, xiA = kx − ykA − kxkA .
Logo, podemos escrever
1 2 1 2
f (y) =
kekA − kxkA . (4.71)
2 2
Conseqüentemente, minimizar o funcional f é equivalente a minimizar a A-norma do erro.
Agora, em um método de descida, depois de j iterações temos:
¡ ¢
ej = x − xj = x − x0 − α0 p0 + α1 p1 + . . . + αj−1 pj−1
¡ ¢
= e0 − α0 p0 + α1 p1 + . . . + αj−1 pj−1 .
° °2
Logo, minimizar °ej °A é equivalente a minimizar
° 0 ¡ ¢°
°e − α0 p0 + α1 p1 + . . . + αj−1 pj−1 ° ,
A
­ ®
o que por sua vez é equivalente a encontrar a melhor aproximação do vetor e0 no subespaço Wj = p0 , p1 , . . . , pj−1 .
Esta é dada pelo lema da melhor aproximação:
Rodney Josué Biezuner 115

4.26 Proposição. Sejam A ∈ Mn (R) uma matriz simétrica positiva definida, v ∈ Rn e W um subsespaço
de Rn . Então existe um único w ∈ W tal que

kv − wkA = min kv − zkA .


z∈W

O vetor w é caracterizado pela condição v − w ⊥A W .


° °
Segue deste resultado que °ej °A é minimizado quando escolhemos p = α0 p0 + α1 p1 + . . . + αj−1 pj−1 ∈ Wj
tal que ej = e0 − p satisfaz
ej ⊥A pi para i = 1, . . . , j − 1. (4.72)

Definição. Dois vetores y, z que são ortogonais com respeito ao produto interno h·, ·iA , isto é, tais que

hy, ziA = 0

são chamados conjugados.

Nosso objetivo então é desenvolver um método em que o erro a cada passo é conjugado com todas as direções
de busca anteriores. O próximo resultado, que é basicamente uma reafirmação da Proposição 4.25, mostra
que em qualquer método de descida em que a busca na reta é exata satisfaz automaticamente ej ⊥A pj−1 ,
isto é, (4.72) é válido para a última iteração (o erro da iteração presente é A-ortogonal à direção de busca
da iteração anterior).

4.27 Proposição. Seja xk+1 = xk + αk pk obtido através de uma busca na reta exata. Então

rk+1 ⊥ pk

e
ek+1 ⊥A pk .

Prova: Temos
b − Axk+1 = b − Axk − αk Apk ,
de modo que a seqüência dos resı́duos é dada pela fórmula

rk+1 = rk − αk Apk . (4.73)

Logo, ­ k k®
­ k+1 k
® ­ ® ­ ® ­ ® p ,r ­ k k®
r ,p = rk+1 , pk − αk Apk , pk = rk , pk − k k
Ap , p = 0.
hp , Ap i
Além disso, como
Aek+1 = rk+1 ,
segue que ­ k+1 k ® ­ ® ­ ®
e , p A = Aek+1 , pk = rk+1 , pk = 0.
¥
O significado geométrico deste resultado é que o mı́nimo do funcional f na reta xk + αk pk ocorre quando a
derivada direcional de f na direção de busca é zero, ou seja,
∂f ¡ k+1 ¢ ­ ¡ ¢ ® ­ ®
0= x = ∇f xk+1 , pk = rk+1 , pk .
∂pk
De acordo com a Proposição 4.27, depois do primeiro passo temos e1 ⊥A p0 . Para manter os erros
subseqüentes conjugados a p0 , como

ek+1 = x − xk+1 = x − xk − αk pk
Rodney Josué Biezuner 116

ou
ek+1 = ek − αk pk , (4.74)
0 1 0
basta escolher as direções de busca subseqüentes conjugadas a p . Se escolhemos p conjugado a p , obtemos
x2 para o qual o erro satisfaz e2 ⊥A p1 ; como p1 ⊥A p0 , segue de (4.74) que e2 ⊥A p0 também. Para manter
os erros subseqüentes conjugados a p0 e p1 , basta escolher as direções de busca subseqüentes conjugadas a
p0 e p1 . Assim, vemos que para obter a condição (4.72) basta escolher as direções de busca de tal forma que

pi ⊥A pj para todos i 6= j.

Um método com estas caracterı́sticas é chamado um método de direções conjugadas. Estes resultados
são resumidos na proposição a seguir:

4.28 Teorema. Se um método emprega direções de busca conjugadas e performa buscas na reta exatas,
então
ej ⊥A pi para i = 1, . . . , j − 1,
para todo j. Conseqüentemente ° j° ° °
°e ° = min °e0 − p° ,
A p∈Wj A
­ ®
onde Wj = p0 , p1 , . . . , pj−1 .

Prova: A demonstração é por indução. Para j = 1, temos e1 ⊥A p0 pela Proposição 4.27 porque a busca
na reta é exata. Em seguida, assuma ej ⊥A pi para i = 1, . . . , j − 1; queremos mostrar que ej+1 ⊥A pi
para i = 1, . . . , j. Como
ej+1 = ej − αj pj ,
para i = 1, . . . , j − 1 temos
­ j+1 i ® ­ ® ­ ® ­ ®
e , p A = ej − αj pj , pi A = ej , pi A − αj pj , pi A = 0 − 0 = 0

porque as direções de busca são conjugadas. ej+1 ⊥A pj segue novamente da Proposição 4.27. ¥
Quando a direção inicial é dada pelo vetor gradiente de f , como na primeira iteração do método da descida
mais acentuada, obtemos o método do gradiente conjugado. As direções subseqüentes são escolhidas
através de A-ortogonalizar o resı́duo (ou vetor gradiente de f , que é a direção de busca em cada iteração
do método da descida mais acentuada) com todas as direções de busca anteriores, para isso utilizando o
algoritmo de Gram-Schmidt. Assim, dado um chute inicial p0 , a primeira direção é
¡ ¢
p0 = −∇f x0 = b − Ax0 = r0

ou seja, a direção inicial é o primeiro resı́duo:

p0 = r0 . (4.75)

Depois de k passos com direções de busca conjugadas p0 , . . . , pk , escolhemos


k
X
pk+1 = rk+1 − cki pi (4.76)
i=0

onde os cki são dados pelo algoritmo de Gram-Schmidt:


­ k+1 i ®
r ,p A
cki = . (4.77)
hp , pi iA
i

de forma que pk+1 ⊥A pi para todos i = 1, . . . , k. Felizmente, como veremos a seguir depois de algum trabalho
preliminar (Corolário 4.32), cki = 0 para todo i exceto i = k, o que torna necessário que apenas a direção
Rodney Josué Biezuner 117

de busca mais recente pk seja armazenada na memória do computador, o que garante que a implementação
do gradiente conjugado é eficiente:
­ k+1 k ® ­ k+1 ®
k+1 k+1
r ,p A k k+1 r , Apk k
p =r − p =r − p . (4.78)
hpk , pk iA hpk , Apk i

Esta é a modificação do método do gradiente conjugado em relação ao método da descida mais acentuada,
em que pk+1 = rk+1 .

Definição.
­ Dada uma ®matriz A ∈ Mn (C) e um vetor v ∈ Cn , o espaço de Krylov Kj (A, v) é o subespaço
v, Av, . . . , Aj−1 v .
4.29 Teorema. Depois de j iterações do algoritmo do gradiente conjugado (com rk 6= 0 em cada iteração),
temos ­ 0 1 ® ­ ® ¡ ¢
p , p , . . . , pj−1 = r0 , r1 , . . . , rj−1 = Kj A, r0 .

Prova: A demonstração é por indução. O resultado é trivial para j = 0, pois p0 = r0 . Assuma o resultado
válido para j − 1. Em primeiro lugar, mostraremos que
­ 0 1 ® ¡ ¢
r , r , . . . , rj ⊂ Kj+1 A, r0 . (4.79)
¡ ¢
Em vista da ¡ hipótese
¢ de indução,
¡ ¢ basta mostrar que rj ∈ Kj+1 A, r0 . Como rj = rj−1 −¡αj−1 Ap ¢
j−1
e
j−1 0 0 j−1 0
r ∈ Kj A, r ⊂ Kj+1 A, r por hipótese¡ de indução, ¢ basta provar que Ap ∈ K j+1 A, r . Mas,
também por hipótese de indução, pj−1 ∈ Kj+1 A, r0 , logo
¡ ¢ ­ ® ­ ® ¡ ¢
Apj−1 ∈ Kj A, Ar0 = Ar0 , A2 r0 , . . . , Aj r0 ⊂ r0 , Ar0 , A2 r0 , . . . , Aj r0 = Kj+1 A, r0 .

Em seguida, mostraremos que


­ 0 1 ® ­ ®
p , p , . . . , pj ⊂ r0 , r1 , . . . , rj . (4.80)
­ ®
Por hipótese de indução, basta provar que pj ∈ r0 , r1 , . . . , rj . Isso segue de (4.76) e da hipótese de indução.
Até aqui provamos que
­ 0 1 ® ­ ® ¡ ¢
p , p , . . . , pj ⊂ r0 , r1 , . . . , rj ⊂ Kj+1 A, r0 . (4.81)

Para provar que eles são iguais, basta mostrar que eles têm a mesma dimensão. Isso decorre de
­ ®
dim r0 , r1 , . . . , rj 6 j + 1,
¡ ¢
dim Kj+1 A, r0 6 j + 1

e ­ ®
dim p0 , p1 , . . . , pj = j + 1,
o último porque os vetores p0 , p1 , . . . , pj são vetores não-nulos A-ortogonais. ¥

4.30 Corolário. Depois de j iterações do algoritmo do gradiente conjugado, temos


¡ ¢
ej ⊥A Kj A, r0

para todo j.

Prova: Segue imediatamente do teorema anterior e do Teorema 4.28. ¥


Rodney Josué Biezuner 118

4.31 Corolário. Depois de j iterações do algoritmo do gradiente conjugado, temos


¡ ¢
rj ⊥ Kj A, r0
para todo j.
Prova: Em vista do Teorema 4.29, basta provar que rj ⊥ p0 , p1 , . . . , pj−1 para todo j. Como Aej+1 = rj+1 ,
­ j+1 i ® ­ j+1 i ® ­ j+1 i ®
r , p = Ae , p = e , p A = 0
para todo i = 1, . . . , j − 1, como vimos na demonstração do Teorema 4.28. ¥
4.32 Corolário. cki = 0 para todo i = 1, . . . , k − 1.
Prova: Temos que provar que ­ k+1 i ® ­ ®
r , p A = rk+1 , Api = 0
­ ® ­ ® ¡ ¢
para todos i = 1, . . . , k − 1. Pelo Teorema 4.29, pi ∈ p0 , p1 , . . . , pi = r0 , Ar0 , . . . , Ai r = Ki+1 A, r0 ,
logo ­ ® ¡ ¢ ¡ ¢
Api ∈ Ar0 , A2 r0 , . . . , Ai+1 r ⊂ Ki+2 A, r0 ⊂ Kk+1 A, r0
e o resultado segue do corolário anterior. ¥
4.33 Teorema. Seja A uma matriz simétrica positiva definida n×n. Então o método do gradiente conjugado
converge em n iterações.
Prova: Se fizemos n − 1 iterações em obter x, pelo Corolário 4.32 os vetores r0 , r1 , . . . , rn−1 formam uma
base ortogonal
­ para Rn . Depois ® den mais uma iteração, de acordo com este mesmo corolário o resı́duo rn
n 0 1 n−1 n
satisfaz r ⊥ r , r , . . . , r = R , logo r = 0. ¥
De fato, na maioria das aplicações o método do gradiente conjugado converge ainda mais rápido, se apenas
uma boa aproximação é requerida. Defina o número de condição de uma matriz simétrica positiva definida
por
max {λ : λ é um autovalor de A}
κ (A) = ; (4.82)
min {λ : λ é um autovalor de A}
assim, quanto maior o número de condição de uma matriz, ela é mais mal-condicionada e a convergência
de métodos de descida é mais vagarosa. Pode-se provar a seguinte estimativa de erro para o método do
gradiente conjugado (veja [Strikwerda]):
Ãp !k
° k° ° ° κ (A) − 1
°e ° 6 2 °e0 ° p . (4.83)
A A
κ (A) + 1

Esta estimativa é uma estimativa grosseira, mas mostra que o método do gradiente conjugado converge
mais rapidamente para matrizes bem-condicionadas (κ (A) ∼ 1). Uma comparação entre a velocidade de
convergência dos dois métodos para a matriz de discretização da fórmula de cinco pontos aplicada ao problema
descrito na primeira seção deste capı́tulo, desta vez com o tamanho das matrizes indicado na linha superior
da tabela, é dada a seguir [Watkins].

n = 81 n = 361 n = 1521
Descida Mais Acentuada 304 1114 4010
Gradiente Conjugado 29 60 118
No caso desta matriz de discretização no quadrado unitário temos
(n − 1) π
sen2 π π∆x 4
κ (A) = 2n = cot2 = cot2 ≈ 2 2
π 2n 2 π ∆x
sen2
2n
Rodney Josué Biezuner 119

de modo que p
κ (A) − 1 1 − π∆x/2
p ≈ ≈ 1 − π∆x,
κ (A) + 1 1 + π∆x/2
o que dá uma velocidade de convergência para o método do gradiente conjugado duas vezes maior que a
do método SOR com o fator de relaxamento ótimo. No entanto, deve-se ter em mente que enquanto que a
taxa de covergência que obtivemos para o método SOR é precisa, a estimativa de erro (4.83) para o método
do gradiente conjugado é apenas um limitante superior grosseiro (veja [Watkins] para algumas estimativas
melhoradas).
Capı́tulo 5

Métodos Multigrid

5.1 Suavização de Erros


5.2 Operador Restrição e Operador Extensão
5.3 Ciclos V
5.4 Multigrid Completo
5.5 Convergência
5.6 Multigrid Adaptativo
5.7 Multigrid Algébrico

120
Capı́tulo 6

Método de Elementos Finitos

O método de elementos finitos é um outro método de discretização de equações diferenciais parciais baseado
na reformulação variacional da equação. Por exemplo, como já vimos exemplos, encontrar a solução u de
uma equação diferencial parcial dada é equivalente a resolver um problema de minimização

F (u) = min F (v)


v∈V

onde V é um conjunto de funções admissı́veis e F : V −→ R é um funcional. Em geral, a dimensão de V é


infinita e portanto as funções em V não podem ser descritas por um número finito de parâmetros. Discretizar
este problema através de elementos finitos é substituir o espaço de dimensão infinita V por um subespaço de
dimensão finita Vh consistindo de funções simples (por exemplo, funções polinomiais). O problema discreto
passa a ser encontrar o minimizador do funcional F sobre o subespaço Vh . Espera-se que este seja uma
aproximação do minimizador de F sobre o espaço completo V , isto é, uma aproximação para a solução da
equação diferencial parcial.

6.1 O Caso Unidimensional


Nesta seção, desenvolveremos métodos de elementos finitos para resolver o problema de Dirichlet para a
equação de Poisson em uma dimensão
½
−u00 = f (x) em [0, 1] ,
(6.1)
u (0) = u (1) = 0,

onde f é uma função contı́nua.

6.1.1 Formulação Variacional


Para obter uma formulação variacional deste problema, defina
© ª
V = v ∈ C 0 ([0, 1]) : v 0 é contı́nua por partes em [0, 1] e v (0) = v (1) = 0 (6.2)

e Z Z
1 1
1 2 1 0
F (v) = |v 0 (x)| dx − f (x) v (x) dx = kv kL2 − hf, viL2 . (6.3)
2 0 0 2
Veremos agora que uma solução para o problema de Dirichlet (6.1), que sabemos existir por integração
simples, é solução tanto de um problema de minimização como de um problema variacional.

121
Rodney Josué Biezuner 122

6.1 Proposição. (Problema Variacional) Se u ∈ V é uma solução do problema (6.1), então u é a solução
única do problema variacional
hu0 , v 0 iL2 = hf, viL2 para todo v ∈ V. (6.4)

Prova. Multiplicando a equação


−u00 (x) = f (x)
por uma função teste v ∈ V e integrando sobre o intervalo (0, 1), obtemos
Z 1 Z 1
00
− u (x) v (x) dx = f (x) v (x) dx.
0 0

Integrando por partes, temos


Z 1 Z 1 Z 1
1
u00 (x) v (x) dx = u (x) v (x)|0 − u0 (x) v 0 (x) dx = − u0 (x) v 0 (x) dx.
0 0 0

Portanto, Z Z
1 1
u0 (x) v 0 (x) dx = f (x) v (x) dx.
0 0
A unicidade de solução para o problema variacional (6.4) é facilmente determinada. Se u1 , u2 satisfazem
hu01 , v 0 iL2 = hf, viL2 ,
hu02 , v 0 iL2 = hf, viL2 ,
para todo v ∈ V , então
hu01 − u02 , v 0 iL2 = 0
para todo v ∈ V , em particular para v = u1 − u2 , donde
ku01 − u02 kL2 = 0.
Isso implica u1 − u2 = c para alguma constante c, e as condições de fronteira implicam que c = 0. ¥
6.2 Proposição. (Problema de Minimização) u ∈ V é uma solução do problema variacional (6.4), se e
somente se u satisfaz
F (u) = min F (v) . (6.5)
v∈V

Prova. Suponha que u satisfaz (6.4). Dado v ∈ V , escreva w = u − v. Temos


1 0 1 1
F (v) = F (u + w) = ku + w0 kL2 − hf, u + wiL2 = ku0 kL2 + hu0 , w0 i + kw0 kL2 − hf, uiL2 − hf, wiL2
2 2 2
1 0 0 0 1 0
= ku kL2 − hf, uiL2 + hu , w i − hf, wiL2 + kw kL2
2 2
1 0
= F (u) + kw kL2 > F (u) .
2
Reciprocamente, suponha que u é um minimizador para o funcional F em V . Considere a função quadrática
g : R −→ R definida por
g (t) = F (u + tv) .
Temos
1 0 t2
g (t) = ku kL2 + t hu0 , v 0 i + kv 0 kL2 − hf, uiL2 − t hf, viL2
2 2
t2 0 0 0
= kv kL2 + t [ hu , v i − hf, viL2 ] + F (u) .
2
Rodney Josué Biezuner 123

Como u é um ponto de mı́nimo para F , 0 é um ponto de mı́nimo para g, logo g 0 (0) = hu0 , v 0 i − hf, viL2 = 0.
¥
O problema variacional é chamado método de Galerkin, enquanto que o problema de minimização é
chamado método de Ritz. Coletivamente, eles são chamados simplesmente de método de Ritz-Galerkin.

6.1.2 Elementos Finitos Lineares por Partes


Vamos agora construir um subespaço Vh de dimensão finita de V consistindo das funções lineares por partes
em [0, 1]. Seja
0 = x0 < x1 < x2 < . . . < xn < xn+1 = 1
uma partição do intervalo [0, 1] em n+1 subintervalos Ij = [xj−1 , xj ] de comprimento hj = xj −xj−1 . Defina

Vh = {v ∈ V : v é linear em Ij para j = 0, . . . , n} . (6.6)

Observe que para descrever uma função v ∈ Vh é suficiente conhecer os n valores v (x1 ) , . . . , v (xn ). Intro-
duzimos uma base B = {ϕ1 , . . . , ϕn } ⊂ Vh para Vh declarando
½
1 se i = j,
ϕj (xi ) = (6.7)
0 se i 6= j,

(note que como estas funções são não-negativas, esta base é evidentemente não-ortogonal). Assim as funções
v de V têm a representação
v = v (x1 ) ϕ1 + . . . + v (xn ) ϕn . (6.8)
As funções ϕ1 , . . . , ϕn são chamadas funções base. Note que dim Vh = n. Observe que estas funções têm
suporte compacto, e que o suporte está contido em dois subintervalos adjacentes.
Se uh ∈ Vh satisfaz o problema variacional

hu0h , v 0 iL2 = hf, viL2 para todo v ∈ Vh , (6.9)

então em particular ­ 0 0®
uh , ϕj L2 = hf, ϕj iL2 para todo j = 1, . . . , n. (6.10)
Escrevendo
uh = uh (x1 ) ϕ1 + . . . + uh (xn ) ϕn
ou
uh = u1 ϕ1 + . . . + un ϕn , (6.11)
onde denotamos ui = uh (xi ), obtemos um sistema linear nas incógnitas u1 , . . . , un :
n
X ­ 0 0®
ϕi , ϕj L2 ui = hf, ϕj iL2 para j = 1, . . . , n. (6.12)
i=1

A matriz do sistema  
hϕ01 , ϕ01 iL2 . . . hϕ01 , ϕ0n iL2
 .. .. 
A= . .  (6.13)
0 0 0 0
hϕn , ϕ1 iL2 . . . hϕn , ϕn iL2
­ 0 0® ­ ®
é uma matriz simétrica porque ϕi , ϕj L2 = ϕ0j , ϕ0i L2 . Ela é chamada a matriz de rigidez e o vetor
 
hf, ϕ1 iL2
 .. 
b= . 
hf, ϕn iL2
Rodney Josué Biezuner 124

é chamado o vetor de carga, terminologia emprestada das primeiras aplicações do método de elementos
finitos em mecânica de estruturas; o método foi inventado por engenheiros para tratar de tais problemas na
década de 1950. As entradas da matriz de rigidez podem ser facilmente calculados. Primeiro observe que
­ 0 0®
ϕi , ϕj L2 = 0 se |i − j| > 1,

porque, neste caso, onde ϕ0i não se anula, ϕ0j se anula, e vice-versa. Em particular, segue que a matriz A
é uma matriz esparsa tridiagonal. A escolha especial de Vh e das funções base garantiu a esparsidade da
matriz de rigidez. Os elementos da diagonal principal da matriz de rigidez são dados por
Z xi+1 Z xi Z xi+1
2 1 1 1 1
hϕ0i , ϕ0i iL2 = ϕ0i (x) dx = 2 dx + dx = + ,
xi−1 xi−1 hi xi h2i+1 hi hi+1

enquanto que os elementos das diagonais secundárias são dados por


Z xi+1 Z xi+1 µ ¶
­ 0 0 ® 1 1 1
ϕi , ϕi+1 L2 = ϕ0i (x) ϕ0i+1 (x) dx = − dx = − .
xi xi hi+1 hi+1 hi+1

Resumindo, 
 1 1

 + se i = j,
­ 0 0®  hi hi+1
ϕi , ϕj L2 = 1 (6.14)

 − se |i − j| = 1,
 hi+1

0 se |i − j| > 1.
P
n
A matriz de rigidez também é positiva definida, Se ξ = (ξ1 , . . . , ξn ) ∈ Rn é um vetor não-nulo e v = ξi ϕ i ,
i=1
temos * n +
n
X n
X X n
X
­ 0 0®
hAξ, ξi = aij ξi ξj = ϕi , ϕj L2 ξi ξj = ξi ϕ0i , ξj ϕ0j = hv 0 , v 0 iL2 > 0.
i,j=1 i,j=1 i=1 j=1 L2
No caso especial em que
1
hi = xi − xi−1 = =: h,
n+1
a matriz de rigidez é exatamente a matriz de discretização de diferenças finitas centradas:
 
2 −1
 −1 2 −1 
 
 .. .. 
1  −1 . . 
.
2
h   . . 
.. . . −1 
 
 −1 2 −1 
−1 2

6.2 O Caso Bidimensional


Nesta seção, desenvolveremos métodos de elementos finitos para resolver o problema de Dirichlet para a
equação de Poisson em um domı́nio Ω ⊂ R2 :
½
−∆u = f em Ω,
(6.15)
u=0 sobre ∂Ω,

onde f é uma função contı́nua.


Rodney Josué Biezuner 125

6.2.1 Formulação Variacional


Para obter uma formulação variacional deste problema, defina

V = W01,2 (Ω) (6.16)

e Z Z
1 2 1
F (v) = |∇v (x)| dx − f (x) v (x) dx = k∇vkL2 (Ω) − hf, viL2 (Ω) . (6.17)
2 Ω Ω 2
Como vimos no Capı́tulo 1, os problemas variacional e de minimização são equivalentes e a solução de ambos
é a solução do problema (6.15):

6.3 Proposição. u ∈ V é uma solução do problema (6.15), se e somente se u é a solução única do problema
variacional
h∇u, ∇viL2 (Ω) = hf, viL2 (Ω) para todo v ∈ V, (6.18)
ou, equivalentemente, se e somente se u satisfaz

F (u) = min F (v) . (6.19)


v∈V

6.2.2 Triangulações e Elementos Finitos Lineares por Partes


Vamos agora construir um subespaço Vh de dimensão finita de V consistindo das funções lineares por partes
em Ω. Por simplicidade, assumiremos que Ω é um domı́nio poligonal, significando que ∂Ω é uma curva polig-
onal (no caso geral, é necessário antes aproximar ∂Ω por uma curva poligonal). Fazemos uma triangulação
de Ω subdividindo Ω em um conjunto de triângulos que não se sobrepõem, podendo se interceptar apenas
ao longo de uma aresta em comum ou em um vértice em comum:
N
[
Ω= Ti . (6.20)
i=1

Esta triangulação de Ω é também chamada uma malha triangular e os vértices da triangulação são freqüen-
temente chamados nodos. Definimos o parâmetro da malha

h = max (diam Ti ) . (6.21)


i=1,...,N

Observe que o diâmetro de um triângulo é o comprimento de seu maior lado. Definimos o subespaço Vh de
dimensão finita de V por

Vh = {v ∈ V : v é contı́nua em Ω e linear em Ti para i = 1, . . . , N } . (6.22)

Para descrever uma função v ∈ Vh , é suficiente conhecer os n valores de v nos n nodos internos da triangulação
de Ω: x1 , . . . , xn (nos nodos da fronteira, v é nula). Introduzimos uma base B = {ϕ1 , . . . , ϕn } ⊂ Vh para Vh
declarando ½
1 se i = j,
ϕj (xi ) = (6.23)
0 se i 6= j.
As funções v de V têm a seguinte representação em termos das funções base ϕ1 , . . . , ϕn :

v = v (x1 ) ϕ1 + . . . + v (xn ) ϕn (6.24)

e dim Vh = n. Note que o suporte de ϕj consiste dos triângulos que têm xn como um nodo comum. Tais
funções bases podem ser definidas da seguinte forma. Se Tk é um triângulo da triangulação de Ω que tem xi
Rodney Josué Biezuner 126
¡ ¢ ¡ ¢ ¡ ¢
como vértice, sejam xi = x0 , y 0 , a1k = x1 , y 1 e a2k = x2 , y 2 os três vértices de Tk ; definimos ϕi em Tk
por ¡ ¢¡ ¢ ¡ ¢¡ ¢
x − x1 y 2 − y 1 − y − y 1 x2 − x1
ϕi (x, y) = 0 .
(x − x1 ) (y 2 − y 1 ) − (y 0 − y 1 ) (x2 − x1 )
¡ ¢ ¡ ¢ ¡ ¢
Observe que ϕi x0 , y 0 = 1 e ϕi x1 , y 1 = ϕi x2 , y 2 = 0. Se Tk é um triângulo da triangulação de Ω que
não tem xi como vértice, então definimos ϕj ≡ 0 em Tk .
Se uh ∈ Vh satisfaz o problema variacional

h∇uh , ∇viL2 (Ω) = hf, viL2 (Ω) para todo v ∈ Vh , (6.25)

então em particular
h∇uh , ∇ϕj iL2 (Ω) = hf, ϕj iL2 (Ω) para todo j = 1, . . . , n. (6.26)
Escrevendo
uh = uh (x1 ) ϕ1 + . . . + uh (xn ) ϕn
ou
uh = u1 ϕ1 + . . . + un ϕn , (6.27)
onde denotamos ui = uh (xi ), obtemos um sistema linear nas incógnitas u1 , . . . , un :
n
X
h∇ϕi , ∇ϕj iL2 (Ω) ui = hf, ϕj iL2 (Ω) para j = 1, . . . , n. (6.28)
i=1

A matriz de rigidez (isto é, a matriz do sistema)


 
h∇ϕ1 , ∇ϕ1 iL2 (Ω) ... h∇ϕ1 , ∇ϕn iL2 (Ω)
 .. .. 
A= . .  (6.29)
h∇ϕn , ∇ϕ1 iL2 (Ω) ... h∇ϕn , ∇ϕn iL2 (Ω)

é uma matriz simétrica, positiva definida, pelos mesmos motivos que a matriz de rigidez no caso unidimen-
sional é. Ela é esparsa porque o suporte da função base ϕj é constituı́do pelos triângulos que têm o vértice xj
em comum. De fato, h∇ϕi , ∇ϕj iL2 (Ω) = 0 se xi e xj não são diretamente ligados pelo lado de um triângulo.
Para calcular o valor das entradas não-nulas, é útil usar a seguinte fórmula de mudança de ¡ coordenadas:
¢ ¡ ¢se
T é o triângulo de vértices (0, 0), (0, 1) e (1, 0) e Te é um triângulo qualquer com vértices x0 , y 0 , x1 , y 1 e
¡ 2 2¢
x , y , então a aplicação φ : T −→ Te definida por
¡ ¢ ¡ ¢ ¡ ¢
φ (ξ, η) = x0 , y 0 + ξ x1 − x0 , y 1 − y 0 + η x2 − x0 , y 2 − y 0

é um difeomorfismo com
¯¡ ¢¡ ¢ ¡ ¢¡ ¢¯
det dφ (ξ, η) = ¯ x1 − x0 y 1 − y 0 − x2 − x0 y 2 − y 0 ¯ ,

de modo que se F : Te −→ R é uma função contı́nua, então


Z Z
¯¡ ¢¡ ¢ ¡ ¢¡ ¢¯
F (x, y) dxdy = ¯ x1 − x0 y 1 − y 0 − x2 − x0 y 2 − y 0 ¯ F (φ (ξ, η)) dxdy.
Te T
Rodney Josué Biezuner 127

6.2.3 Interpretação Geométrica do Método de Elementos Finitos


6.4 Lema. (Melhor Aproximação) Se u ∈ V é a solução exata do problema de Dirichlet (6.15) e uh é a
solução aproximada dada pelo método de elementos finitos, então

ku − uh kW 1,2 (Ω) 6 ku − vkW 1,2 (Ω) (6.30)


0 0

para todo v ∈ Vh , ou seja, uh é a melhor aproximação para u em Vh na norma W01,2 (Ω) .

Prova. Como
h∇u, ∇viL2 (Ω) = hf, viL2 (Ω) para todo v ∈ V
e
h∇uh , ∇viL2 (Ω) = hf, viL2 (Ω) para todo v ∈ Vh ,
segue que
h∇u − ∇uh , ∇viL2 (Ω) = 0 para todo v ∈ Vh . (6.31)
Pela desigualdade de Cauchy, para todo v ∈ Vh vale então
2
k∇u − ∇uh kL2 (Ω) = h∇u − ∇uh , ∇u − ∇uh iL2 (Ω) + h∇u − ∇uh , ∇uh − ∇viL2 (Ω)
= h∇u − ∇uh , ∇u − ∇viL2 (Ω)
6 k∇u − ∇uh kL2 (Ω) k∇u − ∇vkL2 (Ω) ,

donde
k∇u − ∇uh kL2 (Ω) 6 k∇u − ∇vkL2 (Ω)
para todo v ∈ Vh . Lembrando que a norma L2 do gradiente é uma norma em W01,2 (Ω), pela desigualdade
de Poincaré, segue o resultado. ¥

6.3 Formulação Abstrata do Método dos Elementos Finitos


Denotaremos por V um espaço de Hilbert com produto escalar h·, ·iV e correspondente norma induzida k·kV .

Definição. Uma forma bilinear a : V × V −→ R é limitada (ou contı́nua) se existe uma constante Λ > 0
tal que
|a (u, v)| 6 Λ kukV kvkV para todos u, v ∈ V. (6.32)
a é coerciva se existe um número α > 0 tal que
2
|a (v, v)| > α kvkV para todo v ∈ V. (6.33)

6.5 Lema. (Teorema de Lax-Milgram) Sejam V um espaço de Hilbert e a : V × V −→ R uma forma


bilinear limitada e coerciva em V . Então para todo funcional linear limitado f : V −→ R existe um
único u ∈ V tal que
a (u, v) = f (v) para todo v ∈ V.

Se a forma bilinear a que satisfaz as hipóteses do Teorema de Lax-Milgram for simétrica, isto é,

a (u, v) = a (v, u) para todos u, v ∈ V, (6.34)

então ela define um produto interno em V , e a conclusão segue diretamente do Teorema de Representação
de Riesz. Seja a uma forma bilinear limitada coerciva e f um funcional linear limitado em V . Consideremos
o funcional F : V −→ R definido por
1
F (v) = a (v, v) − f (v) . (6.35)
2
Rodney Josué Biezuner 128

No caso da equação de Poisson com condição de Dirichlet homogênea, temos V = W01,2 (Ω) e
Z
a (u, v) = ∇u · ∇v,
ZΩ
f (v) = f v,

de modo que a é simétrica.

6.6 Lema. Sejam V um espaço de Hilbert, a : V × V −→ R uma forma bilinear simétrica, limitada e
coerciva em V com
2
|a (v, v)| > α kvkV para todo v ∈ V
e f : V −→ R um funcional linear limitado em V com

|f (v)| 6 C kvkV para todo v ∈ V.

Então existe uma única solução u ∈ V para o problema variacional

a (u, v) = f (v) para todo v ∈ V. (6.36)

se e somente se existe uma única solução u ∈ V para o problema de minimização

F (u) = min F (v) .


v∈V

Além disso, existe de fato uma única solução u ∈ V para estes problemas e ela satisfaz a seguinte
condição de estabilidade:
C
kukV 6 .
α
Prova. A existência de solução para o problema variacional segue do teorema de Lax-Milgram. Suponha
que u satisfaz o problema variacional. Dado v ∈ V , escreva w = u − v. Temos
1
F (v) = F (u + w) = a (u + w, u + w) − f (u + w)
2
1 1
= a (u, u) + a (u, w) + a (w, w) − f (u) − f (w)
2 2
1 1
= a (u, u) + f (w) + a (w, w) − f (u) − f (w)
2 2
1 α 2
= F (u) + a (w, w) > F (u) + kwkV
2 2
> F (u) .

Reciprocamente, suponha que u é um minimizador para o funcional F em V . Considere a função quadrática


g : R −→ R definida por
1
g (t) = F (u + tv) = a (u + tv, u + tv) − f (u + tv)
2
1 t2
= a (u, u) + ta (u, v) + a (v, v) − f (u) − tf (v)
2 2
t2
= a (v, v) + t [ a (u, v) − f (v)] + F (u) .
2
Como u é um ponto de mı́nimo para F , 0 é um ponto de mı́nimo para g, logo g 0 (0) = a (u, v) − f (v) = 0
para todo v ∈ V .
Rodney Josué Biezuner 129

Para provar a estimativa de estabilidade, escreva


2
α kukV 6 a (u, u) = f (u) 6 C kukV .

¥
Observe que pelo Teorema de Lax-Milgram a solução para o problema variacional existe mesmo se a forma
bilinear não é simétrica. No entanto, neste caso não existe um problema de minimização associado.
Seja Vh um subespaço de V de dimensão finita. Seja B = {ϕ1 , . . . , ϕn } uma base para Vh e

v = v1 ϕ1 + . . . + vn ϕn

a representação de v nesta base. Se uh ∈ Vh satisfaz o problema variacional

a (uh , v) = f (v) para todo v ∈ Vh , (6.37)

então em particular
a (uh , ϕj ) = f (ϕj ) para todo j = 1, . . . , n. (6.38)
Escrevendo
uh = u1 ϕ1 + . . . + un ϕn , (6.39)
obtemos um sistema linear nas incógnitas u1 , . . . , un :
n
X
a (ϕi , ϕj ) ui = f (ϕj ) para j = 1, . . . , n. (6.40)
i=1

A matriz do sistema  
a (ϕ1 , ϕ1 ) . . . a (ϕ1 , ϕn )
 .. .. 
A= . . 
a (ϕn , ϕ1 ) . . . a (ϕn , ϕn )
é chamada matriz de rigidez.

6.7 Proposição. Se a : V × V −→ R é uma forma bilinear simétrica, limitada e coerciva em V , então a


matriz de rigidez é simétrica e positiva definida.
Em particular, existe uma única solução para o problema discretizado (6.37). Além disso, vale a mesma
estimativa de estabilidade do lema anterior.
P
n
Prova. Seja A = (aij ). Se ξ = (ξ1 , . . . , ξn ) ∈ Rn é um vetor não-nulo e v = ξi ϕi , temos
i=1
 
n
X n
X Xn n
X 2
hAξ, ξi = aij ξi ξj = a (ϕi , ϕj ) ξi ξj = a  ξi ϕ i , ξj ϕj  = a (v, v) > α kvkV > 0.
i,j=1 i,j=1 i=1 j=1

¥
Vamos agora provar a seguinte estimativa de erro:

6.8 Proposição. (Estimativa de Erro) Se u ∈ V é a solução exata para o problema variacional (6.36) e uh
é a solução do problema discretizado (6.37), então

Λ
ku − uh kV 6 ku − vkV (6.41)
α
para todo v ∈ Vh .
Rodney Josué Biezuner 130

Prova. Como
a (u, v) = f (v) para todo v ∈ V
e
a (uh , v) = f (v) para todo v ∈ Vh ,
segue que
a (u − uh , v) = 0 para todo v ∈ Vh . (6.42)
Para todo v ∈ Vh vale então
2
α ku − uh kV 6 a (u − uh , u − uh ) + a (u − uh , uh − v)
= a (u − uh , u − v)
6 Λ ku − uh kV ku − vkV ,

donde
2 Λ
ku − uh kV 6 k∇u − ∇vkL2 (Ω)
α
para todo v ∈ Vh . ¥
Introduzimos uma norma equivalente em V , induzida pela forma bilinear simétrica a, definindo
1/2
kvka = a (v, v) . (6.43)

De fato, √ √
α kvkV 6 kvka 6 Λ kvkV .
Esta norma é chamada norma da energia.

6.9 Proposição. (Melhor Aproximação) Se u ∈ V é a solução exata para o problema variacional (6.36) e
uh é a solução do problema discretizado (6.37), então

ku − uh ka 6 ku − vka (6.44)

para todo v ∈ Vh , ou seja, uh é a melhor aproximação para u em Vh na norma da energia.

Prova. A demonstração é análoga à da proposição anterior. ¥


Capı́tulo 7

Aproximação de Autovalores do
Laplaciano

Neste capı́tulo desejamos mostrar que tanto os autovalores da matriz de discretização, quanto os autovalores
da matriz de rigidez, são aproximações para os autovalores do laplaciano, o que produz métodos numéricos
para encontrar os autovalores do laplaciano em domı́nios arbitrários.

7.1 Elementos Finitos


Como vimos, o problema de autovalor para o laplaciano com condição de Dirichlet
½
−∆u = λu em Ω,
(7.1)
u=0 sobre ∂Ω,

pode ser formulado variacionalmente como

a (u, v) = λ hu, viL2 (Ω) para todo v ∈ V = W01,2 (Ω) , (7.2)

onde Z
a (u, v) = h∇u, ∇viL2 (Ω) = ∇u · ∇v.

A discretização correspondente de Ritz-Galerkin (isto é, elementos finitos) do problema de autovalor é

a (uh , v) = λh huh , viL2 (Ω) para todo v ∈ Vh . (7.3)

Escolhendo uma base B = {ϕ1 , . . . , ϕn } para Vh , de modo que


n
X n
X
uh = ui ϕi , v = vi ϕi
i=1 i=1

e
n
X n
X
a (uh , v) = ui a (ϕi , ϕj ) vj = ui h∇ϕi , ∇ϕj iL2 (Ω) vj = uth Av,
i,j=1 i,j=1
Xn
huh , viL2 (Ω) = ui hϕi , ϕj iL2 (Ω) vj = uth M v,
i,j=1

131
Rodney Josué Biezuner 132

onde ³ ´
A = h∇ϕi , ∇ϕj iL2 (Ω)
16i,j6n

é a matriz de rigidez e ³ ´
M = hϕi , ϕj iL2 (Ω)
16i,j6n

é a chamada matriz de massa, este problema toma a seguinte forma matricial:

Auh = λh M uh . (7.4)

Ou seja, é um problema de autovalor generalizado. Para transformá-lo em um problema de autovalor


“normal”, observe que a matriz de massa é simétrica e positiva definida, pois se ξ = (ξ1 , . . . , ξn ) ∈ Rn é um
P
n
vetor não-nulo e v = ξi ϕi , temos
i=1

n
* n n
+
X X X
hM ξ, ξi = hϕi , ϕj iL2 (Ω) ξi ξj = ξi ϕi , ξj ϕj = hv, viL2 (Ω) > 0.
i,j=1 i=1 j=1 L2 (Ω)

Logo, podemos decompor


M = BtB
onde B também é simétrica positiva definida (por exemplo, a menos de similaridade ortogonal, B = M 1/2 ).
Definindo

Ae = B −t AB −1 ,
u
eh = Buh ,

o problema de autovalor generalizado (7.4) é transformado no problema de autovalor:

euh = λh u
Ae eh . (7.5)

Os autovalores em ambos os problemas são iguais, mas não as autofunções.

7.1.1 Resultados Preliminares


De agora em diante, além da continuidade e coercividade da forma bilinear a (no caso da equação de Poisson,
observe que podemos tomar a constante de coercividade igual a 1 usando a norma equivalente em W01,2 (Ω))
e do fato que W01,2 (Ω) está compactamente imerso em L2 (Ω), assumiremos que {Vhi }, hi → 0, será sempre
uma seqüência de subespaços de dimensão finita de V que aproximam V no sentido que

lim dist (u, Vhi ) = 0 para todo u ∈ V (7.6)


hi →0

ou, dito de outro modo,

lim inf {ku − uh kV : uh ∈ Vhi } para todo uh ∈ V. (7.7)


hi →0

Nestas condições, pode-se provar que a solução uh dada pelo método de elementos finitos converge na norma
de V para a solução exata u (veja [Hackbusch]). Uma condição suficiente para assegurar (7.6) é que

[
Vh1 ⊂ Vh2 ⊂ . . . ⊂ Vhi ⊂ Vhi+1 ⊂ . . . ⊂ V e Vhi é denso em V. (7.8)
i=1
Rodney Josué Biezuner 133

Defina a forma bilinear


aλ (u, v) = a (u, v) − λ hu, viL2 (Ω) . (7.9)
Se a é coerciva com constante de coercividade α, então aλ também é coerciva para todo |λ| < α (veja Lema
7.2 a seguir). Em seguida, considere os números

ω (λ) = inf sup |aλ (u, v)| , (7.10)


u∈V v∈V
kukV =1 kvk =1
V

ωh (λ) = inf sup |aλ (u, v)| . (7.11)


u∈Vh v∈Vh
kukV =1 kvk =1
V

A relação entre os números ω (λ) e ωh (λ) e os respectivos problemas de autovalores é dada pelos Lemas 7.1
e 7.2 a seguir.
A uma forma bilinear contı́nua a : V × V −→ R podemos associar de forma única um operador linear
contı́nuo L : V −→ V 0 que satisfaz
a (u, v) = (Lu) (v) . (7.12)
Além disso, se
|a (u, v)| 6 C kukV kvkV
para todos u, v ∈ V , então
kLk 6 C.

7.1 Lema. Sejam L e Lh os operadores lineares associados às formas bilineares a : V × V −→ R e a :


Vh × Vh −→ R, respectivamente.
Se λ não é um autovalor, temos
1
ω (λ) = °
°
°,
−1 °
°(L − λI) °
1
ωh (λ) = °
°
°.
−1 °
°(Lh − λI) °

Prova. Se λ não é um autovalor, então o operador linear L − λI é invertı́vel pela alternativa de Fredholm.
Observe que L − λI é precisamente o operador linear associado à forma bilinear aλ . Denotando A = L − λI,
temos
¯¡ ¢ ¯
|aλ (u, v)| |(Au) (v)| ¯ AA−1 u0 (v)¯
ω (λ) = inf sup = inf sup = 0inf 0 sup
u∈V v∈V kukV kvkV u∈V v∈V kukV kvkV u ∈V v∈V kA−1 u0 kV kvkV
u6=0 v6=0 u6=0 v6=0 0
u 6=0 v6=0
0
1 |u (v)| 1
= 0inf 0 −1 0
sup = 0inf 0 −1 0k
ku0 kV
u ∈V kA u kV v∈V kvk V u ∈V kA u V
0 0
u 6=0 v6=0 u 6=0
1
= .
kA−1 k
A demonstração para ωh (λ) é análoga. ¥

7.2 Lema. λ é um autovalor de (7.2) se e somente se ω (λ) = 0.


λh é um autovalor de (7.3) se e somente se ωh (λh ) = 0.

Prova. Se λ é um autovalor de (7.2), então por definição existe u ∈ V tal que aλ (u, v) = 0 para todo v ∈ V ,
donde ω (λ) = 0. Reciprocamente, se λ não é um autovalor, pelo lema anterior ω (λ) 6= 0. A demonstração
para ωh (λ) é análoga. ¥
Rodney Josué Biezuner 134

7.3 Corolário. ω (λ) e ωh (λ) são contı́nuas em λ ∈ C.


7.4 Lema. Se a : V × V −→ R é uma forma bilinear coerciva com
2
|a (v, v)| > α kvkV para todo v ∈ V,

então existe µ ∈ R tal que aµ também é coerciva. Além disso,

ω (µ) > α − |µ| ,


ωh (µ) > α − |µ| .

Prova. Temos
2 2
|aλ (u, u)| > |a (u, u)| − |λ| kukL2 (Ω) > (α − |λ|) kukV ,
de modo que aλ é coerciva sempre que |λ| < α. Para provar as desigualdades, note que se u ∈ V e kukV = 1
então
sup |aλ (u, v)| > |aλ (u, u)| > α − |µ| .
v∈V
kvkV =1

7.5 Lema. Seja K ⊂ C compacto. Então existem números C > 0 e ηh > 0 independentes de λ ∈ K com
lim ηh = 0 tais que
h→0

ωh (λ) > Cω (λ) − ηh , (7.13)


ω (λ) > Cωh (λ) − ηh , (7.14)

para todo λ ∈ K.

Prova. Escolha µ ∈ R como no lema anterior. Defina operadores Zλ : V −→ V e Zλh : V −→ Vh por

z = Zλ (u) é a solução de aµ (z, v) = (λ − µ) hu, viL2 (Ω) para todo v ∈ V,


zh = Zλh (u) é a solução de aµ (zh , v) = (λ − µ) hu, viL2 (Ω) para todo v ∈ Vh .

A existência e unicidade de z e zh é garantida pelo Teorema de Lax-Milgram. Observe que

aλ (u, v) = aµ (u − z, v) , (7.15)

pois

aλ (u, v) = a (u, v) − λ hu, viL2 (Ω)


= a (u, v) − µ hu, viL2 (Ω) − (λ − µ) hu, viL2 (Ω)
= aµ (u, v) − aµ (z, v) .

Usando a continuidade dos operadores Zλ , Zλh com relação a λ e a compacidade de K, seja CZ > 0 uma
constante positiva tal que ° °
kZλ k , °Zλh ° 6 CZ para todo λ ∈ K. (7.16)
Denote por Cµ uma constante de continuidade para a forma bilinear aµ , isto é,

|aµ (v, w)| 6 Cµ kvkV kwkV (7.17)

para todos u, v ∈ V , por C0 uma constante uniforme de continuidade para as formas bilineares aλ , λ ∈ K,
isto é,
|aλ (v, w)| 6 C0 kvkV kwkV , (7.18)
Rodney Josué Biezuner 135

para todos u, v ∈ V , para todo λ ∈ K, e


β = α − |µ| . (7.19)
Consideremos a primeira desigualdade, (7.13). Da definição de ω (λ), segue que para todo u ∈ V vale

ω (λ) kukV 6 sup |aλ (u, v)| = sup |aµ (u − z, v)| 6 Cµ ku − zkV . (7.20)
v∈V v∈V
kvkV =1 kvkV =1

Usando o Lema 7.4 e esta última desigualdade escrevemos então

sup |aλ (u, v)| = sup |aµ (u − zh , v)|


v∈Vh v∈Vh
kvkV =1 kvkV =1

> ωh (µ) ku − zh kV
> β ku − zh kV
> β (ku − zkV − kz − zh kV )
µ ¶
ω (λ) ° °
>β − °Zλ − Zλh ° kukV

para todo u ∈ V . Escolhendo u ∈ Vh tal que kukV = 1 e

ωh (λ) = inf sup |aλ (u, v)| = min sup |aλ (u, v)| = sup |aλ (u, v)| ,
u∈Vh v∈Vh u∈Vh v∈Vh v∈Vh
kukV =1 kvk =1 kukV =1 kvk =1 kvkV =1
V V

obtemos
β ° °
ωh (λ) > ω (λ) − β °Zλ − Zλh ° . (7.21)

Portanto, (7.13) segue se provarmos que
° °
lim sup °Zλ − Zλh ° = 0. (7.22)
h→0 λ∈K

Da mesma forma, a demonstração de (7.14) depende de (7.22). De fato, pela definição de ωh (λ) segue
que para todo uh ∈ Vh temos

ωh (λ) kuh kV 6 sup |aλ (uh , v)| = sup |aµ (uh − zh , v)| 6 Cµ kuh − zh kV . (7.23)
v∈Vh v∈Vh
kvkV =1 kvkV =1

Usando o Lema 7.4 e esta última desigualdade escrevemos

sup |aλ (uh , v)| = sup |aµ (uh − z, v)|


v∈V v∈V
kvkV =1 kvkV =1

> ω (µ) kuh − zkV


> β kuh − zkV
> β (kuh − zh kV − kz − zh kV )
µ ¶
ωh (λ) ° °
>β − °Zλ − Zλh ° kuh kV

para todo uh ∈ Vh . Escolha u ∈ V tal que kukV = 1 e

ω (λ) = inf sup |aλ (u, v)| = min sup |aλ (u, v)| = sup |aλ (u, v)| .
u∈V v∈V u∈V v∈V v∈V
kukV =1 kvk =1 kukV =1 kvk =1 kvkV =1
V V
Rodney Josué Biezuner 136

Como
sup |aλ (u − uh , v)| 6 C0 ku − uh kV ,
v∈V
kvkV =1

segue que

ω (λ) + C0 ku − uh kV > sup |aλ (u, v)| + sup |aλ (u − uh , v)|


v∈V v∈V
kvkV =1 kvkV =1

> sup |aλ (uh , v)|


v∈V
kvkV =1
µ ¶
ωh (λ) ° °
>β − °Zλ − Zλh ° kuh kV ,

donde µ ¶
β ° °
ω (λ) > ωh (λ) − β °Zλ − Zλh ° kuh kV − C0 ku − uh kV .

Como para cada h podemos escolher uh tal que ku − uh kV → 0 quando h → 0, por (7.7), (7.14) será provado
se (7.22) for verdadeiro.
Para terminar a demonstração do lema, provaremos agora (7.22). Suponha por absurdo que existe ε > 0,
{λi } ⊂ K e hi → 0 tal que ° °
° °
°Zλi − Zλhii ° > ε.

Então existe uma seqüência {ui } ⊂ V com kui kV = 1 tal que


° ° ε
° °
°Zλi (ui ) − Zλhii (ui )° > .
V 2
Pela compacidade de K e da imersão V −→ L2 (Ω), podemos assumir a menos de uma subseqüência que

λi → λ0 ,
ui → u0 em V 0 .

Segue do fato que a solução dada por elementos finitos aproxima a solução exata que
° °
° °
°Zλ0 (u0 ) − Zλh0i (u0 )° → 0.
V

Logo,
° ° ° °
° ° ° °
°Zλi (ui ) − Zλhii (ui )° 6 kZλi (ui ) − Zλ0 (ui )kV + °Zλh0i (ui ) − Zλhii (ui )°
V V
° °
° hi °
+ kZλ0 (ui − u0 )kV + °Zλ0 (u0 − ui )°
V
° °
° hi °
+ °Zλ0 (u0 ) − Zλ0 (u0 )°
V
° °
° °
6 2C |λi − λ0 | + 2Cz ku0 − ui kV 0 + °Zλ0 (u0 ) − Zλh0i (u0 )°
V
→0

uma contradição. ¥
Rodney Josué Biezuner 137

7.1.2 Convergência dos Autovalores Discretos para os Autovalores Contı́nuos


A convergência dos autovalores discretos para os autovalores exatos pode ser agora demonstrada:

7.6 Teorema. Sejam λhi autovalores discretos de (7.3) tais que

lim λhi = λ0 . (7.24)

Então λ0 é um autovalor de (7.2).

Prova. Suponha por absurdo que λ0 não é um autovalor de (7.2). Então, pelo Lema 7.2,

ω (λ0 ) = η0 > 0.

Como ω (λ) é uma função contı́nua, existe ε0 > 0 tal que


η0
ω (λ) > >0
2
para todo λ ∈ Dε0 (λ0 ) = {z ∈ C : |z − λ0 | 6 ε0 }. Escolha K = Dε0 (λ0 ) no Lema 7.5 e sejam ηh e C os
números dados naquele lema. Como lim ηhi = 0, seja h0 > 0 tal que
η0
ηh 6 C
4
para todo h 6 h0 . Segue dos Lemas 7.2 e 7.5 que para todo λhi ∈ Dε0 (λ0 ) com hi 6 h0 nós temos
η0 η0 η0
0 = ωhi (λhi ) > Cω (λhi ) − ηhi > C −C =C > 0,
2 4 4
uma contradição. ¥

7.7 Lema. As funções ω (λ) e ωh (λ) não possuem um mı́nimo positivo próprio no interior de um compacto
K ⊂ C.

Prova. Seja L o operador associado à forma bilinear a. Sejam µ um ponto interior de K com ω (µ) > 0
e ε > 0 suficientemente pequeno para que Dε (µ) ⊂ K e ω (λ) > 0 para todo λ ∈ Dε (µ). Pelo Lema 7.2,
−1
(L − λI) está definida em Dε (µ), logo é holomórfica aı́. Pela fórmula integral de Cauchy,
I −1
−1 1 (L − zI)
(L − λI) = dz
2πi ∂Dε (µ) z−λ

para todo λ ∈ Dε (µ). Daı́,


1 ° ° ° ° 1
° −1 ° ° −1 °
= °(L − λI) ° 6 max °(L − zI) ° = max ,
ω (λ) z∈∂Dε (µ) z∈∂Dε (µ) ω (z)

de modo que
ω (λ) > min ω (z)
z∈∂Dε (µ)

para todo λ ∈ Dε (µ). Portanto, ω (λ) não pode assumir um mı́nimo próprio em Dε (µ).
A demonstração para ωh (λ) é análoga. ¥
A recı́proca do Teorema 7.6, isto é, que todos os autovalores reais podem ser aproximados por uma
seqüência de autovalores discretos, é dada no próximo resultado:

7.8 Teorema. Seja λ0 um autovalor de (7.2). Então existem autovalores discretos λh de (7.3) tais que

lim λh = λ0 . (7.25)
h→0
Rodney Josué Biezuner 138

Prova. Os autovalores do laplaciano são isolados, logo pelo Lema 7.2

ω (λ) > 0 para todo 0 < |λ − λ0 | < ε

se ε > 0 é suficientemente pequeno. Como ω (λ) é contı́nua e ∂Dε (λ0 ) é compacto, temos

ωε = min ω (λ) > 0.


∂Dε (λ0 )

Segue do Lema 7.5 que para todo λ ∈ ∂Dε (λ0 ) e para todo h suficientemente pequeno temos

C
ηh < ωε ,
1
1+
C
donde
ηh ω (λ0 )
ωh (λ) > Cω (λ) − ηh > Cωε − ηh > > ωh (λ0 ) − = ωh (λ0 ) .
C C
Em particular, ωh (λ) tem um mı́nimo próprio em Dε (λ0 ). Pelo lema anterior, isso implica que existe
λh ∈ Dε (λ0 ) tal que ωh (λh ) = 0, isto é, λh é um autovalor discreto. ¥

7.1.3 Convergência das Autofunções


A convergência das autofunções segue do próximo teorema:

7.9 Teorema. Sejam uh autofunções de (7.3) associadas respectivamentes aos autovalores discretos λh e
satisfazendo kuh kV = 1 e lim λh = λ0 . Então existe uma subseqüência uhi que converge em V para
h→0
uma autofunção u0 associada ao autovalor λ0 de (7.2) com ku0 kV = 1.

Prova. Usando o fato que V = W01,2 (Ω) está compactamente imerso em L2 (Ω), obtemos uma subseqüência
uhi convergente para u0 ∈ L2 (Ω). Como no Lema 7.4, definimos

z0 = Zλ0 (u0 ) é a solução de aµ (z0 , v) = (λ0 − µ) hu0 , viL2 (Ω) para todo v ∈ V,
zhi = Zλh0i (u0 ) é a solução de aµ (zhi , v) = (λ0 − µ) hu0 , viL2 (Ω) para todo v ∈ Vhi .

Dado ε > 0, existe h1ε > 0 tal que


ε
kz0 − zhi kV < (7.26)
2
se hi < h1ε . A função uhi é uma solução de

aµ (uhi , v) = (λhi − µ) huhi , viL2 (Ω) para todo v ∈ Vhi ,

ou seja, uhi = Zλhii (uhi ). Segue que

fi (v) := aµ (zhi − uhi , v)


= (λ0 − µ) hu0 , viL2 (Ω) − (λhi − µ) huhi , viL2 (Ω)
= (λ0 − µ) hu0 − uhi , viL2 (Ω) − (λhi − λ0 ) huhi , viL2 (Ω)

para todo v ∈ Vhi . Mas fi → 0 em V 0 porque λhi → λ0 e uhi → u0 em L2 (Ω), logo existe h2ε > 0 tal que
ε
kfi kV 0 6

Rodney Josué Biezuner 139

e
ε
kzhi − uhi kV < (7.27)
2
para hi < h2ε . Portanto,
kz0 − uhi kV < ε
¡ ¢
se hi < min h1ε , h2ε , o que implica
uhi → z0 em V,
Em particular,
z0 = u0 ,
ou seja,
aµ (u0 , v) = (λ0 − µ) hu0 , viL2 (Ω) para todo v ∈ V,
e, portanto,
a (u0 , v) = λ0 hu0 , viL2 (Ω) para todo v ∈ V.
¥
Capı́tulo 8

Métodos Numéricos para a Obtenção


de Autovalores de Matrizes

Os autovalores de uma matriz A são as raı́zes do polinômio caracterı́stico de A


p (λ) = det (λI − A) = λn + an−1 λn−1 + . . . + a1 λ + a0 .
Encontrar as raı́zes de um polinômio não é uma tarefa simples e nenhum dos algoritmos usados para encontrar
os autovalores de uma matriz é baseado nesta estratégia (além disso, obter o polinômio caracterı́stico de
uma matriz grande também pode ser uma tarefa que consome muito tempo e recursos computacionais). Na
verdade, muitos algoritmos para encontrar raı́zes de polinômios são baseados em algoritmos para encontrar
autovalores de matrizes. Eles são baseados no fato que, dado um polinômio mônico p qualquer, ele é o
polinômio caracterı́stico da matriz companheira de p:
 
−an−1 −an−2 . . . −a1 −a0
 1 0 ... 0 0 
 
 . .. 
A=  0 1 0 0 .

 .. .. . 
 . . . . 0 0 
0 0 ... 1 0
Assim, encontrar as raı́zes do polinômio p é equivalente a encontrar os autovalores da matriz companheira
de p. Por exemplo, o comando roots em MATLAB encontra as raı́zes de um polinômio transformando-o
primeiro em um polinômio mônico e em seguida utilizando o eficiente algoritmo QR, discutido neste capı́tulo,
para encontrar os autovalores da matriz companheira.
Diferente do caso da resolução de sistemas lineares, em que existem métodos diretos eficientes para
matrizes grandes, esparsas ou não, não existem correspondentes métodos diretos para obter autovalores de
uma matriz (um método é chamado direto se a solução é obtida após um número finito de passos). Isso é
devido ao teorema de Abel que diz que não existe uma fórmula geral para obter as raı́zes de um polinômio
de grau maior que 4; se existisse um procedimento finito para obter os autovalores de uma matriz, usando a
equivalência entre as raı́zes de um polinômio e os autovalores de sua matriz companheira, obterı́amos uma
fórmula geral para obter as raı́zes de um polinômio, por mais complicada que fosse. Portanto, todos os
algoritmos para obter autovalores são iterativos.

8.1 Método das Potências


O método das potências é o algoritmo mais simples, mas ele pode apenas encontrar o maior autovalor de uma
matriz A. Para simplificar a exposição, suponha que A é uma matriz diagonalizável cujo maior autovalor é

140
Rodney Josué Biezuner 141

um autovalor simples. Ordene os autovalores de A na forma

|λ1 | > |λ2 | > . . . > |λn |

e seja {v1 , . . . , vn } uma base correspondente de autovetores. λ1 é chamado o autovalor dominante de A e


v1 um autovetor dominante. Quando A tem um autovalor dominante, este e um correspondente autovetor
dominante podem ser encontrados através do método das potências, que consiste essencialmente em tomar
um vetor q arbitrário e considerar as potências

q, Aq, A2 q, . . . , Ak q, . . .

ou seja, ¡ ¢
Ak q = A Ak−1 q .
Para quase todas as escolhas de q esta seqüência converge em um certo sentido para um autovetor dominante
de A. De fato, para a maioria das escolhas de q devemos ter
n
X
q= ai vi
i=1

com a1 6= 0; raramente uma escolha aleatória de q produzirá um vetor no subespaço hv2 , . . . , vn i. Temos
n
X
Ak q = ai λki vi ,
i=1

donde " µ ¶k #
n
X λi
Ak q = λk1 a1 v1 + ai vi .
i=2
λ1
° ° ° °
Embora °Ak q ° → ∞ se λ1 > 1 e °Ak q ° → 0 se λ1 < 1, como
µ ¶k
λi
→ 0,
λ1

para todo i = 2, . . . , n, segue que a seqüência reescalada

Ak q
qk = → a1 v1
λk1

converge para um autovetor dominante. No entanto, como o autovalor λ1 não é conhecido a priori, é
impossı́vel trabalhar com esta seqüência. Em geral, escolhemos um fator de escala σk e definimos
1
qk+1 = Aqk . (8.1)
σk+1

O fator de escala σk é comumente escolhido como sendo o valor da coordenada de Aqk que tem o maior
valor absoluto. Deste modo, o maior componente de qk é igual a 1 e a seqüência converge para um autovetor
dominante cujo maior componente é 1.

8.1.1 Iteração Inversa e Iteração com Deslocamento


O método das potência permite apenas encontrar o autovalor dominante. Para obter o menor autovalor de
A, podemos aplicar o método das potências à matriz A−1 , pois se λ é o menor autovalor de A, 1/λ será
Rodney Josué Biezuner 142

o maior autovalor de A−1 . Este método é chamado método das potências inverso ou iteração inversa (em
contraste, o método das potências é às vezes chamado iteração direta).
Para encontrar os demais autovalores da matriz A, observe que se A tem autovalores λ1 , . . . , λn , então
A − σI tem autovalores λ1 − σ, . . . , λn − σ. O escalar σ é chamado um deslocamento. Podemos então aplicar
−1
o método das potências à matriz (A − σI) , pois o maior autovalor desta matriz é 1/ (λ − σ), onde λ é o
autovalor de A mais próximo de σ. De fato, se
−1
(A − σI) v = µv,
então v = µ (A − σI) v, donde µ ¶
1
Av = σ + v.
µ
Assim, podemos escolher quais autovalores de A encontrar através da escolha do deslocamento σ. Este
método é chamado iteração com deslocamento. Ele é particularmente eficiente quando possuı́mos boas
estimativas para os autovalores de A.
É muito importante notar que tanto na iteração inversa, quanto na iteração com deslocamento, em
nenhum momento é necessário calcular a inversa A−1 explicitamente, o que consumiria muito tempo e
recursos. Embora as iteradas satisfazem
1 −1
qk+1 = (A − σI) qk ,
σk+1
basta resolver o sistema
(A − σI) qek+1 = qk
e então tomar
1
qk+1 = qek+1 .
σk+1

8.2 Iteração de Subespaços


O método de potências pode ser visto como uma iteração de subespaços
S0 = hqi ,
S1 = AS,
S2 = A2 S,
..
.
Sk = Ak S,
..
.
que convergem para o subespaço T = hv1 i associado ao autovalor dominante de A. Esta idéia pode ser
tornada mais precisa quando se define a distância entre dois subespaços vetoriais.
Definição. Dados dois subespaços vetoriais E, F de um espaço vetorial V de dimensão finita com produto
interno, cujas dimensões m = dim E, p = dim F satisfazem
m > p > 1,
os ângulos principais θ1 , . . . , θp ∈ [0, π/2] entre E e F são definidos recursivamente por
cos θj = max max hu, vi = huj , vj i .
u∈E v∈F
kuk=1 kvk=1
hu,ui i=0 hv,vi i=0
para i=1,...,j−1 para i=1,...,j−1

Os vetores {u1 , . . . , up } e {v1 , . . . , vp } são chamados os vetores principais entre os subespaços E e F .


Rodney Josué Biezuner 143

Em outras palavras, escolha vetores u1 , v1 tais que o máximo

max max hu, vi


u∈E v∈F
kuk=1 kvk=1

é realizado nestes vetores, e defina


cos θ1 = hu1 , v1 i .
Por exemplo, se dim E = 2 e dim F = 1, então θ1 é o maior ângulo que a reta F faz com retas de E; se
dim E = dim F = 2, então θ1 é o maior ângulo entre uma reta de E e uma reta de F . Em seguida, escolha
vetores u2 , v2 tais que o máximo
max max hu, vi
u∈E v∈F
kuk=1 kvk=1
hu,u1 i=0 hv,v1 i=0

é realizado nestes vetores, e defina


cos θ2 = hu2 , v2 i .
Por exemplo, se dim E = dim F = 2, então θ2 = 0 porque u2 = v2 . E assim por diante definimos os ângulos
principais restantes θ3 , . . . , θp . Ângulos principais e vetores principais aparecem em aplicações de estatı́stica
e permitem a definição de uma noção de distância entre subespaços vetoriais de mesma dimensão.

Definição. Dados dois subespaços vetoriais de mesma dimensão S1 , S2 ⊂ V a distância dist (S1 , S2 ) entre
S1 e S2 é o seno do maior ângulo principal entre eles.
Dada uma seqüência de subespaços {Sk } ⊂ V e um subespaço T ⊂ V , todos de mesma dimensão,
dizemos que Sk converge para T , denotado por

Sk → T

se
dist (Sk , T ) → 0.

8.1 Teorema. Seja A ∈ Mn (F) uma matriz diagonalizável com autovalores λ1 , . . . , λn ∈ F satisfazendo

|λ1 | > |λ2 | > . . . > |λn |

Seja B = {v1 , . . . , vn } ⊂ Fn uma base de autovetores correspondente. Suponha que |λm | > |λm+1 | para
algum m. Sejam

Tm = hv1 , . . . , vm i ,
Um = hvm+1 , . . . , vn i .

Seja S um subespaço m-dimensional qualquer de Fn tal que S ∩Um = {0}. Então existe uma constante
C > 0 tal que
¯ ¯
¡ ¢ ¯ λm+1 ¯k
dist Ak S, Tm 6 C ¯¯ ¯ para todo k.
λm ¯
Em particular, Ak S → Tm .

Prova. Embora não demonstraremos o Teorema 8.1 rigorosamente, daremos uma idéia da demonstração.
Seja q ∈ S um vetor arbitrário. Então q se escreve de maneira única na forma
m
X n
X
q= a i vi + ai vi =: q1 + q2
i=1 i=m+1
Rodney Josué Biezuner 144

com q1 ∈ Tm e q2 ∈ Um . Como q ∈ / Um , necessariamente q1 6= 0, isto é, ai 6= 0 para algum ı́ndice i = 1, . . . , m.


Em primeiro lugar, note que os subespaços Ak S são todos m-dimensionais. De fato, |λm | > |λm+1 | implica
que nenhum dos autovalores λ1 , . . . , λm é o autovalor nulo, logo ker A ⊂ Um . Como S ∩ Um =¡{0}, ¢ segue
que A é injetiva sobre S logo dim S = dim (AS). Mais geralmente, como Ak Tm = Tm , temos ker Ak ⊂ Um
para todo k. Além disso, Ak S ∩ Um = {0}, pois se q = q1 + q2 ∈ S é um vetor arbitrário com Pmq1 ∈ Tm e
q2 ∈ Um , segue que a componente Ak q1 de Ak q em Tm é não-nula para todo k, pois¡ Ak q1¢ = i=1 ai λk vi e
ai 6= 0 para algum ı́ndice i = 1, . . . , m. Portanto, dim (AS) = dim (AS) = . . . = dim Ak S .
Temos
Ak q X µ λi ¶k
m−1 Xn µ
λi
¶k
= a i v i + a v
m m + a i vi .
λkm i=1
λm i=m+1
λm

Os coeficientes da componente em Tm crescem, ou pelo menos não decrescem, enquanto que os coeficientes
da
¡ kcomponente
¢ em Um tendem a zero com taxa igual a ou melhor que λm+1 /λm . Portanto, toda seqüência
A q converge para um vetor em Tm com a taxa de convergência dada no enunciado. O limite Ak S não
pode ser um subespaço próprio de Tm porque ele tem dimensão m. ¥
Tm é chamado o subespaço invariante dominante de A de dimensão m.
Para fazer uma iteração de subespaços na prática, é necessário escolher uma base © 0 para 0oªsubespaço a
ser iterado, iterando
© todos os vetores
ª desta base simultaneamente. Assim, se B 0 = q1 , . . . , qm é uma base
para S, Bk = Ak q10 , . . . , Ak qm 0
é uma base para Ak S.° Por° outro lado,
° já vimos
° que trabalhar com os
vetores Ak qj0 pode ser problemático, pois pode ocorrer °Ak qj0 ° → ∞ ou°Ak qj0 ° → 0; seria necessário fazer
© ª © ª
um reescalamento a cada iteração. Pior que isso, as seqüências de vetores Ak q10 , . . . , Ak qm 0
convergem
cada uma para o autovetor dominante v1 , como vimos na seção anterior, logo os©vetores Ak q10 , . . ª . , A k qm
0
k 0 k 0
apontam aproximadamente para a mesma direção v1 para m grande, logo Bk = A q1 , . . . , A qm não é
uma boa base para Ak S (dizemos que Bk é uma base mal-condicionada): pequenas perturbações em um dos
vetores-base podem fazer uma grande diferença no espaço.
Deve-se portanto substituir a base obtida em cada iteração por uma base bem-condicionada. A maneira
mais
© 0 confiável ª de fazer isso é ortonormalizar a base.
© Assim, começa-se
ª com uma base ortonormal B0 =
0
q 1 , . . . , qm para S e obtém-se a base Be1 = Aq10 , . . . , Aqm 0
para AS. Através de um processo de
ortonormalização, e
© ª como o algoritmo de Gram-Schmidt, a partir de B1 obtém-se © umaª base ortonormal
B1 = q11 , . . . , qm1
para AS. Em geral, dada uma base ortonormal Bk = q1k , . . . , qm k
para Ak S, obte-
© k+1 ª © ª
mos uma base ortonormal Bk+1 = q1 , . . . , qm k+1
para Ak+1 S a partir da base Bek+1 = Aq1k , . . . , Aqm k
.
Este procedimento é chamado iteração simultânea com ortonormalização ou simplesmente iteração
simultânea.

8.3 Método QR
O algoritmo mais usado para calcular o conjunto completo de autovalores de uma matriz é o algoritmo
QR, desenvolvido simultanea e independentemente por Francis e Kublanovskaya em 1961. Ele pode ser
compreendido a partir do processo de iteração simultânea.
© 0 Consideremos ª o que acontece quando o processo de iteração simultânea é aplicado a uma base B0 =
q1 , . . . , qn0 de vetores ortonormais para Fn . Como antes, assumimos que A é diagonalizável com autovalores
λ1 , . . . , λn e B = {v1 , . . . , vn } é uma base correspondente de autovetores. Assuma

|λm | > |λm+1 |

para m = 1, . . . , n − 1, e defina
­ ®
Sm = q10 , . . . , qm
0
,
Tm = hv1 , . . . , vm i ,
Um = hvm+1 , . . . , vn i .
Rodney Josué Biezuner 145

Assuma também que Sm ∩ Um = {0} para m = 1, . . . , n − 1. Pelo Teorema 8.1,


­ ®
Ak Sm = q1k , . . . , qm
k
→ Tm

com velocidade de convergência igual a |λm+1 | / |λm |.


b k a matriz unitária cujas colunas são os vetores ortonormais q k , . . . , qnk e denote
Seja Q 1

b ∗k AQ
Ak = Q bk . (8.2)

Como Ak é similar a A, Ak possui os mesmos autovalores de A. Para k grande, as primeiras m colunas de


b k são próximas ao subespaço invariante Tm . Se estas colunas gerassem exatamente o subespaço Tm , então
Q
Ak teria a forma em blocos " ¡ ¢ ¡ k ¢ #
Ak11 k×k A12 k×(n−k)
Ak = ¡ ¢ (8.3)
0(n−k)×k Ak22 (n−k)×(n−k)

e os autovalores λ1 , . . . , λk seriam os autovalores do bloco Ak11 . Como estas colunas apenas aproximam Tm ,
ao invés de um bloco nulo devemos obter um bloco Ak21 cujas entradas são próximas de zero. Pode-se provar
que de fato Ak21 → 0. Isso acontece para todo k, de modo que Ak converge para uma matriz triangular, cujos
elementos na diagonal principal são os autovalores λ1 , . . . , λn de A. Se A for uma matriz hermitiana, então
Ak também será hermitiana e Ak convergirá para uma matriz diagonal.
O algoritmo QR é uma variante da iteração de subespaços que produz a seqüência (Ak ) diretamente.

8.3.1 O Algoritmo QR
Para obter o algoritmo QR, vamos colocar a iteração simultânea em forma matricial. Assumiremos que A
é invertı́vel. Depois de k iterações, temos os vetores ortonormais q1k , . . . , qnk , que são as colunas da matriz
unitária Q b k , isto é,
£ ¤
Qb k = q1k . . . qnk . (8.4)
Denote £ ¤
bk =
Bk+1 = AQ Aq1k ... Aqnk . (8.5)
Em seguida, o processo de Gram-Schmidt clássico é aplicado aos vetores linearmente independentes bk+1 1 =
k+1
Aq1k , . . . , bk+1
n = Aq k
n (daı́ a hipótese de que A é invertı́vel) para obter vetores ortonormais q 1 , . . . , q k+1
n
que serão as colunas da matriz unitária Q b k+1 .
Para expressar o algoritmo de Gram-Schmidt em forma matricial, lembre-se que para obter vetores
ortonormais q1 , . . . , qn a partir de vetores linearmente independentes b1 , . . . , bn neste processo primeiro or-
togonalizamos, obtendo os vetores ortogonais

qe1 = b1 ,
hb2 , qe1 i
qe2 = b2 − qe1 ,
he
q1 , qe1 i
..
.
m−1
X hbm , qej i
qem = bm − qej ,
j=1
he
qj , qej i
..
.
n
X hbn , qej i
qen = bn − qejk+1 .
j=1
he
qj , qej i
Rodney Josué Biezuner 146

e depois normalizamos obtendo os vetores ortonormais

qe1
q1 = ,
ke
q1 k
..
.
qen
qn = .
ke
qn k

Podemos escrever o processo de ortogonalização na forma


m−1
X
qem = bm − hbm , qj i qj ,
j=1
qem
qm = ,
ke
qm k
ou
m−1
X
qem = bm − rjm qj , (8.6)
j=1
1
qm = qem , (8.7)
rmm
onde

rjm = hbm , qj i , se j = 1, . . . , m − 1, (8.8)


rmm = keqm k . (8.9)

Os vetores b1 , . . . , bn podem então ser escritos diretamente em função dos vetores q1 , . . . , qn :


m−1
X
bm = rjm qj + rmm qm , (8.10)
j=1

ou seja,

b1 = r11 q1 ,
b2 = r12 q1 + r22 q2 ,
b3 = r13 q1 + r23 q2 + r33 q3
..
.
bn = r1n q1 + r2n q2 + . . . + rnn qn

Em forma matricial, se definirmos rjm = 0 sempre que j > m e considerarmos a matriz triangular superior
R = (rij ), temos
 
r11 r12 r13 . . . r1n
 0 r22 r23 . . . r2n 
£ ¤ £ ¤


b1 b2 b3 . . . bn = q1 q2 q3 . . . qn  0 0 r33 . . . r3n 
 .. .. .. .. .. 
 . . . . . 
0 0 0 ... rnn
Rodney Josué Biezuner 147

ou
B = QR (8.11)
Esta é a chamada decomposição QR de uma matriz invertı́vel B em um produto de uma matriz unitária Q
(ortogonal, se B for uma matriz real) e uma matriz triangular superior com entradas diagonais reais positivas
R.
Portanto, usando a decomposição QR, um passo de iteração simultânea pode ser expresso em forma
matricial como
Bk+1 = AQ bk = Qb k+1 Rk+1 , (8.12)
onde Rk+1 é a matriz triangular superior definida por

 0­ ® se j > m,
(Rk+1 )jm = ­ Aqjk , qjk+1® se j = 1, . . . , m − 1, (8.13)

Aqjk , Aqjk se j = m.

© 0 Agora 0suponha
ª que comecemos a iteração simultânea a partir dos vetores da base canônica, isto é,
b 0 = I. Então
q1 , . . . , qn = {e1 , . . . , en }, de modo que Q

b 0 = A,
B1 = AQ

donde
b 1 R1 .
A=Q
Daı́,
b ∗1 AQ
A1 = Q b 1 = R1 Q
b1 .
b 1 , escrevemos
Denotando Q1 = Q
A = Q1 R1
e
A1 = R1 Q1 . (8.14)
No próximo passo,
b1 = Q
B2 = AQ b 2 R2 .
Observando que
A1 = Q b1 = Q
b ∗1 AQ b 2 R2 ,
b ∗1 Q
definindo
b ∗1 Q
Q2 = Q b2
obtemos a decomposição QR da matriz A1 :

A1 = Q2 R2 . (8.15)

Daı́,
b ∗2 AQ
A2 = Q b2 = Q
b ∗2 Q
b 1 R1 Q
b 2 = Q∗2 R1 Q
b 1 Q2 = Q∗2 A1 Q2 .
Como Q∗2 A1 = R2 , segue que
A2 = R2 Q2 . (8.16)
Em geral,

Ak−1 = Qk Rk , (8.17)
Ak = Rk Qk , (8.18)

isto é, obtemos primeiro a decomposição QR da matriz Ak−1 e a partir dela obtemos a próxima iterada, a
matriz Ak .
Rodney Josué Biezuner 148

8.3.2 Implementação Eficiente do Algoritmo QR


O algoritmo ¡QR¢ da forma como introduzido na seção anterior é altamente ineficiente. Cada decomposição
QR¡ custa
¢ O n3 operações de ponto flutuante e a multiplicação de matrizes que lhe segue também custa
3
O n operações de ponto flutuante. Além disso, a velocidade de convergência também é muito lenta.
O primeiro problema é resolvido quando se reduz a matriz ¡A ࢠsua forma de Hessenberg. Uma decom-
posição QR de uma matriz na forma de Hessenberg é apenas O n2 operações de ponto flutuante para uma
matriz geral e O (n) operações de ponto flutuante para uma matriz hermitiana.

Definição. Dizemos que uma matriz A = (aij ) é uma matriz de Hessenberg superior se aij = 0 sempre
que i > j + 1.

Em outras palavras, uma matriz de Hessenberg superior tem a forma


 
∗ ∗ ∗ ∗ ∗
 ∗ ∗ ∗ ∗ ∗ 
 
 0 ∗ ∗ ∗ ∗ 
 .
 0 0 ∗ ∗ ∗ 
0 0 0 ∗ ∗

Observe que uma matriz hermitiana de Hessenberg é uma matriz tridiagonal. Toda matriz complexa é
semelhante a uma matriz na forma de Hessenberg superior através de uma matriz unitária, isto é, dada
A ∈ Mn (C), existe uma matriz unitária Q tal que

B = Q∗ AQ

é de Hessenberg superior. O custo para isso é de 10 3


3 n operações de ponto flutuante. Detalhes podem ser
vistos em [Watkins]. Se Ak−1 é uma matriz de Hessenberg superior, então a matriz Ak obtida através do
método QR também é de Hessenberg superior. De fato, da decomposição QR de Ak−1 , Ak−1 = Qk Rk ,
obtemos Qk = Ak−1 Rk−1 . Como a inversa de uma matriz triangular superior é uma matriz triangular
superior, segue que Rk−1 é triangular superior. O produto de uma matriz triangular superior e de uma
matriz de Hessenberg superior, em qualquer ordem, sempre é uma matriz de Hessenberg superior. Segue
que Qk é de Hessenberg superior e daı́ que Ak = Rk Qk é de Hessenberg superior. Assim, se começarmos
com uma matriz de Hessenberg superior, em cada passo ¡ ¢ QR estaremos
¡ ¢ trabalhando com uma matriz de
Hessenberg superior e o custo computacional cai de O n3 para O n2 (ou até mesmo O (n) se a matriz for
hermitiana), uma redução significativa.
A velocidade de convergência do algoritmo QR pode ser acelerada pela estratégia de deslocamento. Com
efeito, como a taxa de convergência do método depende da razão |λm+1 | / |λm |, ela pode ser melhorada
quando esta razão é decrescida. Isso pode ser feito através de deslocamento; |λm+1 − σ| / |λm − σ| pode
ser tornado arbitrariamente próximo a zero escolhendo um deslocamento arbitrariamente próximo a λm+1 .
A escolha do deslocamento pode ser feita através do próprio método QR: depois de algumas iterações, os
elementos na diagonal principal de Ak são aproximações dos autovalores de A.
O método pode ter sua velocidade de convergência ainda mais acelerada através do uso de uma técnica
chamada deflação. Suponha que obtivemos uma boa aproximação σ para o autovalor de menor módulo λn
(como este autovalor tem o menor módulo, ele deve ser o melhor aproximado pelas iterações QR iniciais usadas
para encontrar boas aproximações para os autovalores). Aplicando o algoritmo QR à matriz C = A − σI,
obteremos uma convergência muito rápida, de modo que após poucas iterações a matriz Ck +σI (adicionando
o deslocamento de volta) terá aproximadamente a forma
 

 Abk ... 
Ck + σI = 

.
∗ 
0 0 0 λn
Rodney Josué Biezuner 149

Os autovalores restantes de A serão os autovalores de Abk , que é uma matriz (n − 1) × (n − 1), de modo que
podemos efetuar iterações subseqüentes nesta matriz. Operando desta forma, a cada autovalor encontrado
diminuı́mos o tamanho da matriz, diminuindo o custo computacional (é claro que a cada autovalor encontrado
devemos também considerar um novo deslocamento, aproximando o próximo autovalor a ser encontrado).

8.4 Métodos para Matrizes Esparsas


O algoritmo QR não é conveniente para obter os autovalores de matrizes esparsas, já que depois de uma
iteração QR a matriz A1 já deixa de ser esparsa (pode-se construir exemplos em que todas as posições
superiores da matriz de Hessenberg são preenchidas; veja [Watkins], Exercı́cio 6.3.24). Precisaremos de
métodos que não preenchem os zeros da matriz esparsa A. Uma possibilidade é voltar ao método de iteração
de subespaços básico, sem as mudanças de coordenadas a cada iteração que caracterizam o método QR e
alteram a forma esparsa da matriz. Por outro lado, isso implica que apenas alguns poucos autovalores de
maior módulo podem ser calculados. Para contornar este problema, deve-se usar as estratégias de iteração
inversa e iteração com deslocamento.
Entretanto, métodos mais sofisticados e eficientes existem para encontrar os autovalores de uma matriz
esparsa.

8.4.1 Processo de Arnoldi


O processo de Arnoldi foi introduzido em 1950, mas só entrou em moda para calcular autovalores apenas na
década de 1970. Atualmente, ele e suas variantes, são o método preferido para o cálculo de autovalores em
várias aplicações.
O método das potências (ou mesmo o método da iteração de subespaços) utiliza apenas a informação do
último iterado para calcular o próximo iterado. A idéia do processo de Arnoldi (semelhante à do algoritmo
do gradiente conjugado) é usar toda a informação dos passos anteriores. Depois de k passos no método
das potências, guardamos todos os k + 1 vetores q, Aq, A2 q, . . . , Ak q e procuramos boas aproximações de
autovetores no subespaço (k + 1)-dimensional gerado por estes vetores.
Na prática, como já vimos antes, os vetores q, Aq, A2 q, . . . , Ak q formam uma base mal-condicionada para
o subespaço, porque tendem a apontar na mesma direção do autovetor dominante, logo em cada iteração
substituı́mos esta base por uma base ortonormal q1 , . . . , qk+1 . Isso é realizado pelo algoritmos de Gram-
Schmidt com uma pequena modificação. Se trabalhássemos com a seqüência original q, Aq, A2 q, . . . , Ak−1 q,
para obter Ak q bastaria multiplicar Ak−1 q por A. Como em cada passo usamos o algoritmo de Gram-Schmidt
para ortonormalizar o conjunto de vetores obtidos anteriormente, o vetor Ak−1 q não está disponı́vel. Ao
invés, multiplicamos o vetor qk por A e é necessário apenas ortonormalizar o vetor Aqk com relação aos
vetores q1 , . . . , qk para obter o vetor qk+1 . Este é o processo de Arnoldi.
Mais detalhadamente, no primeiro passo temos
q
q1 = . (8.19)
kqk
Em passos subseqüentes, tomamos
k
X
qbk+1 = Aqk − hjk qj , (8.20)
j=1
qbk+1
qk+1 = , (8.21)
kb
qk+1 k
onde
hjk = hAqk , qj i , se j = 1, . . . , k, (8.22)
hk+1,k = kb
qk+1 k . (8.23)
Rodney Josué Biezuner 150

Pode-se mostrar que este processo produz exatamente a mesma seqüência de vetores que o processo de
Gram-Schmidt produz aplicado aos vetores q, Aq, A2 q, . . . , Ak q.
Para ver como o processo de Arnoldi pode ser utilizado para encontrar autovalores, primeiro estabelecemos
alguns resultados teóricos. Lembre-se que dada uma matriz A ∈ Mn (C) e um vetor q ∈ Cn , o j-ésimo espaço
de Krylov associado com A e q é o subespaço
­ ®
Kj (A, q) = q, Aq, . . . , Aj−1 q .

8.2 Proposição. Sejam A ∈ Mn (C) e q ∈ Cn . Suponha que q, Aq, . . . , Am−1 q são linearmente indepen-
dentes. Então Km (A, q) é invariante sob A se e somente se q, Aq, . . . , Am−1 q, Am q são linearmente
dependentes.

Prova. Como Km (A, q) é gerado por q, Aq, . . . , Am−1 q, Km (A, q) é invariante sob A se e somente se Am q
é combinação linear de q, Aq, . . . , Am−1 q. ¥

8.3 Teorema. Sejam A ∈ Mn (C) e q ∈ Cn . Suponha que q, Aq, . . . , Am−1 q são linearmente independentes.
Sejam q1 , . . . , qm os vetores gerados pelo processo de Arnoldi. Então
(a) Kk (A, q) = hq1 , . . . , qk i para k = 1, . . . , m.
(b) hk+1,k > 0 para k = 1, . . . , m − 1.
(c) hm+1,m = 0 se e somente se q, Aq, . . . , Am q são linearmente dependentes ou, equivalentemente, se
e somente se Km (A, q) é invariante sob A.

Prova. (a) e (b) seguem por indução. Para k = 1 é óbvio. Assumindo (a) e (b) válidos para todo j 6 k < m,
vamos provar a validade de (a) e (b) para k + 1. Isso significa que temos que mostrar que hk+1,k > 0 e
­ ®
q, Aq, . . . , Ak−1 q, Ak q = hq1 , . . . , qk+1 i

assumindo válido

hqi = hq1 i
hq, Aqi = hq1 , q2 i
­ ®
q, Aq, A2 q = hq1 , q2 , q3 i
..
.
­ k−1
®
q, Aq, . . . , A q = hq1 , . . . , qk i

Em particular, vemos que cada vetor qj , para j = 1, . . . , k, possui uma componente não-nula na direção de
Aj−1 q, digamos
j−2
X
j−1
qj = aj−1 A q + ai Ai q com aj−1 6= 0.
i=0

Por definição
k
X
qbk+1 = Aqk − hjk qj ,
j=1

de modo que se qbk+1 = 0 terı́amos


à k−2
! k
X X
k−1 i
Aqk = A ak−1 A q+ ai A q = hjk qj ,
i=0 j=1
Rodney Josué Biezuner 151

donde    Ãj−1 ! k−1 


k
X k−2
X Xk X X
1  1
Ak q = hjk qj − ai Ai q  =  hjk bij Ai q − ai Ai q  , (8.24)
ak−1 j=1 i=0
aj−1 j=1 i=0 i=1

produzindo Ak q como combinação linear de q, Aq, . . . , Ak−1 q para k < m, violando a hipótese de que
q, Aq, . . . , Am−1 q são linearmente independentes. Isso prova que hk+1,k = kb
qk+1 k > 0. Além disso, como
à k−2
! k k−1 k
X X X X
k−1 i k i
qbk+1 = A ak−1 A q+ ai A q − hjk qj = ak−1 A q + ai A q − hjk qj ,
i=0 j=1 i=1 j=1

qk+1 k possui uma componente não-nula na direção de Ak q; isso mais a hipótese de


segue que qk+1 = qbk+1 / kb
indução ­ ®
q, Aq, . . . , Ak−1 q = hq1 , . . . , qk i
implica que ­ ®
q, Aq, . . . , Ak−1 q, Ak q = hq1 , . . . , qk+1 i
Para provar (c), observe que hm+1,m = 0 implica q, Aq, . . . , Am q linearmente dependentes por (8.24).
Reciprocamente, se Am q é combinação linear de q, Aq, . . . , Am−1 q, então
­ ®
Am q ∈ q, Aq, . . . , Am−1 q = hq1 , . . . , qm i ,

e portanto
m
X
Am q = hAqm , qj i qj
j=1

pois esta é a expressão de Am q na base ortonormal {q1 , . . . , qm }; daı́ segue da definição que qbm+1 = 0. ¥

8.4.2 Representação Matricial do Processo de Arnoldi


Segue de (8.20) e (8.21) que
k+1
X
Aqk = hjk qj . (8.25)
j=1

Pelo Teorema 8.3, esta relação vale para k = 1, . . . , m se q, Aq, . . . , Am q forem linearmente independentes.
Estas equações vetoriais podem ser combinadas em uma equação matricial da seguinte maneira. Definimos
£ ¤
Qm = q1 . . . qm n×m (8.26)

e  
h11 h12 ... h1,m−1 h1m
 h21 h22 ... h2,m−1 h2m 
 
 0 h32 ... h3,m−1 h3,m 
 
Hm+1,m =
 0 ..
.
.. .. 
 . (8.27)
 0 . . 
 . .. .. 
 .. . . hm,m−1 hm,m 
0 0 ... 0 hm+1,m (m+1)×m

Temos
AQm = Qm+1 Hm+1,m . (8.28)
Rodney Josué Biezuner 152

Observe que Qm é uma isometria (embora não necessariamente um isomorfismo isométrico, a não ser que
m = n) e que Hm+1,m é uma matriz de Hessenberg superior, não quadrada, com entradas diagonais posi-
tivas. Denotaremos por Hm a matriz de Hessenberg superior quadrada obtida através de Hm+1,m quando
suprimimos a última linha desta. Segue que
£ ¤
AQm = Qm Hm + qm+1 0 . . . 0 hm+1,m
ou
AQm = Qm Hm + qm+1 hm+1,m etm . (8.29)
8.4 Proposição. Suponha que q1 , . . . , qm+1 são vetores ortonormais,
£ ¤
Qm = q1 . . . qm ,
e que Hm é uma matriz de Hessenberg superior com hj+1,j > 0 para j = 1, . . . , m. Embora estes
possam ter sido obtidos por qualquer processo, suponha que eles satisfazem (8.29).
Então q1 , . . . , qm+1 são exatamente os vetores produzidos pelo processo de Arnoldi com vetor inicial
q1 . Em outras palavras, dada uma matriz A, os objetos em (8.29) são unicamente determinados pela
primeira coluna de Qm .
Se q, Aq, . . . , Am q são linearmente independentes, então hm+1,m 6= 0. Se eles são linearmente dependentes,
então hm+1,m = 0 e
AQm = Qm Hm . (8.30)
Em particular, isso implica que hq1 , . . . , qm i são invariantes sob A e que os autovalores de Hm são autovalores
de A, como o próximo resultado mostra:
8.5 Proposição. Suponha que x1 , . . . , xm ∈ Fn são linearmente independentes e sejam S = hx1 , . . . , xm i e
£ ¤
X = x1 . . . xm n×m
Então S é invariante sob A ∈ Mn (F) se e somente se existe algum B ∈ Mm (F) tal que
AX = XB.
Além disso, todo autovalor de B é um autovalor de A com autovetor correspondente em S.
Prova. Se existe tal B, então
m
X
Axj = xi bij ∈ S.
i=1
Reciprocamente, se X é invariante sob A, então para cada ı́ndice j = 1, . . . , m existem escalares bij tais que
m
X
Axj = bij xi .
i=1

Defina B = (bij ).
Se w é um autovetor de B com autovalor λ, então v = Xw ∈ S é um autovetor de A com autovalor λ. ¥
Se m não é muito grande, podemos então usar o algoritmo QR para encontrar os autovalores de Hm . Na
prática, dificilmente obteremos hm+1,m = 0 exatamente, mas se hm+1,m é próximo de zero podemos esperar
que estamos próximos de um subespaço invariante e, portanto, que os autovalores de Hm são próximos aos
autovalores de A. O próximo resultado mostra que mesmo na eventualidade em que hm+1,m não é pequeno,
alguns dos autovalores de Hm podem ser boas aproximações dos autovalores de A.
8.6 Teorema. Sejam Qm , Hm e hm+1,m gerados pelo processo de Arnoldi. Seja λ um autovalor de Hm
com autovetor unitário x. Seja v = Qm x. Então
kAv − λvk = |hm+1,m | |xm | ,
onde xm denota a última componente de x.
Rodney Josué Biezuner 153

8.4.3 Método de Lanczos


Para matrizes simétricas reais, o processo de Arnoldi assume uma forma bem mais simples, porque a matriz
de Hessenberg Hm é simétrica e portanto é uma matriz tridiagonal. Neste caso, o processo de Arnoldi é
chamado o método de Lanczos.
Referências Bibliográficas

[Asmar] Nakhlé ASMAR, Partial Differential Equations and Boundary Value Problems, Pren-
tice Hall, 2000.
[Aronszajn] N. ARONSZAJN, A unique continuation theorem for solutions of elliptic partial dif-
ferential equations of second order, J. Math. Pures Appl. 36 (1957), 235-239.
[Bandle] Catherine BANDLE, Isoperimetric Inequalities and Applications, Pitman, 1980.
[Berard1] Pierre BÉRARD, Transplantation et isospectralité, Math. Ann. 292 (1992), pp. 547–
559
[Berard2] Pierre BÉRARD, Domaines plans isospectraux à la Gordon-Webb-Wolpert: une
preuve élémentaire, Afrika Mat. 3 (1993), no. 1, 135–146.
[Biezuner] Rodney Josué BIEZUNER, Notas de Aula: Equações Diferenciais Parciais, UFMG,
2005.
[BHM] William L. BRIGGS, Van Emden HENSON e Steve F. McCORMICK, A Multigrid
Tutorial, SIAM, 2000.
[Chapman] S. J. CHAPMAN, Drums That Sound the Same, American Mathematical Monthly,
102 (1995), no. 2, 124–138.
[Cheng] Shiu-Yuen CHENG, Eigenfunctions and nodal sets, Comment. Math. Helvetici 51
(1976), 43–55.
[Courant-Hilbert] Richard COURANT e David HILBERT, Methods of Mathematical Physics, Wiley-
Interscience, 1953.
[Demmel] James W. DEMMEL, Applied Numerical Linear Algebra, SIAM, 1997.
[Driscoll] Tobin A. DRISCOLL, Eigenmodes of isospectral drums, SIAM Review 39 (1997), no.
1, 1–17.

[Evans] Lawrence C. EVANS, Partial Differential Equations, AMS, 1998.


[Gilbarg-Trudinger] David GILBARG e Neil S. TRUDINGER, Elliptic Partial Differential Equations of
Second Order, 2nd Ed., Springer-Verlag, 1983.
[Gladwell-Zhu] G. M. L. GLADWELL and H. ZHU, Courant’s Nodal Line Theorem and Its Dis-
crete Counterparts, The Quarterly Journal of Mechanics and Applied Mathematics
55 (2002), 1-15.
[GWW1] Carolyn GORDON, David L. WEBB e Scott WOLPERT, One cannot hear the shape
of a drum, Bulletin of the American Mathematical Society 27 (1992), n. 1, 134–138.

154
Rodney Josué Biezuner 155

[GWW2] Carolyn GORDON, David L. WEBB e Scott WOLPERT, Isospectral plane domains
and surfaces via Riemannian orbifolds, Inventiones Mathematicae 110 (1992), n. 1,
1–22.
[Hackbusch] W. HACKBUSCH, Elliptic Differential Equations: Theory and Numerical Treatment,
Springer Series in Computational Mathematics 18, Springer, 1992.
[Herrman] H. HERRMANN, Beziehungen zwischen den Eigenwerten und Eigenfunktionen ver-
schiedener Eigenwertprobleme, Math. Z. 40 (1935), 221–241.

[Heuveline] Vincent HEUVELINE, On the computation of a very large number of eigenvalues for
selfadjoint elliptic operators by means of multigrid methods, Journal of Computational
Physics 184 (2003), 321–337.
[Horn-Johnson] Roger A. HORN e Charles R. JOHNSON, Matrix Analysis, Cambridge University
Press, 1985.
[Johnson] Claes JOHNSON, Numerical solutions of partial differential equations by the finite
element method, Cambridge, 1987.
[Jost] Jürgen JOST, Partial Differential Equations, Graduate Texts in Mathematics 214,
Springer-Verlag, 2002.
[Kac] M. KAC, Can one hear the shape of a drum?, American Mathematical Monthly 73
(1966), no. 4, part II, 1–23.
[Kuttler-Sigillito] J. R. KUTTLER e V. G. SIGILLITO, Eigenvalues of the Laplacian in two dimensions,
SIAM REVIEW 26 (1984) no. 2, 163–193.
[Milnor] J. MILNOR, Eigenvalues of the Laplace operator on certain manifolds, Proceedings
of the National Academy of Sciences USA 51 (1964), 542.
[Pleijel] A. PLEIJEL, Remarks on Courant’s nodal line theorem, Comm. Pure Appl. Math. 9
(1956), 543–550.
[Protter] M. H. PROTTER, Can one hear the shape of a drum? Revisited, SIAM REVIEW
29 (1987) no. 2, 185–197.
[Rosser1] J. Barkley ROSSER, Nine point difference solutions for Poisson’s equation, Comp.
Math. Appl. 1 (1975), 351–360.
[Rosser2] J. Barkley ROSSER, Finite-difference solution of Poisson’s equation in rectangles of
arbitrary proportions, Zeitschrift für Angewandte Mathematik und Physik (ZAMP)
28 (1977), no.2, 185–196.
[Sridhar-Kudrolli] S. SRIDAR e A. KUDROLLI, Experiments on not “hearing the shape” of drums,
Physical Review Letters 72 (1994), 2175–2178.
[Strang] Gilbert STRANG, Linear Algebra and its Applications, 3rd Ed., Harcourt Brace Jo-
vanovich, 1988.
[Strikwerda] John C. STRIKWERDA, Finite Difference Schemes and Partial Differential Equa-
tions, 2nd Ed., SIAM, 2004.
[Thomas1] J. W. THOMAS, Numerical Partial Differential Equations: Finite Difference Meth-
ods, Texts in Applied Mathematics 22, Springer, 1995.
Rodney Josué Biezuner 156

[Thomas2] J. W. THOMAS, Numerical Partial Differential Equations: Conservation Laws and


Elliptic Equations, Texts in Applied Mathematics 33, Springer, 1999.

[Uhlenbeck1] K. UHLENBECK, Eigenfunctions of Laplace operator, Bulletin of the American


Mathematical Society 78 (1972), 1073–1076.

[Uhlenbeck2] K. UHLENBECK, Generic properties of eigenfunctions, American Journal of Math-


ematics 98 (1976), 1059–1078.
[Vigneras] Marie-France VIGNÉRAS, Varietés riemanniennes isospectrales et non isometriques,
Annals of Mathematics 91 (1980), 21–32.
[Wat1] K. WATANABE, Plane Domains Which Are Spectrally Determined, Annals of Global
Analysis and Geometry 18 (2000), no. 5, 447–475.
[Wat2] K. WATANABE, Plane Domains Which Are Spectrally Determined II, J. Inequal.
Appl. 7 (2002), no. 1, 25–47.
[Watkins] David S. WATKINS, Fundamentals of Matrix Computations, 2nd Ed., John Wiley &
Sons, 2002.
[Weyl] H. WEYL, Über die Asymptotische Verteilung der Eigenwerte, Nachr. Konigl. Ges.
Wiss. Göttingen (1911), 110–117.
[Young] David M. YOUNG, Iterative Solutions of Large Linear Systems, Academic Press,
1971.
[Zelditch] S. ZELDITCH, Spectral determination of analytic bi-axisymmetric plane domains,
Geometric and Functional Analysis 10 (2000), no. 3, 628–677.

You might also like