Professional Documents
Culture Documents
Autovalores do Laplaciano
1
Rodney Josué Biezuner
Departamento de Matemática
Instituto de Ciências Exatas (ICEx)
Universidade Federal de Minas Gerais (UFMG)
16 de novembro de 2006
1
E-mail: rodney@mat.ufmg.br; homepage: http://www.mat.ufmg.br/∼rodney.
Sumário
1 Os Autovalores do Laplaciano 4
1.1 Motivação para o Estudo dos Autovalores do Laplaciano . . . . . . . . . . . . . . . . . . . . . 4
1.1.1 Método de Expansão em Autofunções . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.2 Problema Isospectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Princı́pio do Máximo Fraco: O Laplaciano não possui Autovalores Negativos . . . . . . . . . 10
1.4 Métodos Variacionais para Autovalores de Operadores Lineares . . . . . . . . . . . . . . . . . 12
1.5 Os Espaços de Sobolev W 1,2 e W01,2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5.1 A Derivada Fraca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5.2 Espaços de Sobolev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5.3 Propriedades dos Espaços de Sobolev . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.6 Existência e Unicidade de Soluções para o Laplaciano através do Método Variacional . . . . . 18
1.6.1 Soluções Fracas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.6.2 Existência, Unicidade e Regularidade de Soluções Fracas . . . . . . . . . . . . . . . . . 18
1.7 O Espectro do Laplaciano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.7.1 Existência e Caracterização Variacional dos Autovalores do Laplaciano . . . . . . . . . 21
1.7.2 Comparação de Autovalores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.8 Conjunto Nodal e Domı́nios Nodais de uma Autofunção . . . . . . . . . . . . . . . . . . . . . 30
1.8.1 Princı́pio do Máximo Forte: o Primeiro Autovalor do Laplaciano é Simples . . . . . . 30
1.8.2 Conjunto Nodal e Domı́nios Nodais de Autofunções do Laplaciano . . . . . . . . . . . 32
1.9 Multiplicidade dos Autovalores do Laplaciano . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1
Rodney Josué Biezuner 2
Os Autovalores do Laplaciano
Seja Ω ⊂ Rn um aberto limitado. O problema de autovalor para o laplaciano consiste em encontrar os valores
λ tais que
−∆u = λu em Ω (1.1)
admite soluções não triviais, com alguma condição de fronteira imposta sobre u. A equação de autovalor do
laplaciano também é conhecida como equação de Helmholtz. Nestas notas, consideraremos o problema de
autovalor com condição de Dirichlet
½
−∆u = λu em Ω,
(1.2)
u=0 sobre ∂Ω,
O problema é tradicionalmente escrito nesta forma, com o sinal negativo multiplicando o laplaciano, porque
assim todos os autovalores são não-negativos. No caso do problema de Dirichlet, este fato segue imediata-
mente do princı́pio do máximo. De fato, este implica que todos os autovalores, se existirem, devem ser
positivos, como veremos neste capı́tulo. Por outro lado, zero é um autovalor no problema de Neumann, pois
as funções constantes são autofunções associadas a este.
4
Rodney Josué Biezuner 5
onde os coeficientes an , bn são determinados pelas condições iniciais (posição inicial e velocidade inicial da
membrana):
∞
X
f (x) = an Fn (x) ,
n=1
X∞ p
g (x) = bn λn Fn (x) ,
n=1
O método de expansão em autofunções também pode ser usado para resolver o problema de Neumann
da equação da onda ou outros problemas mais gerais. Nestes casos, devem ser buscados os autovalores do
laplaciano de acordo com a condição de fronteira considerada.
O método de expansão em autofunções também pode ser usado para resolver o problema do calor com
as condições de fronteira apropriadas. Por exemplo, para o problema de Dirichlet
ut = K∆u se x ∈ Ω e t > 0,
u (x, 0) = f (x) se x ∈ Ω,
u (x, t) = 0 se x ∈ ∂Ω e t > 0,
onde os coeficientes an são determinados pelas condição inicial (distribuição de temperaturas inicial na placa
bidimensional ou no objeto tridimensional):
∞
X
f (x) = an Fn (x) ,
n=1
isto é, Z
an = f (x)Fn (x) dx.
Ω
espectros de Dirichlet e de Neumann. Os contra-exemplos que eles obtiveram têm o formato de uma região
poligonal, não-convexa, e o método permite a obtenção de uma larga coleção de contra-exemplos. Os
primeiros 54 autovalores do primeiro contra-exemplo de Gordon, Webb e Wolpert, que ficou conhecido como
os tambores GWW, foram encontrados experimentalmente por Sridhar e Kudrolli [Sridhar-Kudrolli]; eles
construı́ram cavidades de microondas com o formato da região poligonal e mediram ressonâncias em ondas
magnéticas transversais, que obedecem a equação de Helmoltz. Posteriormente, vários autores calcularam
autovalores e autofunções dos tambores GWW através de métodos numéricos; veja [Driscoll], [Heuveline] e
as referências nestes artigos.
Uma demonstração mais simples e versátil do resultado de Gordon, Webb e Wolpert, foi dada por Berard
[Berard2], usando a chamada técnica de transplantação de autofunções, introduzida pelo próprio [Berard1].
Os domı́nios são construı́dos a partir de translações, rotações e reflexões de uma única forma, tal como um
triângulo, sem sobreposições. Dada uma autofunção em um domı́nio, pode-se prescrever uma função sobre
o outro domı́nio cujos valores sobre cada parte são combinações lineares dos valores da autofunção sobre
várias das partes do primeiro domı́nio. As combinações são escolhidas de modo a satisfazer as condições
de fronteira e igualar valores da função e suas derivadas nas interfaces entre as partes. O resultado é uma
autofunção na segunda região tendo o mesmo autovalor. Para completar a prova de isospectralidade, basta
mostrar que o procedimento é invertı́vel. Usando esta técnica, Chapman [Chapman] obteve alguns exemplos
que podem ser explicados em nı́vel elementar através de dobraduras de papel e até mesmo um exemplo onde
os autovalores do laplaciano podem ser calculados explicitamente (este exemplo consiste de dois domı́nios
cada um com duas componentes conexas, um retângulo e um triângulo isósceles reto; veja Exemplo 4 na
próxima seção).
Todos os contra-exemplos dados nas referências acima são de domı́nios não-convexos ou com quinas.
Watanabe ([Wat1], [Wat2]) determinou a existência de uma classe não-enumerável de domı́nios suaves que
não é um disco (incluindo exemplos convexos e não-convexos) que são determinados pelos espectros de Dirich-
let ou de Neumann do laplaciano. Outros exemplos de domı́nios determinados pelo espectro do laplaciano,
com a propriedade adicional de serem analı́ticos reais e simétricos com respeito a reflexões em relação a um
eixo horizontal e a um eixo vertical, foram dados por Zelditch [Zelditch]. A identificação de todas as classes
de domı́nios que são determinados pelo espectro do laplaciano é um problema em aberto.
1.2 Exemplos
Exemplo 1. Os autovalores do laplaciano para o problema de Dirichlet no caso unidimensional
½
−u00 = λu em [0, L] ,
u (0) = u (L) = 0,
são
n2 π 2
λn = , n ∈ N.
L2
As autofunções correspondentes são
nπx
un (x) = sen .
L
¤
Exemplo 2. Os autovalores do laplaciano para o problema de Dirichlet no retângulo R = [0, a] × [0, b] ⊂ R2
½
− (uxx + uyy ) = λu em R,
u=0 sobre ∂R,
são µ ¶
2 n2 m2
λnm = π + , n, m ∈ N.
a2 b2
Rodney Josué Biezuner 8
são µ ¶
n2 m2
λnm = π 2 2
+ 2 , n, m ∈ N.
c c
As autofunções correspondentes são
nπx mπy mπx nπy
unm (x, y) = sen sen − sen sen .
c c c c
¤
Exemplo 4. [Chapman] A partir dos Exemplos 2 e 3 podemos construir dois domı́nios planos isospectrais
Ω1 e Ω2 que não são isométricos. De fato, cada Ωi é a união disjunta de um retângulo e um triângulo
isósceles reto:
Ω1 = R1 ∪ T1 ,
Ω2 = R2 ∪ T2 ,
n n2 m2 N2
n, m ∈ N. Se n é par, tomamos N = m e M = , de modo que + = + M 2 ; se m é par,
2 4 4 4
m
tomamos N = n e M = para produzir o mesmo resultado.
2
Portanto,
ΛΩ1 = ΛΩ2
embora Ω1 e Ω2 não sejam congruentes. Observe que, como requer o resultado obtido por Weil
(discutido
√ na seção anterior), Ω1 e Ω2 possuem a mesma área igual a 2, o mesmo perı́metro igual a
8 + 2 2 e obviamente o mesmo número de componentes conexas. ¤
Exemplo 5. Os autovalores do laplaciano para o problema de Dirichlet no paralelepı́pedo P = [0, a]×[0, b]×
[0, c] ⊂ R3 ½
− (uxx + uyy + uzz ) = λu em P,
u=0 sobre ∂P,
são µ ¶
2 n2 m2 k2
λnmk = π + + , n, m, k ∈ N.
a2 b2 c2
As autofunções correspondentes são
nπx mπy kπz
unmk (x, y) = sen sen sen .
a b c
¤
© ª
Exemplo 6. Os autovalores do laplaciano para o problema de Dirichlet no disco D = x ∈ R2 : kxk 6 R
µ ¶
1 1
− urr + ur + + 2 uθθ = λu se 0 < r < 1 e 0 < θ < 2π,
r r
u=0 se r = R e 0 < θ < 2π,
são ³α ´2
n,m
λnm = , n = 0, 1, 2, . . . , m = 1, 2, . . .
R
onde αn,m é o m-ésimo zero positivo da função de Bessel do primeiro tipo Jn
(−1)k ³ r ´2k+n
∞
X
Jn (r) = .
k!(k + n)! 2
k=0
Note que para m = 1, 2, . . . temos duas autofunções distintas para um dado autovalor, isto é, tais
autovalores têm multiplicidade pelo menos igual a 2. ¤
© ª
Exemplo 7. Os autovalores do laplaciano para o problema de Dirichlet na bola B = x ∈ R3 : kxk 6 R
µ ¶
2 1 ¡ ¢
− urr + ur + 2 uθθ + cot θ uθ + csc2 θuφφ = λu se 0 < r < 1, 0 < θ < 2π e 0 < φ < π
r r
u=0 se r = R, 0 < θ < 2π e 0 < φ < π
são µ ¶2
αn+ 12 ,m
λnm = , n = 0, 1, 2, . . . , m = 1, 2, . . .
R
Rodney Josué Biezuner 10
onde αn+ 12 ,m é o m-ésimo zero positivo da função de Bessel do primeiro tipo Jn+ 12
∞
X (−1)k ³ r ´2k+n+ 12
Jn+ 12 (r) = ¡ 1
¢ .
k!Γ k + n + 2 +1 2
k=0
1 dn ¡ 2 ¢n
Pn0 (r) = r −1 ,
2n n!
dr n
k¡ ¢k/2 dk 0
Pnk (r) = (−1) 1 − r2 P (r) , se 0 6 k 6 n,
drk n
k (n + k)! −k
Pnk (r) = (−1) P (r) , se − n 6 k < 0.
(n − k)! n
Se ∆u 6 0 em Ω, então
min u = min u.
Ω ∂Ω
Prova: Sejam
M = max u e m = max u
Ω ∂Ω
e suponha por absurdo que m < M . Então existe um ponto x0 ∈ Ω\∂Ω tal que u (x0 ) = M . Defina a função
M −m 2
v (x) = u (x) + |x − x0 | ,
4d2
Rodney Josué Biezuner 11
∆v (x) 6 0,
enquanto que, pela definição de v e pelo fato de u satisfazer a equação de Laplace, para todo x temos
M −m M −m
∆v (x) = ∆u (x) + 2
> > 0,
2d 2d2
uma contradição. Isso mostra que u atinge o seu máximo em ∂Ω.
Para provar a segunda afirmação, basta considerar −u e observar que min u = − max(−u). ¥
Defina a parte positiva e a parte negativa de uma função u respectivamente por
u+ = max(u, 0),
u− = min(u, 0).
Mas u = 0 em ∂Ω+ ∩ Ω, logo o máximo deve ser atingido em ∂Ω. O caso −∆u − λu 6 0 segue do primeiro
considerando −u. ¥
Rodney Josué Biezuner 12
1.3 Teorema. (Princı́pio de Rayleigh) Seja V um espaço vetorial com produto interno de dimensão n e
T : V −→ V um operador linear auto-adjunto. Sejam λ1 6 . . . 6 λn os autovalores de T , de modo que
λ1 é o menor autovalor de T e λn é o maior autovalor de T . Então
hT x, xi
λ1 = min 2 = min hT x, xi (1.4)
x∈V
x6=0
kxk x∈V
kxk=1
e
hT x, xi
λn = max 2 = max hT x, xi (1.5)
x∈V
x6=0
kxk x∈V
kxk=1
Prova: Seja B = {v1 , . . . , vn } uma base ortonormal de autovetores de T correspondentes aos autovalores
Pn
λ1 6 . . . 6 λn de T . Então, para todo x = xi vi ∈ V temos
i=1
* Ã n
! n
+ * n n
+ * n n
+
X X X X X X
hT x, xi = T xi vi , xj vj = xi T vi , xj vj = λi xi vi , xj vj
i=1 j=1 i=1 j=1 i=1 j=1
n
X n
X
= hλi xi vi , xj vj i = λi xi xj hvi , vj i
i,j=1 i,j=1
X n
= λi x2i .
i=1
1.4 Teorema. (Princı́pio de Minimax para Autovalores) Seja V um espaço vetorial com produto interno de
dimensão n e T : V −→ V um operador linear auto-adjunto. Sejam λ1 6 . . . 6 λn os autovalores de
Rodney Josué Biezuner 13
ou, dualmente,
hT x, xi
λj = max min hT x, xi = max min . (1.7)
W ∈Wj−1 x⊥W W ∈Wj−1 x⊥W kxk2
kxk=1 x6=0
Prova: Provemos primeiro (1.6). Seja W ⊂ V um subespaço de dimensão j. Primeiro mostraremos que
max hT x, xi > λj .
x∈W
kxk=1
de modo que ¡ ¢
dim W ∩ Z ⊥ > 1
P
n P
n
e existe um vetor x ∈ W ∩ Z ⊥ tal que kxk = 1. Escrevendo x = xk vk , temos kxk = x2k = 1, donde
k=j k=j
* n n
+ * n n
+ n
X X X X X
hT x, xi = xk T vk , xl vl = xk λk vk , xl vl = λk xk xl hvk , vl i
k=j l=j k=j l=j k,l=j
n
X Xn
= λk x2k > λj x2k = λj .
k=j k=j
O minimax é atingido em vj .
Vamos agora provar o princı́pio dual (1.7). Seja W ⊂ V um subespaço de dimensão j − 1. Primeiro
mostraremos que
min hT x, xi 6 λj .
x⊥W
kxk=1
Como antes, B = {v1 , . . . , vn } é uma base ortonormal de autovetores de T correspondentes aos autovalores
λ1 , . . . , λn . Seja Z = hv1 , . . . , vj i. Como W ⊥ tem dimensão n − (j − 1), temos
¡ ¢ ¡ ¢ ¡ ¢
n > dim W ⊥ + Z = dim W ⊥ + dim Z − dim W ⊥ ∩ Z = n − (j − 1) + j − dim W ⊥ ∩ Z ,
Rodney Josué Biezuner 14
de modo que ¡ ¢
dim W ⊥ ∩ Z > 1
P
j P
j
e existe um vetor x ∈ Z tal que x ⊥ W e kxk = 1. Escrevendo x = xk vk , temos kxk = x2k = 1, donde
k=1 k=1
* j j
+ * j j
+ j
X X X X X
hT x, xi = xk T vk , xl vl = xk λk vk , xl vl = λk xk xl hvk , vl i
k=1 l=1 k=1 l=1 k,l=1
j
X j
X
= λk x2k 6 λj x2k = λj .
k=1 k=1
O maximin é atingido em vj . ¥
para i = 1, . . . , n. Não há termos de fronteira exatamente porque ϕ tem suporte compacto em Ω.
Definição. Seja Ω ⊂ Rn um subconjunto aberto e u ∈ L1loc (Ω). Dizemos que uma função vi ∈ L1loc (Ω) é
uma derivada fraca de u, se Z Z
∂ϕ
u dx = − vi ϕ dx, (1.9)
Ω ∂xi Ω
∂u
vi = . (1.10)
∂xi
Dizemos que u é fracamente diferenciável se todas as derivadas fracas de primeira ordem de u
existirem. O espaço vetorial das funções fracamente diferenciáveis é denotado por W 1 (Ω).
Rodney Josué Biezuner 15
Quando existe, vi é únicamente determinada a menos de conjuntos de medida nula. Claramente C 1 (Ω) ⊂
W 1 (Ω): o conceito de derivada fraca é uma extensão do conceito clássico de derivada que mantém a validade
da fórmula de integração por partes.
Então, se ½
1 se 0 < x 6 1,
v(x) =
0 se 1 6 x < 2,
temos u0 (x) = v(x). De fato, dada ϕ ∈ C0∞ ((0, 2)), temos
Z 2 Z 1 Z 2
uϕ0 dx = xϕ0 dx + ϕ0 dx
0 0 1
Z 1
= ϕ(1) − 0 − ϕ dx + 0 − ϕ(1)
0
Z 2
=− vϕ dx.
0
Então u não possui uma derivada fraca. Com efeito, suponha por absurdo que exista uma função
v ∈ L1loc ((0, 2)) satisfazendo
Z 2 Z 2
uϕ0 dx = − vϕ dx,
0 0
ou seja, Z Z
1 2
ϕ(1) = ϕ dx + vϕ dx.
0 0
para toda ϕ ∈ C0∞ ((0, 2)). Escolhendo uma seqüência de funções-teste (ϕm ) ⊂ C0∞ ((0, 2)) satisfazendo
ϕm (1) = 1, 0 6 ϕm 6 1 e ϕm (x) → 0 para todo x 6= 1, obtemos através do teorema da convergência
dominada de Lebesgue que
·Z 1 Z 2 ¸
1 = lim ϕm (1) = lim ϕm dx + vϕm dx = 0,
m→∞ m→∞ 0 0
uma contradição. ¤
Rodney Josué Biezuner 16
Estes exemplos não são acidentais. É possı́vel provar que uma função real em uma variável real possui uma
derivada fraca se e somente se ela for absolutamente contı́nua (a menos de modificações em conjuntos de
medida nula); em particular, isso implica que ela é diferenciável no sentido clássico em quase todo ponto. No
caso de funções de várias variáveis, pode-se provar que uma função u ∈ L1loc (Ω) é fracamente diferenciável
se e somente se ela é igual, a menos de um conjunto de medida nula, a uma função que (1) é absolutamente
contı́nua em quase todos os segmentos em Ω paralelos aos eixos coordenados e (2) as derivadas parciais de
u são localmente integráveis. Para maiores detalhes, veja [Biezuner].
Definimos também
W01,2 (Ω) = fecho de C0∞ (Ω) em W 1,2 (Ω).
Em ambos os espaços vetoriais normados W 1,2 (Ω) e W01,2 (Ω) definimos o produto interno
Z n Z
X Xn ¿ À
∂u ∂v ∂u ∂v
hu, vi = uv + = hu, viL2 (Ω) + , . (1.13)
Ω i=1 Ω ∂xi ∂xi i=1
∂xi ∂xi L2 (Ω)
Desta forma, a norma definida acima é derivada deste produto interno. Ela também é equivalente à norma
µZ ¶1/2 n
ÃZ ¯ ¯ !1/2
X ¯ ∂u ¯2
kukW 1,2 (Ω) = |u|
2
+ ¯ ¯
¯ ∂xi ¯
Ω i=1 Ω
° n °
X
° ∂u °
= kukL2 (Ω) + ° °
° ∂xi ° 2 .
i=1 L (Ω)
1.3 Teorema. W 1,2 (Ω) é um espaço de Hilbert. Em particular, W01,2 (Ω) também é um espaço de Hilbert.
1.4 Teorema. C ∞ (Ω) ∩ W 1,2 (Ω) é denso em W 1,2 (Ω). Se Ω um aberto com fronteira de classe C 1 , então
C ∞ (Ω) ∩ W 1,2 (Ω) é denso em W 1,2 (Ω).
As propriedades de imersão compacta dos espaços de Sobolev são as que lhe conferem a sua grande
utilidade. Recordamos os conceitos de imersão contı́nua e imersão compacta:
Definição. Seja E um subespaço vetorial normado de um espaço normado F (ou seja, a norma em E não
precisa necessariamente ser a norma induzida de F ). Dizemos que a inclusão E ⊂ F é uma imersão
(contı́nua) se a aplicação inclusão I : E → F definida por Ix = x for contı́nua. Denotamos este fato
por
E ,→ F.
Se, além disso, a aplicação inclusão for compacta, dizemos que a imersão E ,→ F é compacta.
Denotaremos a imersão compacta de um espaço vetorial normado E em um espaço vetorial normado
F por
E ,→
→ F.
Como a aplicação inclusão é linear, o fato de existir uma imersão E ,→ F é equivalente à existência de uma
constante C tal que
kxkF 6 C kxkE para todo x ∈ E.
Em particular, se (xn ) é uma seqüência de Cauchy em E, então (xn ) também é uma seqüência de Cauchy
em F ; logo, se xn → x em E, então xn → x em F também. É claro que se E tem a norma induzida de F ,
então a inclusão E ⊂ F é uma imersão, com C = 1. Quando existe uma imersão E ,→ F , dizer que ela é
compacta é equivalente a dizer que seqüências limitadas de (E, k·kE ) possuem subseqüências convergentes
em (F, k·kF ).
Prova: Usando a norma equivalente introduzida acima, se E = W 1,2 (Ω) ou se E = W01,2 (Ω) temos
n °
X °
° ∂u °
kukE = kukL2 (Ω) + ° ° > kukL2 (Ω) .
° ∂xi °
i=1 L2 (Ω)
1.7 Teorema. (Teorema de Rellich–Kondrakhov) Seja Ω ⊂ Rn um aberto limitado com fronteira de classe
C 1 . Então
W 1,2 (Ω) ,→
→ L2 (Ω) ,
Observe que o Teorema 1.8 não é válido se trocamos W01,2 por W 1,2 porque as funções constantes pertencem
a W 1,2 e não satisfazem a desigualdade de Poincaré (pois têm derivada nula).
Rodney Josué Biezuner 18
Se os dados do problema de Dirichlet (1.14) são suficientemente regulares e a solução fraca também é
suficientemente regular, então ela é uma solução clássica:
Prova: Pela Primeira Identidade de Green, para todo v ∈ C0∞ (Ω) temos
Z Z Z Z
∂u
∇u · ∇v = v− (∆u) v = − (∆u) v.
Ω ∂Ω ∂ν Ω Ω
1.10 Proposição. (Unicidade da Solução Fraca) Seja f ∈ L2 (Ω). Se existir uma solução fraca para o
problema ½
∆u = f em Ω,
u=0 sobre ∂Ω,
então ela é única.
Rodney Josué Biezuner 19
Prova: O resultado segue imediatamente da estabilidade fraca da equação de Poisson, isto é, se u1 , u2 ∈
W 1,2 (Ω) satisfazem
∆u1 = f1 , ∆u2 = f2 em Ω
para f1 , f2 ∈ L2 (Ω), e
u1 − u2 ∈ W01,2 (Ω) ,
então existe uma constante C = C (n, Ω) tal que
De fato, temos Z Z
∇ (u1 − u2 ) · ∇v = − (f1 − f2 ) v,
Ω Ω
para todo v ∈ W01,2 (Ω), em particular para v = u1 − u2 . Portanto segue da desigualdade de Poincaré que
Z
2 2
k∇u1 − ∇u2 kL2 (Ω) = |∇ (u1 − u2 )|
ZΩ
= (f1 − f2 ) (u1 − u2 )
Ω
6 kf1 − f2 kL2 (Ω) ku1 − u2 kL2 (Ω)
6 C kf1 − f2 kL2 (Ω) k∇u1 − ∇u2 kL2 (Ω) ,
donde
k∇u1 − ∇u2 kL2 (Ω) 6 C kf1 − f2 kL2 (Ω) .
Novamente usando a desigualdade de Poincaré, isso é suficiente para estabelecer (1.15). ¥
No caso do problema de Dirichlet para a equação de Poisson, a existência de uma solução fraca é imedi-
atamente estabelecida pelo equivalente ao princı́pio de Dirichlet visto no inı́cio do capı́tulo anterior:
1.11 Teorema. (Existência da Solução Fraca) Sejam f ∈ L2 (Ω). Então existe uma única solução fraca
u ∈ W01,2 (Ω) para o problema ½
∆u = f em Ω,
(1.16)
u=0 sobre ∂Ω.
Afirmamos que um ponto crı́tico u deste funcional é uma solução fraca de (1.16). De fato, se u é um ponto
crı́tico de I, então a derivada direcional de I na direção de qualquer v ∈ W01,2 (Ω) é igual a 0, logo
· Z Z ¯
d d 1 ¯
f (u + tv)¯¯
2
0= [I (u + tv)|t=0 = |∇ (u + tv)| +
dt dt 2 Ω Ω t=0
Z Z
= ∇u · ∇v + fv
Ω Ω
para todo v.
Para provar o teorema, basta então encontrar uma função u ∈ W01,2 (Ω) que minimiza I, isto é, u tal que
µ Z Z ¶
1 2
I (u) = min |∇v| dx + f v ,
v∈W01,2 (Ω) 2 Ω Ω
Rodney Josué Biezuner 20
pois um ponto de mı́nimo é um ponto crı́tico de um funcional diferenciável. Pela desigualdade de Poincaré,
o funcional I é limitado por baixo, pois
Z Z
1 2
I (v) = k∇vkL2 (Ω) + f (v − g) + fg
2 Ω Ω
¯Z ¯ Z
1 ¯ ¯
> k∇vkL2 (Ω) − ¯¯ f (v − g)¯¯ +
2
fg
2 Ω Ω
Z
1 2
> k∇vkL2 (Ω) − kf kL2 (Ω) k(v − g)kL2 (Ω) + fg
2 Ω
Z
1 2
> k∇vkL2 (Ω) − C kf kL2 (Ω) k∇ (v − g)kL2 (Ω) + fg
2 Ω
Z
1 2
> k∇vkL2 (Ω) − C kf kL2 (Ω) k∇vkL2 (Ω) + f g − C kf kL2 (Ω) k∇gkL2 (Ω) ,
2 Ω
t2
e a função real h (t) = − at + b é limitada por baixo para t ∈ R, quaisquer que sejam os valores de a, b ∈ R.
2
Podemos então definir
I0 = inf
1,2
I (u) .
v∈W0 (Ω)
É fácil ver, que o funcional I é convexo. De fato, isto é uma conseqüência imediata da convexidade da função
2
x 7→ |x|
Z Z
2
I (tu + (1 − t) v) = |t∇u + (1 − t) ∇v| dx + f (tu + (1 − t) v)
ZΩ h i
Ω
Z Z
2 2
6 t |∇u| + (1 − t) |∇v| dx + t f u + (1 − t) fv
Ω Ω Ω
= tI (u) + (1 − t) I (v) .
2
A convexidade da função x 7→ |x| por sua vez pode ser provada do seguinte modo:
¡ ¢ 2 h i
2 2 2 2 2
|tx + (1 − t) y| − t |x| − (1 − t) |y| = t2 − t |x| + 2t (1 − t) x · y + (1 − t) − (1 − t) |y|
2
= −t (1 − t) |x − y| 6 0.
Logo, µ ¶
uk + ul 1 1
I0 6 I 6 I (uk ) + I (ul ) → I0
2 2 2
quando k, l → ∞. Por outro lado, temos
Z Z Z Z ¯ µ ¶¯2
1 ¯ uk + ul ¯¯
2
|∇ (uk − ul )| dx =
2
|∇uk | dx +
2
|∇ul | dx − 2 ¯
2 Ω ¯∇ 2 ¯ dx
ZΩ Ω
Z Z Ω
Z
2 2
= |∇uk | dx + 2 f uk + |∇ul | dx + 2 f ul
Ω Ω Ω Ω
Z ¯ µ ¶¯2 Z µ ¶
¯ uk + ul ¯¯ uk + ul
−2 ¯
¯∇ 2 ¯ dx − 4 f
2
Ω Ω
µ ¶
uk + ul
= 2I (uk ) + 2I (ul ) − 4I ,
2
Rodney Josué Biezuner 21
donde concluı́mos que (∇um ) é uma seqüência de Cauchy em L2 (Ω). Pela desigualdade de Poincaré temos
que
kuk − ul kL2 (Ω) 6 C k∇uk − ∇ul kL2 (Ω) ,
logo (um ) também é uma seqüência de Cauchy em L2 (Ω) e portanto (um ) é uma seqüência de Cauchy em
W01,2 (Ω), ou seja, existe u ∈ W01,2 (Ω) tal que um → u em W01,2 (Ω). Em particular, segue que I (u) = I0 .
Como um → u em L2 (Ω) e ∇um → ∇u em L2 (Ω), temos que
Z Z Z Z
1 2 1 2
|∇um | dx + f um → |∇u| dx + f u,
2 Ω Ω 2 Ω Ω
1.12 Teorema. Seja Ω ⊂ Rn um aberto limitado com fronteira de classe C ∞ . Seja f ∈ C ∞ (Ω).. Se
u ∈ W01,2 (Ω) é uma solução fraca de
½
∆u = f em Ω,
u=0 sobre ∂Ω,
¡ ¢
então u ∈ C ∞ Ω .
Definição. Dizemos que u ∈ W01,2 (Ω) é uma solução fraca para o problema de autovalor do laplaciano
para condição de fronteira de Dirichlet
½
−∆u = λu em Ω,
u=0 sobre ∂Ω,
se Z Z
∇u · ∇v = λ uv para todo v ∈ W01,2 (Ω) . (1.17)
Ω Ω
1.13 Teorema. Seja Ω ⊂ Rn um aberto limitado com fronteira de classe C ∞ . Seja λ ∈ R. Se u ∈ W01,2 (Ω)
é uma solução fraca de ½
−∆u = λu em Ω,
u=0 sobre ∂Ω,
¡ ¢
então u ∈ C ∞ Ω .
1.14 Teorema. Seja Ω ⊂ Rn um aberto limitado. Então o problema de autovalor
0 < λ 1 6 λ2 6 . . . 6 λj 6 . . .
Rodney Josué Biezuner 22
tais que
λj → ∞,
e autofunções {uj } que constituem um sistema ortonormal completo para L2 (Ω), isto é,
∞
X
v= αi ui
i=1
No entanto, nossas funções estão em W01,2 (Ω) e em geral não possuem derivadas parcias de segunda ordem
e portanto seus laplacianos não estão definidos. Porém, lembrando que C0∞ (Ω) é denso em W01,2 (Ω) e a
primeira identidade de Green para funções em C0∞ (Ω) toma a forma
Z Z Z
∂u
h−∆u, uiL2 (Ω) = (−∆u) u = h∇u, ∇ui − u = h∇u, ∇uiL2 (Ω)
Ω Ω ∂Ω ∂η
logo (uk ) é uma seqüência limitada em W01,2 (Ω). Segue do Teorema de Rellich-Kondrakhov que, a menos
de uma subseqüência, uk → u em L2 (Ω) e, portanto, kukL2 (Ω) = 1, o que implica em particular que u 6= 0.
Afirmamos que uk → u em W01,2 (Ω). De fato, valem as identidades
2 2 2 2
k∇ (uk − ul )kL2 (Ω) + k∇ (uk + ul )kL2 (Ω) = 2 k∇uk kL2 (Ω) + 2 k∇ul kL2 (Ω) ,
2 2 2 2
kuk − ul kL2 (Ω) + kuk + ul kL2 (Ω) = 2 kuk kL2 (Ω) + 2 kul kL2 (Ω) = 4.
Rodney Josué Biezuner 23
2
A segunda identidade implica que kuk + ul kL2 (Ω) → 4 quando k, l → ∞. Usando a primeira identidade
juntamente com a desigualdade
2 2
k∇ (uk + ul )kL2 (Ω) > λ1 kuk + ul kL2 (Ω) ,
quando k, l → ∞, isto é, (∇uk ) é uma seqüência de Cauchy em L2 (Ω), o que prova a afirmação. Segue que
2
λ1 = k∇ukL2 (Ω)
e o Teorema de Poincaré implica que λ1 6= 0. Vamos denotar u = u1 . Para mostrar que u1 é uma solução
fraca de −∆u1 = λ1 u1 , observe que para todo v ∈ W01,2 (Ω) fixado temos
2 2
h∇ (u1 + tv) , ∇ (u1 + tv)iL2 (Ω) k∇u1 kL2 (Ω) + 2t h∇u1 , ∇viL2 (Ω) + t2 k∇u1 kL2 (Ω)
I (u1 + tv) = = 2 2
h(u1 + tv) , (u1 + tv)iL2 (Ω) ku1 kL2 (Ω) + 2t hu1 , viL2 (Ω) + t2 ku1 kL2 (Ω)
onde |t| é suficientemente pequeno para que o denominador nunca se anule. Como u1 é um mı́nimo para
este funcional, segue que
¯
dI ¯
0= (u + tv)¯¯
dt t=0
³ ´ ³ ´ ¯
2 h∇u1 , ∇viL2 (Ω) + 2t k∇u1 kL2 (Ω) ku1 + tvkL2 (Ω) − 2 hu1 , viL2 (Ω) + 2t ku1 kL2 (Ω) k∇ (u1 + tv)kL2 (Ω) ¯¯
2 2 2 2
= ¯
4
ku1 + tvkL2 (Ω) ¯
¯
t=0
2 2
2 h∇u1 , ∇viL2 (Ω) ku1 kL2 (Ω) − 2 hu1 , viL2 (Ω) k∇u1 kL2 (Ω)
= 4
ku1 + tvkL2 (Ω)
2 h∇u1 , ∇viL2 (Ω) − 2λ1 hu1 , viL2 (Ω)
= 4 ,
ku1 + tvkL2 (Ω)
ou seja, Z Z
∇u1 · ∇v = λ1 u1 v
Ω Ω
ui ∈ W01,2 (Ω) ,
λ1 6 . . . 6 λj−1 ,
−∆u = λi u em Ω,
e
hui , uk iL2 (Ω) = δik
para todos 1 6 i, k 6 j. Definimos
n o
Hj = v ∈ W01,2 (Ω) : hv, ui iL2 (Ω) = 0 para i = 1, . . . , j − 1 .
Rodney Josué Biezuner 24
Em outras palavras, Hj é o subespaço de Hilbert ortogonal ao subespaço de dimensão finita gerado pelas
autofunções u1 , . . . , uj−1 . Defina
λj = inf I (u) .
u∈Hj
λj > λj−1 .
O fato de que Hj é um subespaço fechado de W01,2 (Ω) permite repetir o mesmo argumento acima para obter
2
uj ∈ Hj tal que kuj kL2 (Ω) = 1, λj = k∇uj kL2 (Ω) . Também analogamente obtemos
Z Z
∇uj · ∇v = λj uj v
Ω Ω
para todo v ∈ Hj e a relação é trivialmente verdadeira para todo v ∈ W01,2 (Ω), já que uj é ortogonal ao
subespaço gerado por u1 , . . . , uj−1 . Portanto uj é uma solução fraca de −∆u = λj u em Ω.
Para ver que λj → ∞, suponha por absurdo que λj → λ0 . Então obtemos uma seqüência (uj ) ⊂ W01,2 (Ω)
de autofunções associadas aos autovalores λk tais que kuj kL2 (Ω) = 1 e
2
k∇uj kL2 (Ω) = λj → λ0 .
e
k
X
vk = αi ui ,
i=1
wk = v − vk .
donde
Por definição de λk ,
h∇wk , ∇wk iL2 (Ω) > λk+1 hwk , wk iL2 (Ω) ,
logo
2 1
kwk kL2 (Ω) = hwk , wk iL2 (Ω) 6 h∇v, ∇viL2 (Ω) → 0.
λk+1
Em particular, concluı́mos que
∞
X
v = lim vk + lim wk = αi ui em L2 (Ω) . (1.19)
i=1
donde
k
X k
X k
X
2
k∇vk kL2 (Ω) = αi2 h∇ui , ∇ui i = αi2 λi hui , ui i = λi αi2 .
i=1 i=1 i=1
Como
h∇wk , ∇wk iL2 (Ω) + h∇vk , ∇vk iL2 (Ω) = h∇v, ∇viL2 (Ω) ,
segue que
2 2
k∇vk kL2 (Ω) 6 k∇vkL2 (Ω) .
P
∞
Somando-se a isso o fato que os λi são não-negativos, concluı́mos que a série λi αi2 converge, de modo que
i=1
l
X
2 2
k∇ (wk − wl )kL2 (Ω) = k∇ (vl − vk )kL2 (Ω) = λi αi2
i=k+1
e portanto (∇wk ) também é uma seqüência de Cauchy em L2 (Ω), ou seja, (wk ) converge em W01,2 (Ω).
Conseqüentemente, em vista do resultado anterior, wk → 0 em W01,2 (Ω), logo
∞
X
2 2 2
k∇vkL2 (Ω) = lim k∇vk kL2 (Ω) + 2 lim h∇vk , ∇wk i + lim k∇wk kL2 (Ω) = λi αi2 .
i=1
Segue que (uj ) é uma seqüência ortonormal e o fecho do subespaço gerado por (uj ) é um espaço de Hilbert
contendo W01,2 (Ω) contido em L2 (Ω). Como W01,2 (Ω) = L2 (Ω), concluı́mos que {uj } é um sistema ortonor-
mal completo para L2 (Ω). ¥
2
Observação 1. Segue deste teorema, em particular,
P∞ que aquelas funções v em L (Ω) que não estão em
1,2
W0 (Ω) podem ser caracterizadas pelo fato que i=1 λi hv, ui iL2 (Ω) diverge.
Observação ¡2. ¢Pelo Teorema 1.13, se ∂Ω for de classe C ∞ , então as autofunções do problema de Dirichlet
estão em C ∞ Ω e são soluções clássicas.
A demonstração do resultado equivalente para o problema de autovalor com condição de Neumann é
análoga (veja [Jost]):
0 = λ0 6 λ1 6 λ2 6 . . . 6 λj 6 . . .
tais que
λj → ∞,
e autofunções {uj } que satisfazem
∂u
=0 sobre ∂Ω
∂η
e constituem um sistema ortonormal completo para L2 (Ω), isto é,
∞
X
v= αi ui
i=1
Na demonstração do Teorema 1.14 usamos o princı́pio de Rayleigh para obter o primeiro autovalor
do laplaciano como o mı́nimo do funcional de Rayleigh. Como os autovalores do laplaciano formam uma
seqüência infinita que cresce arbitrariamente em módulo, o funcional de Rayleigh para o laplaciano não
possui um máximo. Entretanto, da mesma forma que no caso de operadores lineares em dimensão finita,
podemos também derivar um princı́pio de minimax para obter os demais autovalores do laplaciano:
0 < λ 1 6 λ2 6 . . . 6 λj 6 . . .
Então, se Lj denota o conjunto dos subespaços vetoriais de W01,2 (Ω) de dimensão j, temos
h∇u, ∇uiL2 (Ω)
λj = min max h∇u, ∇uiL2 (Ω) = min max 2
(1.20)
L∈Lj u∈L
kuk=1
L∈Lj u∈L
u6=0
kukL2 (Ω)
ou, dualmente,
h∇u, ∇uiL2 (Ω)
λj = max min h∇u, ∇uiL2 (Ω) = max min 2
. (1.21)
L∈Lj−1 u⊥L
kuk=1
L∈Lj−1 u⊥L
u6=0
kukL2 (Ω)
O resultado análogo vale para os autovalores do laplaciano com condição de Neumann trocando-se
W01,2 (Ω) por W 1,2 (Ω) e λj por λj−1 .
Rodney Josué Biezuner 27
Prova: Vimos na demonstração do Teorema 1.13 que se L = hu1 , . . . , uj−1 i é o subespaço gerado pelas
primeiras j − 1 autofunções u1 , . . . , uj−1 do laplaciano, então
h∇u, ∇uiL2 (Ω)
λj = min 2 ;
u⊥L
u6=0
kukL2 (Ω)
de fato, o mı́nimo é realizado em u = uj . Por outro lado, se L0 = hu1 , . . . , uj i é o subespaço gerado pelas
primeiras j autofunções u1 , . . . , uj do laplaciano, também temos
h∇u, ∇uiL2 (Ω)
λj = max0 2 .
u∈L kukL2 (Ω)
u6=0
enquanto que
h∇uj , ∇uj iL2 (Ω)
2 = λj .
kuj kL2 (Ω)
P
n
Portanto, se u = ai ui ∈ L0 , temos
i=1
¿ À
P
n P
n
P
n
ai ∇ui , ai ∇ui a2i h∇ui , ∇ui iL2 (Ω)
h∇u, ∇uiL2 (Ω) h∇u, ∇uiL2 (Ω) i=1 i=1 L2 (Ω) i=1
= = ¿ À =
2
kukL2 (Ω) hu, uiL2 (Ω) P
n P
n Pn
ai u i , ai ui a2i hui , ui iL2 (Ω)
i=1 i=1 L2 (Ω) i=1
P
n P
n
λi a2i hui , ui iL2 (Ω) a2i hui , ui iL2 (Ω)
i=1
= Pn 6 λj i=1
Pn = λj ,
a2i hui , ui iL2 (Ω) a2i hui , ui iL2 (Ω)
i=1 i=1
e o máximo é realizado em u = uj .
Agora, para provar (1.20), seja L0 ⊂ Lj outro subespaço de W01,2 (Ω) de dimensão j, digamos L0 =
P
j
hv1 , . . . , vj i. Afirmamos que existe um vetor não nulo v = ai vi ∈ L0 tal que v ⊥ ui para i = 1, . . . , j − 1.
i=1
De fato, basta tomar uma das soluções não triviais do sistema homogêneo
P
j
hv, u1 i = ai hvi , u1 i = 0
i=1
..
.
Pj
hv, uj−1 i = ai hvi , uj−1 i = 0
i=1
que possui j − 1 equações e j incógnitas. Logo, disso e do Teorema 1.15 segue que
P
∞
2
P
∞
2 P
∞
2
2 λi hv, ui iL2 (Ω) λi hv, ui iL2 (Ω) λj hv, ui iL2 (Ω)
h∇v, ∇viL2 (Ω) k∇vkL2 (Ω) i=1 i=j i=j
2 = 2 = P
∞ = P
∞ > P
∞ = λj ,
kvkL2 (Ω) kvkL2 (Ω) 2
hv, ui iL2 (Ω)
2
hv, ui iL2 (Ω)
2
hv, ui iL2 (Ω)
i=1 i=j i=j
Rodney Josué Biezuner 28
e portanto
h∇u, ∇uiL2 (Ω)
max0 2 > λj .
u∈L kukL2 (Ω)
u6=0
que possui j − 1 equações e j incógnitas. Então algum dos vetores u1 , . . . , uj é perpendicular a L, digamos
ui . Logo, disso e do Teorema 1.13 segue que
¿ À2
P
∞
2
P
∞ P
j
P
j
2 λi hv, ui iL2 (Ω) λi ak uk , ui 2
a2i λi hui , ui iL2 (Ω)
h∇v, ∇viL2 (Ω) k∇vkL2 (Ω) i=1 i=1 k=1 L2 (Ω) i=1
2 = 2 = P
∞ = ¿ À2 = P∞
kvkL2 (Ω) kvkL2 (Ω) 2
hv, ui iL2 (Ω) P
∞ P
j 2
a2i hui , ui iL2 (Ω)
i=1
ak uk , ui i=1
i=1 k=1 L2 (Ω)
P
j
2
λj a2i hui , ui iL2 (Ω)
i=1
6 P
∞ = λj ,
2
a2i hui , ui iL2 (Ω)
i=1
e portanto
h∇u, ∇uiL2 (Ω)
min 2 6 λj ,
u⊥L
u6=0
kukL2 (Ω)
0 < λD D D
1 6 λ2 6 . . . 6 λk 6 . . .
0 = λN N N N
0 6 λ1 6 λ2 6 . . . 6 λk 6 . . .
λN D
j−1 6 λj
para todo j.
Rodney Josué Biezuner 29
Prova: Denotando
³ ´ n o
Lj W01,2 (Ω) = L ⊂ W01,2 (Ω) : L é um subespaço vetorial de dimensão j ,
¡ ¢ © ª
Lj W 1,2 (Ω) = L ⊂ W 1,2 (Ω) : L é um subespaço vetorial de dimensão j ,
λN
j−1 = min max h∇u, ∇ui 2 6 min max h∇u, ∇ui 2 = λD
j .
u∈L L (Ω) u∈L L (Ω)
L∈Lj (W 1,2 (Ω)) L∈Lj (W01,2 (Ω))
kuk=1 kuk=1
¥
O que acontece com os autovalores do laplaciano de um domı́nio Ω quando este aumenta? Se nos
restringirmos a simples aumentos de escala, a resposta é simples. Denote Ωa = {ax : x ∈ Ω}. Se u satisfaz
½
−∆u = λu em Ω,
u=0 sobre ∂Ω,
³x´
então v (x) = u satisfaz
a (
λ
−∆v = 2 v em Ωa ,
a
v=0 sobre ∂Ωa .
Em particular, se a > 1 (dilatação), então os autovalores do laplaciano em Ωa são menores que os autovalores
do laplaciano em Ω. No caso geral, ainda é verdade que os autovalores decrescem quando o domı́nio aumenta,
e no caso dos autovalores de Dirichlet isto é novamente uma conseqüência simples da caracterização minimax:
λj (Ω2 ) 6 λj (Ω1 )
para todo j.
Prova: Podemos considerar W01,2 (Ω1 ) ⊂ W01,2 (Ω2 ), porque qualquer função u ∈ W01,2 (Ω1 ) pode ser esten-
e ∈ W01,2 (Ω2 ) definindo-se
dida a uma função u
½
u (x) se x ∈ Ω1 ,
u
e (x) =
0 se x ∈ Ω2 \Ω1 .
λj (Ω2 ) = min max h∇u, ∇ui 2 6 min max h∇u, ∇ui 2 = λj (Ω1 ) .
u∈L L (Ω) u∈L L (Ω)
L∈Lj (W01,2 (Ω2 )) L∈Lj (W01,2 (Ω1 ))
kuk=1 kuk=1
Rodney Josué Biezuner 30
¥
No caso dos autovalores de Neumann, o resultado continua válido mas a demonstração é mais complicada
porque o operador extensão E : W 1,2 (Ω1 ) −→ W 1,2 (Ω2 ) não preserva a norma: em geral kEukW 1,2 (Ω2 ) >
kukW 1,2 (Ω1 ) (embora exista uma constante C > 0 tal que kEukW 1,2 (Ω2 ) 6 C kukW 1,2 (Ω1 ) , esta constante é
geralmente maior que 1) e por este motivo W 1,2 (Ω1 ) não pode ser considerado um subespaço de Hilbert de
W 1,2 (Ω2 ).
1.19 Lema. (Princı́pio do Máximo Forte) Seja Ω ⊂ Rn um aberto conexo. Seja u ∈ C 2 (Ω).
Se ∆u > 0 em Ω e u atinge o seu máximo no interior de Ω, então u é constante.
Se ∆u 6 0 em Ω e u atinge o seu mı́nimo no interior de Ω, então u é constante.
Prova: Provaremos a segunda afirmação, que será usada na seqüência; a demonstração da primeira é
análoga. Afirmamos que se ∆u > 0 em Ω, vale a seguinte desigualdade do valor médio: para qualquer bola
BR (x) ⊂⊂ Ω temos Z Z
1 1
u (x) > u= u, (1.22)
|BR | BR ωn Rn BR
onde ωn é o volume da bola unitária em Rn . Para provar esta desigualdade, defina para r ∈ (0, R] a função
Z
1
φ(r) = u.
|∂Br | ∂Br
e daı́
Z Z
0 1 1 y−x
φ (r) = ∇u(x + rω) · ω dω = ∇u(y) · ds
|∂B1 (0)| ∂B1 (0) |∂Br | ∂Br r
Z
1 ∂u
= ds,
|∂Br | ∂Br ∂ν
y−x
pois o vetor normal unitário à ∂Br (x) apontando para fora é exatamente o vetor . Mas, pelo Teorema
r
da Divergência e por hipótese, temos Z Z
∂u
= ∆u 6 0,
∂Br ∂ν Ω
Rodney Josué Biezuner 31
logo
φ0 (r) 6 0
e φ(r) é uma função decrescente. Portanto,
Z Z
1 1
u > u
|∂Br | ∂Br |∂BR | ∂BR
obtemos Z
1
u(x) > u. (1.23)
|∂BR | ∂BR
Em particular, como R é arbitrário, vale a desigualdade
Z
nωn rn−1 u(x) > u
∂Br
para todo r, e a desigualdade do valor médio (1.22) é obtida integrando-se esta equação de r = 0 até r = R.
Vamos agora provar o lema. Seja m = minΩ u e considere o conjunto A = {x ∈ Ω : u(x) = m}. Por
hipótese, A é não-vazio e fechado em Ω, pois u é contı́nua em Ω. Como Ω é conexo, para provar que A = Ω e
portanto que u é constante, basta provar que A é aberto. De fato, dado x ∈ A e uma bola BR = BR (x) ⊂⊂ Ω,
temos pela desigualdade do valor médio para funções harmônicas que
Z Z
1 1
m = u(x) > u> m = m.
|BR | BR |BR | BR
Se houvesse pelo menos um ponto em BR (x) cujo valor é estritamente maior que m, então a desigualdade
acima seria estrita, o que constituiria uma contradição. Concluı́mos que u ≡ m em BR (x), logo A é aberto.
¥
1.20 Lema. Seja Ω ⊂ Rn um aberto. Seja u ∈ C 2 (Ω) uma solução de −∆u = λu em Ω, λ > 0. Se u
atinge um mı́nimo igual a 0 no interior de Ω, então u é constante.
Prova: Se minΩ u = 0, em particular u > 0 em Ω. Logo, ∆u = −λu 6 0 em Ω. Pelo Princı́pio do Máximo
Forte, concluı́mos que u é constante. ¥
1.21 Teorema. Seja Ω ⊂ Rn um aberto limitado conexo. Então o problema de autovalor
½
−∆u = λu em Ω,
u=0 sobre ∂Ω,
possui uma solução positiva u1 > 0 em Ω. Além disso, qualquer outra autofunção associada a λ1 é
múltipla de u1 .
Prova: Para ¡ ¢simplificar a demonstração, assumiremos que Ω tem regularidade suficiente para que u ∈
C 2 (Ω) ∩ C 0 Ω de modo que podemos usar o Princı́pio do Máximo Forte clássico dado no lema anterior (um
princı́pio do máximo forte para funções em W01,2 (Ω) pode ser visto em [Gilbarg-Trudinger]). Pela formulação
variacional, se u é uma autofunção associada a λ1 , então |u| também
¡ ¢ é, pois I (u) = I (|u|). A teoria de
regularidade (Teorema 1.13) garante então que |u| ∈ C 2 (Ω) ∩ C 0 Ω também. Pelo lema anterior, u não
pode se anular no interior de Ω, pois isso implicaria que |u| atinge o seu mı́nimo no interior, logo u > 0.
Este argumento também implica que as autofunções associadas a λ1 são negativas ou positivas em Ω, logo
não podem ser ortogonais, e portanto o subespaço associado a λ1 só pode ser unidimensional. ¥
Mais geralmente, vale o resultado do Teorema 1.24 a seguir para todos os autovalores do laplaciano.
Rodney Josué Biezuner 32
O conjunto nodal de uj é simplesmente o conjunto dos pontos onde uj se anula; a terminologia nodal é oriunda
do estudo das vibrações de cordas e membranas em Mecânica. O Teorema 1.21 afirma que o conjunto nodal
de u1 é vazio; em particular, se Ω é conexo, então Ω\Γ1 possui uma componente conexa, isto é, apenas
um domı́nio nodal. Para as demais autofunções, o Teorema do Conjunto Nodal de Courant (Teorema 1.24
abaixo) afirma que o número de domı́nios nodais da autofunção uj não pode exceder j.
0 < λ 1 < λ 2 6 . . . 6 λj 6 . . .
onde o fator de escala βi é escolhido de tal forma que kwi kL2 (Ω) = 1. Observe que, como os domı́nios nodais
Ωi são disjuntos, as funções wi são ortogonais em L2 (Ω) e em W01,2 (Ω). Como
Z Z
∇uj · ∇v = λj uj v
Ω Ω
(embora wi seja uma autofunção do laplaciano em Ωi associada a λj , wi não é uma autofunção do laplaciano
em Ω associada a λj ; pelo Princı́pio da Continuação Única (veja o lema a seguir), uma autofunção que se
anula em um aberto, deve-se anular no domı́nio todo). Considere combinações lineares v dos wi tais que
kvkL2 (Ω) = 1, isto é,
Xm
v= ai wi
i=1
Em particular,
m
X m
X
h∇v, ∇viL2 (Ω) = a2i h∇wi , ∇wi iL2 (Ωi ) = a2i λj hwi , wi iL2 (Ωi ) = λj ,
i=1 i=1
ou seja,
h∇v, ∇viL2 (Ω)
= λj .
kvkL2 (Ω)
Por outro lado, podemos escolher a1 , . . . , am de tal forma que
possui m − 1 equações e m incógnitas. Para esta escolha de v, segue do Teorema 1.13 que
P
∞
2 P
∞
2 P
∞
2
2 λi hv, ui iL2 (Ω) λi hv, ui iL2 (Ω) λm hv, ui iL2 (Ω)
h∇v, ∇viL2 (Ω) k∇vkL2 (Ω) i=1 i=m i=m
2 = 2 = P
∞ = P
∞ > P
∞ = λm .
kvkL2 (Ω) kvkL2 (Ω) 2
hv, ui iL2 (Ω)
2
hv, ui iL2 (Ω)
2
hv, ui iL2 (Ω)
i=1 i=m i=m
Portanto,
λm 6 λj .
Como λj < λj+r , segue que λm < λj+r , donde m < n + r. ¥
Em particular, se λj é um autovalor simples, o número máximo de domı́nios nodais de uj é j. Para
mostrar que esta mesma estimativa vale para as demais autofunções, Courant e Hilbert produziram um
refinamento complicado do seu argumento no lema acima. A demonstração simplificada apresentada a
seguir é devida a Herrman [Herrman] e Pleijel [Pleijel] (reproduzida em [Gladwell-Zhu]) e é baseada no
Princı́pio da Continuação Única (uma demonstração deste pode ser encontrada em [Aronszajn]):
1.23 Lema. (Princı́pio da Continuação Única) Seja Ω ⊂ Rn um aberto limitado conexo. Se u é uma solução
de
−∆u = λu em Ω
que se anula em um aberto não vazio de Ω, então u ≡ 0.
1.24 Teorema. (Teorema do Conjunto Nodal de Courant) Seja Ω ⊂ Rn um aberto limitado conexo e
0 < λ 1 < λ 2 6 . . . 6 λj 6 . . .
Prova: Suponha por absurdo que uj tenha m > j domı́nios nodais. Defina wi e v como na demonstração
do Lema 1.22, escolhendo
aj+1 = . . . = am = 0,
Rodney Josué Biezuner 34
Observe que u∗ é uma função radialmente simétrica, não-crescente. Assumiremos os seguintes resultados
sem demonstração (para uma prova, veja [Bandle], Lema 2.4 e Corolário 2.1):
e Z Z
2 2
|∇u| > |∇u∗ | .
Ω Ω∗
Prova: Seja (un ) ⊂ W01,2 (Ω) uma seqüência minimizante para o quociente de Rayleigh I do primeiro
autovalor de Dirichlet λ1 (Ω) do laplaciano em Ω. Como I (|u|) = I (u), podemos assumir un > 0 para todo
n. Então u∗n ∈ W01,2 (D), onde D = Ω∗ é o disco de raio R que possui área A. Segue que
R 2 R 2 R 2
|∇un |
ΩR D
|∇u∗n | ΩR
|∇u|
λ1 (Ω) = lim inf > lim inf R 2 > min = λ1 (D)
u2
Ω n (u∗n ) u∈W01,2 (Ω)\{0} Ω
u2
D
2 2
α0,1 π 2 πα0,1
= = α = .
R2 πR2 0,1 A
¥
A desigualdade de Faber-Krahn entre outras coisas comprova a conjectura de Rayleigh de que entre todas
as regiões de mesma área, o disco tem o menor primeiro autovalor.
0 < λ 1 < λ 2 6 . . . 6 λj 6 . . .
1.30 Corolário. Seja Ω ⊂ R2 um aberto limitado conexo. Existe apenas um número finito de autovalores
λj para os quais o número máximo j de domı́nios nodais é atingido.
Rodney Josué Biezuner 36
Prova: A demonstração deste corolário depende da observação de que se u é uma autofunção associada a
um certo autovalor de Dirichlet λ e Ωi é qualquer domı́nio nodal de u, então λ é o primeiro autovalor do
laplaciano em Ωi , isto é,
λ1 (Ωi ) = λ.
¡ ¢
De fato, ui = u|Ωi é uma autofunção associada a λ em Ωi , pois ui ∈ C 2 (Ωi ) ∩ C 0 Ωi satisfaz −∆ui = λui
em Ωi e ui = 0 em ∂Ωi (pois ∂Ωi está contida na união do conjunto nodal de u e ∂Ω, onde u = 0). Além
disso, ui não muda de sinal em Ωi por definição de domı́nio nodal de u, logo possui apenas um domı́nio nodal
e portanto segue do Corolário 1.26 que ui é uma autofunção associada ao primeiro autovalor de Dirichlet em
Ωi .
Sejam Ω1 , · · · , Ωm , m 6 j, os domı́nios nodais de uma autofunção u associada a λj . Como λj = λ1 (Ωi )
para todo i, segue da Desigualdade de Faber-Krahn que
2
πα0,1
λj > ,
A (Ωi )
A (Ωi ) 1
2 > ,
πα0,1 λj
A (Ω) j
2 > .
πα0,1 λj
Se o número máximo m = j de domı́nios nodais fosse atingido para um número infinito de ı́ndices j, tomando
o limite nesta desigualdade quando j → ∞ para esta subseqüência de ı́ndices, terı́amos pela Lei de Weyl que
A (Ω) A (Ω)
2 > ,
πα0,1 4π
donde
α0,1 6 2.
Mas α0,1 = 2.404825558..., contradição. ¥
Com relação aos conjuntos nodais das autofunções do laplaciano, pode-se dizer que eles são altamente
regulares: o conjunto nodal de uma autofunção u do laplaciano em Ω ⊂ Rn é localmente composto de
hiperfı́cies de dimensão n − 1, que podem se intersectar em superfı́cies de dimensão menor que n − 1 (veja
[Cheng] para o enunciado preciso e sua demonstração). Estas hiperfı́cies não podem terminar no interior de
Ω, o que significa que ou elas são fechadas, ou elas começam e terminam na fronteira de Ω. Além disso, no
caso bidimensional, quando as curvas nodais se intersectam, ou quando elas interceptam a fronteira, elas o
fazem em ângulos iguais; assim, por exemplo, se uma curva nodal intercepta a fronteira, ela o faz em um
ângulo reto, enquanto que se duas curvas nodais interceptam a fronteira no mesmo ponto, elas o fazem em
ângulos de π/3 e guardam também um ângulo de π/3 entre si (veja [Courant-Hilbert]).
2
Exemplo 8. Como vimos no Exemplo 2, os autovalores de Dirichlet do laplaciano no quadrado Q = [0, π] ⊂
R2 são dados por
λnm = n2 + m2 , n, m ∈ N,
Rodney Josué Biezuner 37
Para A = 0, u tem uma reta nodal vertical (x = π/2); para B = 0, u tem uma reta nodal horizontal
(y = π/2); se A = ±B, u tem uma reta nodal diagonal (a reta y = x se A = −B e a reta y = −x + 1
se A = B); nos demais casos, a curva nodal é especificada pela equação transcendental
A cos y + B cos x = 0,
que é uma curva que intercepta a fronteira em dois pontos em ângulos retos. Em todos os casos, a
curva nodal de uma autofunção associada ao autovalor 5 divide o quadrado em dois domı́nios nodais.
O autovalor λ4 = 8 é simples, com o seu autoespaço gerado pela autofunção
cujo conjunto nodal é a união das retas vertical x = π/2 e horizontal y = π/2; ela possui portanto
quatro domı́nios nodais.
O autovalor λ5 = λ6 = 10 também tem multiplicidade 2 e o seu autoespaço é constituı́do pelas funções
da forma
u (x, y) = A sen x sen 3y + B sen 3x sen y, A, B ∈ R.
Para A = 0, u tem duas retas nodais verticais (x = π/3 e x = 2π/3); para B = 0, u tem duas retas
nodais horizontais (y = π/3 e y = 2π/3); em ambos os casos, temos três domı́nios nodais. Se A = −B,
u tem as duas diagonais do quadrado como retas nodais, originando quatro domı́nios nodais, enquanto
que se A = B, u tem uma curva nodal fechada
que divide o quadrado em apenas dois domı́nios nodais, a região interior à curva e a região exterior.
Pleijel verifica em [Pleijel] que os únicos autovalores do laplaciano no quadrado que possuem aut-
ofunções que assumem o número maximal de domı́nios nodais são λ1 = 2 (um domı́nio nodal),
λ2 = λ3 = 5 (dois domı́nios nodais) e λ4 = 8 (quatro domı́nios nodais). ¤
λnm = n2 + m2 , n, m ∈ N,
vemos imediatamente que sempre que n 6= m o autovalor λnm terá multiplicidade pelo menos igual a
2, já que as autofunções
onde os primos pi são da forma 4t + 1, enquanto que os primos qj são da forma 4t + 3, e todos os si
são pares. Segue que a multiplicidade do autovalor λnm é
k
Y
mult (λnm ) = (ri + 1) .
i=1
O comportamento exibido pelo laplaciano no quadrado nos Exemplos 8 e 9 não é tı́pico, no entanto.
Em [Uhlenbeck1] e [Uhlenbeck2], Uhlenbeck mostrou que na maioria das regiões (no sentido genérico), os
autovalores do laplaciano são todos simples, os conjuntos nodais das autofunções são de fato hiperfı́cies
que não se autointerceptam e os pontos crı́ticos das autofunções são máximos ou mı́nimos não-degenerados
(as autofunções são funções de Morse). Assim, dada qualquer região, existem perturbações suficientemente
pequenas que a transformarão em uma região com estas propriedades, ou seja, autovalores múltiplos se
tornarão distintos e cruzamentos das linhas nodais desaparecerão.
Capı́tulo 2
2.1.2 Discretização
Dividimos o intervalo [0, a] em n subintervalos de comprimento ∆x = a/n através de n − 1 pontos interiores
uniformemente espaçados:
ui = u(xi ),
fi = f (xi ) .
Esta é uma discretização uniforme do intervalo [0, a]. Uma vez discretizado o domı́nio da equação diferencial
parcial, procedemos à discretização desta. Usando diferenças centradas para cada ponto interior xi , 1 6 i 6
n − 1, temos
−ui−1 + 2ui − ui+1
= fi . (2.7)
∆x2
Para os pontos de fronteira, a condição de Dirichlet implica simplesmente que
u0 = un = 0. (2.8)
Rodney Josué Biezuner 41
Portanto, para encontrar a solução discretizada temos que resolver o sistema linear com n − 1 equações a
n − 1 incógnitas:
∆x−2 (2u1 + u2 ) = f1
−2
∆x (−u1 + 2u2 − u3 ) = f2
.. ,
.
−2
∆x (−un−3 + 2un−2 − un−1 ) = f2
∆x−2 (−un−2 + 2un−1 ) = fn−1
ou seja,
2 −1 u1 f1
−1 2 −1 u2 f2
.. .. .. ..
1 −1 . .
.
= .
.
∆x2
..
. .
..
..
..
−1 . .
−1 2 −1 un−2 fn−2
−1 2 un−1 fn−1
Esta é uma matriz tridiagonal simétrica, esparsa. Além disso, como veremos na próxima subseção, ela é
positiva definida (isto é, seus autovalores são positivos) e portanto possui uma inversa, o que garante a
existência e unicidade da solução. Dada sua simplicidade, ela pode ser resolvida por eliminação gaussiana
ou sua inversa pode ser efetivamente calculada. Por exemplo, para n = 4, 5, 6 temos
−1 1 1
1
2 −1 0 1 0 0 1 0 0 3 2 1
−1
2 3 2 1
2 −1 = 0 1 2
3
0 2
3 0 12 1 0 = 2 4 2 ,
3 1 2 4
0 −1 2 0 0 1 0 0 4 3 3 1 1 2 3
−1 1 1 1
1
2 −1 0 0 1 2 3 4 2 0 0 0 1 0 0 0 4 3 2 1
−1 0 0 2 2 0 2
0 1 0 2
2 −1 = 1 3 4 3 0 2 1 0 = 1 3 6 4
0 −1 2 −1 0 0 1 3 0 0 3
0 13 2
1 0 5 2 4 6 3
4 4 3
4 1 2 3
0 0 −1 2 0 0 0 1 0 0 0 5 4 4 4 1 1 2 3 4
−1 1 1 1 1
1
2 −1 0 0 0 1 2 3 4 5 2 0 0 0 0 1 0 0 0 0
−1 2 −1 0 0 0 1 2 2 2 0 2
0 0 0 1
1 0 0 0
3 4 5 3 2
0 −1 2 −1 0 = 3 3 0 0 3
0 0 1 2
1 0 0
0 0 1 4 5 4 3 3
0 0 −1 2 −1 0 0 0 1 4 0 0 0 4
0 1 1 3
1 0
5 5 4 2 4
5 1 2 3 4
0 0 0 −1 2 0 0 0 0 1 0 0 0 0 6 5 5 5 5 1
5 4 3 2 1
4 8 6 4 2
1
= 3 6 9 6 3
.
6
2 4 6 8 4
1 2 3 4 5
jπx
Uj (x) = sen ,
a
este fato sugere que os autovetores uj da matriz A são os vetores de coordenadas
Uj (x1 ) , Uj (x2 ) , . . . , Uj (xn−2 ) , Uj (xn−1 ) = Uj (∆x) , Uj (2∆x) , . . . , Uj ((n − 2) ∆x) , Uj ((n − 1) ∆x) ,
Prova. Temos
jπ
sen jπ 2jπ
2 −1 n 2 sen − sen
n n
−1 2 −1 2jπ jπ 2jπ 3jπ
sen − sen + 2 sen − sen
.. .. n n n n
−1 . . .. ..
= .
.. .. .
. . −1
(n − 2) jπ − sen (n − 3) jπ + 2 sen (n − 2) jπ − sen (n − 1) jπ
−1 2 −1
sen
n
n n n
−1 2 (n − 1) jπ
− sen
(n − 2) jπ
+ 2 sen
(n − 1) jπ
sen n n
n
jπ
sen
n
2jπ
sen
µ ¶ n
jπ ..
= 2 1 − cos . ,
n
(n − 2) jπ
sen
n
(n − 1) jπ
sen
n
pois µ ¶
jπ 2jπ jπ jπ jπ jπ jπ
2 sen − sen = 2 sen − 2 sen cos = 2 1 − cos sen ,
n n n n n n n
(n − k − 1) jπ (n − k) jπ (n − k + 1) jπ
− sen + 2 sen − sen
· n ¸ n n
· ¸
(n − k) jπ jπ (n − k) jπ (n − k) jπ jπ
= − sen − + 2 sen − sen +
n n n n n
(n − k) jπ jπ (n − k) jπ jπ (n − k) jπ
= − sen cos + cos sen + 2 sen
n n n n n
(n − k) jπ jπ (n − k) jπ jπ
− sen cos − cos sen
µ n ¶ n n n
jπ (n − k) jπ
= 2 1 − cos sen ,
n n
e
(n − 2) jπ (n − 1) jπ
− sen + 2 sen
· n ¸ n
(n − 1) jπ jπ (n − 1) jπ
= − sen − + 2 sen
n n n
(n − 1) jπ jπ (n − 1) jπ jπ (n − 1) jπ
= − sen cos + cos sen + 2 sen
n n n n n
(n − 1) jπ jπ (n − 1) jπ jπ (n − 1) jπ
= − sen cos − sen cos + 2 sen
µ n ¶ n n n n
jπ (n − 1) jπ
= 2 1 − cos sen ,
n n
onde na penúltima identidade usamos o fato que
(n − 1) jπ jπ (n − 1) jπ jπ
cos sen = − sen cos
n n n n
Rodney Josué Biezuner 44
porque · ¸
(n − 1) jπ jπ (n − 1) jπ jπ (n − 1) jπ jπ
0 = sen jπ = sen + = sen cos + cos sen .
n n n n n n
¥
Os autovalores de A são positivos, portanto A é uma matriz positiva definida. Observe que, fixado j, se n é
arbitrariamente grande então
jπ j 2 π2
cos ≈1− ,
n 2n2
pois o desenvolvimento em série de Taylor da função cosseno em torno da origem é
1 ¡ ¢
cos x = 1 − x2 + O x3 ;
2
tomando x = jπ/n para n suficientemente grande e desprezando os termos de terceira ordem, obtemos a
aproximação acima. Daı́,
µ ¶ µ ¶ µ · ¸¶
2 jπ 2n2 jπ 2n2 j 2 π2 j 2 π2
1 − cos = 1 − cos ≈ 1 − 1 − = ,
∆x2 n a2 n a2 2n2 a2
de forma que os menores autovalores da matriz A são uma boa aproximação para os menores autovalores de
Dirichlet do laplaciano no intervalo [0, a]. Já o maior autovalor da matriz A é
µ ¶ µ ¶
2 (n − 1) π 2n2 (n − 1) π 4n2
λn−1 = 1 − cos = 1 − cos ≈ ,
∆x2 n a2 n a2
que não é uma boa aproximação para um autovalor do laplaciano. Vemos que se aumentarmos o número de
pontos de discretização (malha mais refinada) obteremos melhores aproximações e uma quantidade maior de
autovalores próximos aos autovalores do laplaciano. Para comparar, veja a tabela a seguir para os autovalores
do laplaciano no intervalo [0, π]; na primeira coluna temos os
µ autovalores
¶ exatos do laplaciano, enquanto que
2n2 jπ
na demais colunas os autovalores da matriz A, λj = 2 1 − cos , com a linha superior indicando o
π n
número n de subintervalos na malha
n = 11 n = 21 n = 31 n = 51 n = 101 n = 1001
1 0.993 221 21 0.998 136 38 0.999 144 44 0.999 683 82 0.999 919 37 0.999 999 18
4 3.892 419 95 3.970 248 82 3.986 325 21 3.994 943 16 3.998 710 15 3.999 986 87
9 8.462 720 39 8.849 945 24 8.930 889 79 8.974 415 97 8.993 471 18 8.999 933 51
16 14.333 863 96 15.528 221 28 15.782 100 25 15.919 213 41 15.979 370 36 15.999 789 87
25 21.030 205 54 23.855 895 28 24.469 653 89 24.802 991 47 24.949 649 29 24.999 486 99
36 28.009 247 34 33.646 940 78 34.904 404 68 35.592 050 94 35.895 629 79 35.998 936 22
49 34.705 588 92 44.682 641 99 46.979 277 93 48.245 465 23 48.806 722 35 48.998 029 23
64 40.576 732 50 56.716 479 58 60.570 369 11 62.715 235 6 63.670 436 30 63.996 637 97
81 45.147 032 93 69.479 637 52 75.538 215 24 78.946 473 26 80.472 391 97 80.994 614 71
100 48.046 231 68 82.687 007 94 91.729 225 95 96.877 607 56 99.196 334 56 99.991 792 02
onde
a b
∆x =
, ∆y = ,
n m
substituı́mos o domı́nio Ω pela malha (ou gride) uniforme
de forma que © ª
Ωd = (x, y) ∈ Ω : x = i∆x, y = j∆y, 0 6 i 6 n, 0 6 j 6 m .
A equação de Poisson
−uxx − uyy = f (x, y)
pode ser agora discretizada. Denotamos
ui,j = u (xi , yj ) ,
fi,j = f (xi , yj ) .
Aproximamos cada derivada parcial de segunda ordem pela sua diferença centrada, obtendo
−ui−1,j + 2ui,j − ui+1,j
−uxx ≈ ,
∆x2
−ui,j−1 + 2ui,j − ui,j+1
−uyy ≈ .
∆y 2
Portanto, a equação de Poisson discretizada toma a forma
−ui−1,j + 2ui,j − ui+1,j −ui,j−1 + 2ui,j − ui,j+1
+ = fi,j . (2.11)
∆x2 ∆y 2
Como a função u é calculada em cinco pontos, esta equação é chamada a fórmula dos cinco pontos.
Para cada ponto interior da malha obtemos uma equação, logo temos um sistema linear de (n − 1) (m − 1)
equações com o mesmo número de incógnitas. Diferente do caso unidimensional, no entanto, não existe uma
maneira natural de ordenar os pontos da malha, logo não podemos obter imediatamente uma representação
matricial para o problema discretizado. Precisamos antes escolher uma ordenação para os pontos da malha,
e como existem várias ordenações possı́veis, existem várias matrizes associadas.
Talvez a mais simples ordenação é a ordem lexicográfica induzida de Z2 . Nesta ordem, os pontos da
malha são percorridos linha por linha, da esquerda para a direita, de baixo para cima:
Neste caso, a matriz associada ao sistema linear é uma matriz (n − 1) (m − 1) × (n − 1) (m − 1) que pode
ser escrita como uma matriz de (m − 1) × (m − 1) blocos de dimensão (n − 1) × (n − 1) na forma
1
B − I
∆y 2
− 1 I B
1
− 2I
∆y 2 ∆y
1 .. ..
− I . .
∆y 2
A=
.. .. 1
. . − I
∆y 2
1 1
− I B − 2I
∆y 2 ∆y
1
− I B
∆y 2 (m−1)×(m−1)
Observe que µ ¶
1 1
aii = 2 +
∆x2 ∆y 2
para todo 1 6 i 6 (n − 1) (m − 1), enquanto que
1
aij = −
∆y 2
se o ponto j é vizinho à esquerda ou à direita do ponto i e
1
aij = −
∆x2
se o ponto j é vizinho acima ou abaixo do ponto i. Por exemplo, no caso especial ∆x = ∆y, se n = 4 e m = 6
Rodney Josué Biezuner 47
é o problema ½
−∆d ud = fd em Ωd ,
(2.13)
ud = 0 sobre ∂Ωd .
Para estabelecer a existência e unicidade da solução discreta, provaremos que a matriz de discretização A,
que é uma matriz simétrica, é também uma matriz positiva definida, pois isso implica em particular que A
é invertı́vel.
Lembrando que as autofunções de Dirichlet do laplaciano no retângulo [0, a] × [0, b] são as funções
kπx lπy
Ukl (x, y) = sen sen ,
a b
este fato sugere que os autovetores ukl da matriz A na ordem lexicográfica são os vetores de coordenadas
= Ukl (∆x, ∆y) , Ukl (2∆x, ∆y) , . . . , Ukl ((n − 1) ∆x, ∆y) ,
Ukl (∆x, 2∆y) , Ukl (2∆x, 2∆y) , . . . , Ukl ((n − 1) ∆x, 2∆y) ,
..
.
Ukl (∆x, (m − 1) ∆y) , Ukl (2∆x, (m − 1) ∆y) , . . . , Ukl ((n − 1) ∆x, (m − 1) ∆y) ,
Prova. Embora a demonstração deste lema possa ser feita de maneira análoga à do Lema 2.1, usando
identidades trigonométricas, daremos uma demonstração diferente. Lembrando que as autofunções e os
autovalores de Dirichlet do laplaciano no retângulo são facilmente obtidos através do método de separação
de variáveis, encontraremos os autovalores da matriz A usando um método de separação de variáveis discreto
para achar os autovalores do laplaciano discreto
µ ¶
ui−1,j − 2ui,j + ui+1,j ui,j−1 − 2ui,j + ui,j+1
− + = λui,j . (2.16)
∆x2 ∆y 2
Em particular, este método não depende da maneira como os pontos da malha são ordenados (não depende
da matriz A usada para representar o laplaciano discreto). Como no método de separação de variáveis
contı́nuo, assumimos que as soluções da equação discreta acima são produtos da forma
onde F e G são funções de uma variável inteira. Substituindo esta expressão na equação de Helmholtz
discreta, obtemos
F (i − 1) G (j) − 2F (i) G (j) + F (i + 1) G (j) F (i) G (j − 1) − 2F (i) G (j) + F (i) G (j + 1)
+ = −λF (i) G (j) .
∆x2 ∆y 2
Rodney Josué Biezuner 49
F (i + 1) − (A + 2) F (i) + F (i − 1) = 0,
G (j − 1) − (B + 2) G (j) + G (j + 1) = 0.
2α = A + 2, 2β = B + 2.
Observe que µ ¶
1−α 1−β
λ=2 + . (2.23)
∆x2 ∆y 2
Vamos resolver a equação para F , já que a equação para G é completamente análoga. Substituindo em
(2.21) uma solução da forma
F (i) = z i (2.24)
obtemos
z i−1 − 2αz i + z i+1 = 0,
donde, dividindo por z i−1 extraı́mos a equação quadrática (análoga à equação indicial)
z 2 − 2αz + 1 = 0. (2.25)
para algumas constantes c1 , c2 . Para determinarmos estas constantes e também α, aplicamos as condições
de fronteira, que implicam
F (0) = F (n) = 0.
Rodney Josué Biezuner 50
Como a equação para F é homogênea, a constante c é arbitrária. Aplicando a segunda, segue que
n n
z+ = z− ,
ou, como z+ z− = 1,
2n
z+ =1
Conseqüentemente, z+ é uma 2n-ésima raiz complexa de 1:
z+ = eijπ/n (2.27)
√
para algum inteiro 1 6 k 6 2n − 1, onde i = −1. Como z− = 1/z+ , podemos restringir 0 6 k 6 n − 1 e
(2.26) produz todas as soluções não-triviais F de (2.21).
Portanto,
z+ + z− eiπk/n + e−iπk/n kπ
α= = = cos , 0 6 k 6 n − 1,
2 2 n
e, escolhendo c = 1/2,
ikπ
Fk (i) = eiπki/n − e−iπki/n = sen .
n
Analogamente,
lπ
β = cos , 0 6 l 6 m − 1,
m
e
jlπ
Gl (j) = sen .
m
Segue que os autovalores são
· µ ¶ µ ¶¸
1 kπ 1 lπ
λkl = 2 1 − cos + 1 − cos
∆x2 n ∆y 2 m
2.3 Teorema. (Existência e Unicidade da Solução Discreta) Seja Ω = (0, a) × (0, b). Então o problema
discretizado ½
−∆d ud = fd em Ωd ,
ud = 0 sobre ∂Ωd ,
possui uma única solução.
Prova. Pelo lema anterior, os autovalores da matriz simétrica A são positivos, logo ela é uma matriz
invertı́vel. ¥
Rodney Josué Biezuner 51
Em primeiro lugar, obtemos uma estimativa a priori discreta (que também pode ser visto como um resultado
de regularidade discreto) para soluções da equação de Poisson discreta com condição de Dirichlet homogênea:
Rodney Josué Biezuner 52
2
2.5 Lema. (Estimativa a Priori) Seja Ω = (0, 1) . Seja ud uma solução de
½
−∆d ud = fd em Ωd ,
ud = 0 sobre ∂Ωd .
Então
1
kud k∞ 6 k∆d ud k∞ . (2.28)
8
Prova. Considere a função "µ ¶2 µ ¶2 #
1 1 1
w (x, y) = x− + y−
4 2 2
e sua versão discretizada wd definida por
"µ ¶2 µ ¶2 #
1 1 1
wi,j = xi − + yj − . (2.29)
4 2 2
Então
w>0 e ∆w = 1,
e também
wd > 0 e ∆d wd = 1, (2.30)
pois
wi−1,j − 2wi,j + wi+1,j wi,j−1 − 2wi,j + wi,j+1
∆d wd = +
∆x2 ∆y 2
"¡ ¢ ¡ ¢ ¡ ¢2 ¡ ¢2 ¡ ¢2 ¡ ¢2
1 2 1 2
1 xi−1 − 2 + yj − 2 − 2 xi − 12 − 2 yj − 12 + xi+1 − 21 + yj − 12
=
4 ∆x2
¡ ¢2 ¡ ¢2 ¡ ¢2 ¡ ¢2 ¡ ¢2 ¡ ¢2 #
xi − 12 + yj−1 − 12 − 2 xi − 12 − 2 yj − 12 + xi − 12 + yj+1 − 12
+
∆y 2
"¡ ¢2 ¡ ¢2 ¡ ¢2 ¡ ¢2 ¡ ¢2 ¡ ¢2 #
1 xi−1 − 12 − 2 xi − 12 + xi+1 − 12 yj−1 − 21 − 2 yj − 12 + yj+1 − 12
= +
4 ∆x2 ∆y 2
"¡ ¢2 ¡ ¢2 ¡ ¢2 ¡ ¢2 ¡ ¢2 ¡ ¢2 #
1 xi − ∆x − 12 − 2 xi − 12 + xi + ∆x − 12 yj − ∆y − 12 − 2 yj − 12 + yj + ∆y − 12
= +
4 ∆x2 ∆y 2
"¡ ¢ ¡ ¢ ¡ ¢
1 x2i + ∆x2 + 14 − 2xi ∆x − xi + ∆x − 2 x2i − xi + 14 + x2i + ∆x2 + 14 + 2xi ∆x − xi − ∆x
=
4 ∆x2
¡ 2 ¢ ¡ ¢ ¡ ¢#
yj + ∆y 2 + 14 − 2yj ∆y − yj + ∆y − 2 yj2 − yj + 41 + yj2 + ∆y 2 + 14 + 2yj ∆y − yj − ∆y
+
∆y 2
µ ¶
1 2∆x2 2∆y 2
= + = 1.
4 ∆x2 ∆y 2
Considere agora a função
ud − k∆d ud k∞ wd . (2.31)
Temos então
∆d (ud − k∆d ud k∞ wd ) = ∆d ud − k∆d ud k∞ ∆d wd
= ∆d ud − k∆d ud k∞
6 0.
Rodney Josué Biezuner 53
Segue do Princı́pio do Máximo Discreto que a função ud − k∆d ud k∞ wd assume o seu mı́nimo na fronteira.
Este último é igual a − k∆d ud k∞ max∂Ωd wd . Por sua vez, o máximo de wd na fronteira é menor ou igual ao
máximo de w em ∂Ω, dado por
µ ¶2 µ ¶2
1 1 1 1 1
max x− = max y− = .
06x61 4 2 06x61 4 2 8
Portanto, concluı́mos que
1
ui,j > ui,j − k∆d ud k∞ wi,j > − k∆d ud k∞ (2.32)
8
para todos i, j. Analogamente,
∆d (ud + k∆d ud k∞ wd ) > 0
e a função ud + k∆d ud k∞ wd assume o seu máximo na fronteira, igual a k∆d ud k∞ max∂Ωd wd 6 18 a, donde
1
ui,j 6 ui,j − k∆d ud k∞ wi,j 6 k∆d ud k∞ (2.33)
8
para todos i, j. Reunindo as duas desigualdades, segue que
1
|ui,j | 6 k∆d ud k∞
8
para todos i, j, o que conclui a demonstração. ¥
2 ¡ ¢
2.6 Teorema. Seja Ω = (0, 1) . Sejam u ∈ C 4 Ω uma solução clássica para o problema de Dirichlet
½
−∆u = f em Ω,
u=0 sobre ∂Ω,
¡ ¢ ¡ ¢
Prova. A hipótese f ∈ C 2,α Ω garante que u ∈ C 4 Ω . Lembre-se que
¯ 4 ¯
° 4 ° ¯ ∂ u ¯
°D u° ∞ = sup ¯ (x, y) ¯.
L (Ω) ¯ ∂xp ∂y q ¯
(x,y)∈Ω
p+q=4
donde µ ¶
1 ∂4u ∂4u ¡ ¢
∆u (xi , yj ) = (∆d ud )ij − 4
(xi , yj )∆x2 + 4 (xi , yj )∆y 2 + O ∆x4 , ∆y 4 . (2.35)
3! ∂x ∂y
Como
−∆u (xi , yj ) = f (xi , yj ) ,
temos que
µ ¶
1 ∂4u ∂4u ¡ ¢
− (∆d ud )i,j = (fd )i,j − 4
(xi , yj )∆x2 + 4 (xi , yj )∆y 2 + O ∆x4 , ∆y 4 . (2.36)
3! ∂x ∂y
Subtraindo desta equação a equação
− (∆d vd )i,j = (fd )i,j ,
obtemos µ ¶
1 ∂4u ∂4u ¡ ¢
− (∆d ud − ∆d vd )i,j = − 4
(xi , yj )∆x2 + 4 (xi , yj )∆y 2 + O ∆x4 , ∆y 4 ,
3! ∂x ∂y
o que implica
1 ° °
°D4 u° ∞
¡ 2 ¢ ¡ ¢
k∆d (ud − vd )k∞ 6 L (Ω)
∆x + ∆y 2 + O ∆x4 , ∆y 4
3! ° ° ¡ ¢
6 C °D4 u°L∞ (Ω) ∆x2 + ∆y 2 .
Para uma demonstração destes resultados, veja [Hackbusch], págs. 60-61. Se quisermos uma melhor ordem
de convergência para as soluções discretizadas, é necessário considerar outras forma de discretizar o laplaciano
através de diferenças finitas. Isto será feito na próxima seção.
Rodney Josué Biezuner 55
isso implicaria em princı́pio em um esquema com ordem de convergência pelo menos igual a 3:
¡ ¢
δui = u00 (xi ) + O ∆x3 .
Como a matriz
1 1 1 1 1
−2 −1 0 1 2
1 1
2 0 2
2 2
4 1 1 4
−
3 −6 0 6 3
2 1 1 2
0
3 24 24 3
tem determinante igual a 1, ela é invertı́vel e o sistema possui a solução única
1 1
c1 = − ,
12 ∆x2
4 1
c2 = ,
3 ∆x2
5 1
c3 =−
2 ∆x2
4 1
c4 = ,
3 ∆x2
1 1
c5 =− .
12 ∆x2
Incidentalmente, esta solução também implica
4 1 1 4
− c1 − c2 + c4 + c5 = 0
15 120 120 15
o que permite obter um esquema com ordem de convergência igual a 4:
¡ ¢
δui = u00 (xi ) + O ∆x4 ,
Observe a distribuição dos nove pontos. Além dos cinco usuais, foram acrescentados os quatro pontos que
ocupam as posições diagonais. Para os quatro pontos vizinhos horizontais ou verticais do ponto central, a
fórmula de Taylor produz
Infelizmente este sistema não tem solução pois ele é inconsistente: a sexta e a última equação são incom-
patı́veis, assim como a quarta e a décima primeira. Portanto, não existe uma fórmula de nove pontos
compacta tal que ¡ ¢
−∆d ud = −∆u + O ∆x3 , ∆y 3 .
No entanto, em 1975 o matemático e lógico Rosser introduziu a seguinte fórmula de nove pontos compacta
no caso especial ∆x = ∆y (em [Rosser1]; veja também [Rosser2])
ui−1,j−1 + 4ui,,j−1 + ui+1,j−1 + 4ui−1,j − 20ui,j + 4ui+1,j + ui−1,j+1 + 4ui,j+1 + ui+1,j+1
∆d ud = , (2.42)
6∆x2
que pode ser resumida na forma
−1 −4 −1
1
−∆d ud = −4 20 −4 , (2.43)
6∆x2
−1 −4 −1
¡ ¢ ¡ ¢
a qual produz um esquema convergente de quarta ordem se a solução u ∈ C 6 Ω (ou mesmo se u ∈ C 5,1 Ω
apenas) dependendo de como a função f é discretizada. Para entender como isso ocorre, observe que se
Rodney Josué Biezuner 61
¡ ¢
u ∈ C 8 Ω a fórmula de Taylor produz
· ¸
∆x2 2 ∆x4 ∂ 4 ∂4 ∂4 ¡ ¢
−∆d ud = −∆u − ∆ u− 4
+ 4 2 2 + 4 ∆u + O ∆x6 (2.44)
12 360 ∂x ∂x ∂y ∂y
· ¸
∆x2 ∆x4 ∂ 4 ∂4 ∂4 ¡ ¢
= −∆u − ∆f − 4
+ 4 2 2 + 4 f + O ∆x6 . (2.45)
12 360 ∂x ∂x ∂y ∂y
O ponto crucial aqui é que o erro é expresso em termos de −∆u e, conseqüentemente, por f . Ainda é
necessário escolher uma discretização especial para f :
fi,,j−1 + fi−1,j + 8fi,j + fi+1,j + fi,j+1
fd = (2.46)
12
ou
1
1
fd = 1 8 1 . (2.47)
12
1
Usando a fórmula de Taylor para f , obtemos que esta discretização especial para f satisfaz
∆x2 ¡ ¢
fd = f + ∆f + O ∆x4 . (2.48)
12
Somando esta estimativa com (2.45), e usando −∆d ud = fd , −∆u = f , obtemos
¡ ¢
−∆d ud = −∆u + O ∆x4
Para este esquema, pode-se provar (veja [Hackbusch], pág. 64) que existe uma constante C > 0 tal que
kud − vd k∞ 6 C∆x4 kukC 6 (Ω) ou kud − vd k∞ 6 C∆x4 kukC 5,1 (Ω) (2.49)
O esquema de Rosser também satisfaz o princı́pio do máximo. Concluindo, vemos que uma maior regularidade
da solução permite obter métodos de diferenças finitas com maior ordem de convergência, embora esta não
seja uma tarefa simples.
Embora esta condição não seja uma condição de fronteira e aparece apenas por causa do sistema de coor-
denadas utilizado, ela acaba funcionando como uma condição de fronteira em muitos métodos numéricos (e
Rodney Josué Biezuner 62
mesmo analı́ticos), pois não deixa de ser uma condição na fronteira do retângulo (0, R) × (0, 2π).
∆r
∆θ
Portanto, a discretização da equação de Poisson no disco para pontos interiores do disco diferentes da origem
é · ¸
1 ri+1/2 (ui+1,j − ui,j ) − ri−1/2 (ui,j − ui−1,j ) 1 ui,j−1 − 2ui,j − ui,j+1
− + = fi,j (2.54)
ri ∆r2 ri2 ∆θ2
para 1 6 i 6 n − 1 e 1 6 j 6 m − 1. Se j = 0, usando a condição de continuidade que identifica o ponto
(i, 0) com o ponto (i, n), substituı́mos ui,j−1 por ui,n−1 e escrevemos
· ¸
1 ri+1/2 (ui+1,0 − ui,0 ) − ri−1/2 (ui,0 − ui−1,0 ) 1 ui,n−1 − 2ui,0 − ui,1
− + 2 = fi,0 (2.55)
ri ∆r2 ri ∆θ2
para 1 6 i 6 n − 1. Como este esquema de diferenças finitas foi obtido através de diferenças centradas,
ele deve ser de segunda ordem. No entanto, devemos ter cuidado ao discretizar a equação de Poisson na
origem para preservar esta ordem de convergência. Para isso, multiplicamos a equação de Poisson por r e
integramos o resultado sobre um pequeno disco Dε centrado na origem de raio ε:
Z 2π Z ε Z 2π Z ε · ¸
1 1
f r drdθ = r (rur )r + 2 uθθ drdθ
0 0 0 0 r r
Z 2π Z ε Z ε Z 2π
1
= (rur )r drdθ + uθθ drdθ
0 0 0 r 0
Z 2π Z ε
ε 1 2π
= [rur ]0 dθ + [uθ ]0 drdθ
0 0 r
Z 2π
=ε ur (ε, θ) dθ,
0
2
onde assumimos u ∈ C (Ω) de modo que
uθ (r, 0) = uθ (r, 2π)
para todo 0 6 r < R. Escolhendo ε = ∆r/2, discretizamos a equação integral
Z Z 2π Z ∆r/2
∆r 2π
ur (∆r/2, θ) dθ = f r drdθ
2 0 0 0
aproximando a derivada primeira ur (∆r/2, θ) = (ur )i+1/2,j por diferenças centradas e f por f (0) (pois ∆r
é suposto pequeno), de modo que
u1,j − u0,j
ur (∆r/2, θj ) ≈ ,
∆r
Z 2π Z ∆r/2 Z 2π Z ∆r/2 ¯∆r/2
r2 ¯¯ π
f r drdθ ≈ f (0) r drdθ = 2πf (0) = f (0) ∆r2 ,
0 0 0 0 2 ¯0 4
e assim
m−1
∆r X u1,j − u0,j π
∆θ = f (0) ∆r2 ,
2 j=0 ∆r 4
donde, como u0 := u0,j independe de j, segue que o valor de u na origem será dado por
m−1
∆θ ∆θ X π
m u0 = u1,j − f (0) ∆r2 ,
2 2 j=0 4
Au = f ,
u = (u0 , u1,0 , u1,1 , . . . , u1,m−1 , u2,0 , u2,1 , . . . , u2,m−1 , . . . . . . , un−1,0 , un−1,1 , . . . , un−1,m−1 ) . (2.57)
Observe que existem (n − 1) × m + 1 incógnitas. Nesta ordenação, segue que A tem a forma em blocos
α0 b
a B1 −β1 I
..
−α2 I B2 −β2 I .
A= −α3 I B3 −β3 I , (2.58)
. . .
.. .. ..
−αn−2 I Bn−2 −βn−2 I
−αn−1 I Bn−1
onde
4
α0 = ,
∆r2
−α1
a = ... ,
−α1 m×1
1 ri−1/2
αi = , i = 1, . . . , n − 1,
∆r2 ri
1 ri+1/2
βi = , i = 1, . . . , n − 2,
∆r2 ri
£ ¤
b = −β0 . . . −β0 1×m ,
2 ∆θ
β0 = ,
π ∆r2
I = Im ,
γi −δi 0 −δi
−δi γi −δi
−δi γi −δi
Bi = .. .. .. ,
. . .
−δi γi −δi
−δi −δi γi m×m
onde
1 ri+1/2 + ri−1/2 2 1
γi = + 2 ,
ri ∆r2 ri ∆θ2
1 1
δi = 2 .
ri ∆θ2
Rodney Josué Biezuner 65
A matriz A em geral não é simétrica. Por exemplo, no caso n = 4 e m = 5 ((n − 1) × m + 1 = 16) temos
α −β0 −β0 −β0 −β0 −β0 0 0 0 0 0 0 0 0 0 0
−α1 γ1 −δ1 0 0 −δ1 −β1 0 0 0 0 0 0 0 0 0
−α1 −δ1 γ1 −δ1 0 0 0 −β1 0 0 0 0 0 0 0 0
−α1 0 −δ1 γ1 −δ1 0 0 0 −β1 0 0 0 0 0 0 0
−α1 0 0 −δ1 γ1 −δ1 0 0 0 −β1 0 0 0 0 0 0
−α1 −δ1 0 0 −δ1 γ1 0 0 0 0 −β1 0 0 0 0 0
0 −α2 0 0 0 0 γ2 −δ2 0 0 −δ2 −β2 0 0 0 0
0 0 −α2 0 0 0 −δ2 γ2 −δ2 0 0 0 −β2 0 0 0
0 0 0 −α2 0 0 0 −δ2 γ2 −δ2 0 0 0 −β2 0 0
0 0 0 0 −α2 0 0 0 −δ2 γ2 −δ2 0 0 0 −β2 0
0 0 0 0 0 −α2 −δ2 0 0 −δ2 γ2 0 0 0 0 −β2
0 0 0 0 0 0 −α3 0 0 0 0 γ3 −δ3 0 0 −δ3
0 0 0 0 0 0 0 −α3 0 0 0 −δ3 γ3 −δ3 0 0
0 0 0 0 0 0 0 0 −α3 0 0 0 −δ3 γ3 −δ3 0
0 0 0 0 0 0 0 0 0 −α3 0 0 0 −δ3 γ3 −δ3
0 0 0 0 0 0 0 0 0 0 −α3 −δ3 0 0 −δ3 γ3
A primeira linha e a primeira coluna são diferentes porque os pontos (0, j), j = 0, . . . , m, são realmente um
único ponto e este ponto é vizinho a todos os pontos (1, j), j = 0, . . . , m.
A matriz de discretização A no caso do anel será um pouco mais simples, já que ela será igual à matriz
de discretização no caso do disco menos a primeira linha e a primeira coluna.
De fato,
1 2 1 000 3
u(x− ) = u(x) − u0 (x) (x − x− ) + u00 (x) (x − x− ) − u (ξ− ) (x − x− ) ,
2 3!
1 2 1 000 3
u(x+ ) = u(x) + u0 (x) (x+ − x) + u00 (x) (x+ − x) + u (ξ+ ) (x+ − x) ,
2 3!
para alguns ξ− ∈ [x− , x] , ξ+ ∈ [x, x+ ], de modo que
u (x) − u (x− ) 1 1 2
− = −u0 (x) + u00 (x) (x − x− ) − u000 (ξ− ) (x − x− ) ,
x − x− 2 6
u (x+ ) − u (x) 1 1 2
= u0 (x) + u00 (x) (x+ − x) + u000 (ξ+ ) (x+ − x) ,
x+ − x 2 6
(xi − tW ∆x, yj ) , (xi + tE ∆x, yj ) , (xi , yj − tS ∆y) , (xi , yj + tN ∆y) , com t∗ ∈ (0, 1]
Rodney Josué Biezuner 67
Se (xi , yj ) é um ponto interior distante da fronteira (isto é, não adjacente à fronteira), então t∗ = 1 e para
este ponto vale a fórmula dos cinco pontos usual.
Embora a ordem de aproximação do laplaciano para pontos próximos à fronteira é apenas 1, o esquema de
Shortley-Weller é convergente de segunda ordem, conforme veremos no próximo capı́tulo, onde provaremos
também que o correspondente problema discretizado possui solução única.
2.6 Exercı́cios
1. Implemente os métodos discutidos neste capı́tulo computacionalmente, verifique a precisão comparando
com a solução exata e também a velocidade de convergência.
2. Discretize o problema de Poisson com valor de fronteira de Dirichlet a seguir, usando a fórmula de
cinco pontos. ½
−∆u = f (x, y) em (0, a) × (0, b) ,
u = g (x, y) sobre ∂ ((0, a) × (0, b)) ,
Implemente alguns exemplos deste problema computacionalmente e compare os resultados obtidos com
as soluções exatas.
3. Prove que a fórmula dos nove pontos compacta satisfaz o princı́pio do máximo discreto.
4. Prove resultados equivalentes ao Lema 2.5 e ao Teorema 2.6 para a fórmula dos nove pontos compacta.
5. Investigue a ordem de convergência do esquema de diferenças finitas misto: fórmula dos nove pontos nos
pontos interiores distantes da fronteira e fórmula dos cinco pontos para pontos adjacentes à fronteira.
6. Encontre um esquema de diferenças finitas de segunda ordem para a equação de laplace tridimensional
em um paralelepı́pedo reto. Escolha uma ordenação apropriada dos pontos da malha e descreva a
matriz de discretização obtida. Implemente o método no computador.
7. Mostre que o esquema de diferenças finitas em coordenadas polares introduzido neste capı́tulo satisfaz
o princı́pio do máximo discreto desde que o valor de u0 seja dado pela fórmula (2.56).
Rodney Josué Biezuner 68
8. Mostre que se ∆d denota o esquema de diferenças finitas em coordenadas polares introduzido neste
capı́tulo e Ω é o disco unitário, então vale a estimativa a priori: se ud é uma solução de
½
−∆d ud = fd em Ωd ,
ud = 0 sobre ∂Ωd ,
então
1
kud k∞ 6
k∆d ud k∞ (2.68)
4
desde que o valor de u0 seja dado pela fórmula (2.56). Conclua que este esquema tem ordem de
convergência 2.
9. Encontre os autovalores da matriz de discretização do esquema de diferenças finitas em coordenadas
polares e compare com os autovalores de Dirichlet do laplaciano no disco.
10. Discretize o problema de Poisson com valor de fronteira de Dirichlet para o anel:
−∆u = f (r, θ) se R1 < r < R2 e 0 < θ < 2π,
u (R1 , θ) = g1 (θ)
u (R2 , θ) = g2 (θ) se 0 6 θ 6 2π.
Implemente alguns exemplos deste problema computacionalmente e compare os resultados obtidos com
as soluções exatas.
11. Mostre que tomando o “quadrado” da fórmula de três pontos para o laplaciano unidimensional (es-
quema de diferenças centradas para a derivada segunda) obtemos a seguinte fórmula de cinco pontos
para o operador biharmônico unidimensional (esquema de diferenças centradas para a derivada quarta):
ui−2 − 4ui−1 + 6ui − 4ui+1 + ui+2
δ 4 ui = (2.69)
∆x4
Usando a fórmula de Taylor, obtenha o expoente p tal que
12. O esquema de diferenças finitas mais simples para o operador biharmônico ∆2 em duas dimensões é a
seguinte fórmula de 13 pontos (para o caso ∆x = ∆y):
1
2 −8 2
1
2
∆ u= 1 −8 20 −8 1 . (2.70)
∆x4
2 −8 2
1
Mostre que esta fórmula pode ser obtida a partir do “quadrado” da fórmula de cinco pontos para
o laplaciano. Como a equação biharmônica não satisfaz o princı́pio do máximo, a demonstração da
ordem de convergência deste esquema necessita de argumentos diferentes dos usados neste capı́tulo
para o laplaciano. Na realidade, dependendo de como
¡ as duas
¢ condições
¡ ¢ de fronteira são discretizadas,
a ordem de convergência deste método pode ser O ∆x3/2 ou O ∆x2 . Veja [Hackbusch], pág. 103 e
págs. 105-109, para detalhes e referências.
Capı́tulo 3
Determinar a existência e unicidade de soluções discretas para as matrizes de discretização obtidas via
esquemas de diferenças finitas através do cálculo de seus autovalores como fizemos no capı́tulo anterior para
diferenças centradas em uma dimensão e para a fórmula de cinco pontos é inviável em geral (tente calcular
os autovalores da matriz de discretização para a fórmula dos nove pontos, para o esquema em coordenadas
polares e para o esquema de Shortley-Weller). Neste capı́tulo, desenvolveremos métodos mais gerais e mais
fáceis de aplicar.
1. Norma l1
n
X
kAk1 = |aij | . (3.2)
i,j=1
De fato,
¯
n ¯X
¯
X n ¯ n
X n
X n
X n
X
¯ ¯
kABk1 = ¯ aik bkj ¯ 6 |aik bkj | 6 |aik blj | = |aik | |blj | = kAk1 kBk1 .
¯ ¯
i,j=1 k=1 i,j,k=1 i,j,k,l=1 i,j=1 k,l=1
2. Norma l2
1/2
n
X 2
kAk2 = |aij | . (3.3)
i,j=1
Com efeito,
¯
n ¯X
¯2 Ã n !Ã n ! n
X n ¯ n
X X X X n
X
2 ¯ ¯ 2 2 2 2 2 2
kABk2 = ¯ aik bkj ¯ 6 |aik | |blj | = |aik | |blj | = kAk2 kBk2 .
¯ ¯
i,j=1 k=1 i,j=1 k=1 l=1 i,k=1 j,l=1
69
Rodney Josué Biezuner 70
A norma l2 também é chamada norma euclidiana e, mais raramente e somente para matrizes, norma
de Schur, norma de Frobenius ou norma de Hilbert-Schmidt.
3. Norma l∞ modificada
A norma l∞
kAk∞ = max |aij | .
16i,j6n
é uma norma vetorial no espaço das matrizes complexas, mas não é uma norma matricial, pois se
· ¸
1 1
A= ,
1 1
então · ¸
2 2
A2 =
2 2
e portanto ° 2°
°A ° = 2 > 1 = kAk∞ kAk∞ .
∞
Mas um múltiplo escalar desta norma vetorial é uma norma matricial:
Com efeito,
¯ ¯
¯Xn ¯ n
X n
X
¯ ¯
kABkn∞ = n max ¯ aik bkj ¯ 6 n max |aik bkj | 6 n max kAk∞ kBk∞
16i,j6n ¯ ¯ 16i,j6n 16i,j6n
k=1 k=1 k=1
= n kAk∞ n kBk∞ = kABkn∞ .
4. Norma induzida
Dada uma norma vetorial |·| em Cn , ela induz uma norma matricial através da definição
|Ax|
kAk = max |Ax| = max . (3.5)
|x|=1 x6=0 |x|
De fato,
µ ¶
|ABx| |ABx| |Bx| |ABx| |Bx| |Ay| |Bx|
kABk = max = max 6 max max 6 max max = kAk kBk .
x6=0 |x| x6=0 |Bx| |x| x6=0 |Bx| x6=0 |x| y6=0 |y| x6=0 |x|
Esta norma também é chamada norma do operador. Ela satisfaz a propriedade muitas vezes útil
de modo que
max |Ax|∞ 6 kAkL .
|x|=1
Esta norma é induzida pela norma vetorial l1 . De fato, escrevendo A em termos de suas colunas
A = [A1 . . . An ]
segue que
kAkC = max |Aj |1 .
16j6n
donde
max |Ax|1 6 kAkC .
|x|1 =1
|Ay|1 = |Aj |1
7. p-normas
Este é o nome geral para as normas induzidas pela norma vetorial lp . O caso especial da norma induzida
pela norma vetorial l2 (a norma vetorial euclidiana) é também chamada a norma espectral e satisfaz
p n√ o
k|A|k2 = λmax = max λ : λ é um autovalor de A∗ A .
Rodney Josué Biezuner 72
De fato, A∗ A é uma matriz hermitiana e possui autovalores não-negativos, pois se A∗ Ay = λy, então
2 2
λ |y|2 = hy, λyi2 = hy, A∗ Ayi2 = hAy, Ayi2 = |Ay|2
e, além disso, pela caracterização variacional dos autovalores de uma matriz hermitiana temos
2
hA∗ Ax, xi2 |Ax|2
λmax = max 2 = max 2 .
x6=0 |x|2 x6=0 |x|2
Observe que a 2-norma é diferente da norma matricial l2 . Note também que se A é uma matriz
hermitiana, então A∗ A = A2 e k|A|k2 é portanto o módulo do maior autovalor de A, isto é, a norma
espectral de A é o raio espectral de A, definido como sendo o maior valor absoluto dos autovalores
de A:
ρ (A) = max |λi | ,
i=1,...,n
Lembramos que todas as normas em um espaço vetorial são equivalentes, e isso vale em particular para
normas matriciais.
denota a soma dos valores absolutos dos elementos da linha i de A excetuando o elemento da diagonal
principal, então todos os autovalores de A estão contidos na união dos n discos de Gershgorin
n
[
G (A) = DRi (A) (aii ) . (3.12)
i=1
Rodney Josué Biezuner 74
Além disso, se uma união de k destes discos forma uma região que é disjunta dos n−k discos restantes,
então existem exatamente k autovalores de A nesta região.
Prova. Seja λ um autovalor de A e x = (x1 , . . . , xn ) 6= 0 um autovetor associado. Seja k um ı́ndice tal que
isto é, xk é a coordenada de x de maior valor absoluto. Denotando por (Ax)k a k-ésima coordenada do vetor
Ax = λx, temos
Xn
λxk = (Ax)k = akj xj
j=1
que é equivalente a
n
X
xk (λ − akk ) = akj xj .
j=1
j6=k
Daı́,
n
X n
X n
X
|xk | |λ − akk | 6 |akj xj | = |akj | |xj | 6 |xk | |akj | = |xk | Rk (A) ,
j=1 j=1 j=1
j6=k j6=k j6=k
ou seja,
|λ − akk | 6 Rk (A) .
Isso prova o resultado principal do Teorema de Gershgorin (como não sabemos qual k é apropriado para
cada autovalor λ, e um mesmo k pode servir para vários autovalores λ, tudo o que podemos afirmar é que
os autovalores estão na união dos discos).
Para provar a segunda afirmação, escreva A = D + B, onde D = diag (a11 , . . . , ann ) e defina
At = D + tB
DRi (At ) (aii ) = {z ∈ C : |z − aii | 6 Ri (At )} = {z ∈ C : |z − aii | 6 tRi (A)} ⊂ DRi (A) (aii ) ,
logo
Gk (At ) ⊂ Gk (A)
e
Gk (A) ∩ [G (At ) \Gk (At )] = ∅
para 0 6 t 6 1. Porque os autovalores são funções contı́nuas das entradas de uma matriz, o caminho
λi (t) = λi (At )
é um caminho contı́nuo que liga λi (A0 ) = λi (D) = aii a λi (A1 ) = λi (A). Como λi (At ) ∈ Gk (At ) ⊂ Gk (A),
concluı́mos que para cada 0 6 t 6 1 existem k autovalores de At em Gk (A); em particular, fazendo t = 1,
Rodney Josué Biezuner 75
obtemos que Gk (A) possui pelo menos k autovalores de A. Da mesma forma, não pode haver mais que
k autovalores de A em Gk (A), pois os n − k autovalores restantes de A0 = D começam fora do conjunto
Gk (A) e seguem caminhos contı́nuos que permanecem fora de Gk (A). ¥
A união G (A) dos discos de Gershgorin é conhecida como a região de Gershgorin. Observe que enquanto
não podemos em geral afirmar com certeza que cada disco de Gershgorin possui um autovalor, a segunda
afirmação do teorema permite-nos fazer tal conclusão desde que os discos de Gershgorin sejam dois a dois
disjuntos.
O Teorema dos Discos de Gershgorin permite entender o resultado da Proposição 3.1: se uma matriz A é
estritamente diagonalmente dominante, então os discos de Gershgorin DRi (A) (aii ) não interceptam a origem,
logo 0 não pode ser um autovalor para a matriz A, o que implica que A é invertı́vel. Além disso, se todos
os elementos da diagonal principal de A são reais e positivos, então os autovalores de A estão localizados no
semiplano direito de C, de modo que se A é também simétrica, concluı́mos que todos os autovalores de A
são positivos.
A aplicação mais óbvia do Teorema dos Discos de Gershgorin é na estimativa dos autovalores de uma
matriz, o que é importante se vamos usar os autovalores de matrizes de discretização para aproximar os
autovalores do laplaciano:
Aplicação 1. Pelo Teorema dos Discos de Gershgorin, os autovalores da matriz de discretização do lapla-
ciano no intervalo (0, π) discretizado com n + 1 pontos (esquema de diferenças finitas centradas para
a derivada segunda unidimensional)
2 −1
−1 2 −1
.. ..
n2
−1 . .
A= 2
π . .. . . . −1
−1 2 −1
−1 2
estão todos localizados no intervalo (A é simétrica,£ logo seus¤autovalores são todos reais) centrado em
x = 2n2 /π 2 de raio 2n2 /π 2 , ou seja, no intervalo 0, 4n2 /π 2 . Em particular o maior autovalor de A
não pode exceder 4n2 /π 2 . Como os autovalores do laplaciano neste intervalo são da forma λj = j 2 ,
para termos esperança em aproximar o autovalor λj por autovalores da matriz A precisamos que
j 2 6 4n2 /π 2 , isto é, precisamos discretizar o intervalo (0, π) com
π
n> j
2
pontos. Isso dá uma estimativa bastante grosseira do quão refinada a nossa malha precisa ser para
aproximar os autovalores do laplaciano. Na prática, vimos que apenas os primeiros autovalores de
A aproximam bem os primeiros autovalores do laplaciano e portanto precisamos de uma malha com
um número muito maior de pontos. Observe que uma estimativa semelhante vale para a matriz de
2
discretização M fornecida pela fórmula de cinco pontos no quadrado (0, π) quando tomamos ∆x =
2 2
∆y = π/n: como os£ autovalores ¤ de M estão localizados no intervalo de centro em x = 4n /π de raio
2 2 2 2
4n /π , isto é, em 0, 8n /π , precisamos de
π p2
n> √ i + j2
2 2
pontos no eixos horizontal e vertical para aproximar o autovalor i2 + j 2 . Por outro lado, no caso
bidimensional isso implica em uma matriz de discretização da ordem de i2 + j 2 . ¤
Usos mais refinados do Teorema de Gershgorin permitem obter conhecimento mais preciso sobre onde
os autovalores da matriz se encontram e correspondentemente melhores estimativas para o raio espectral
Rodney Josué Biezuner 76
de uma matriz. Por exemplo, como A e At possuem os mesmos autovalores, existe um teorema dos discos
de Gershgorin equivalente para as colunas de uma matriz. Em particular, todos os autovalores de A estão
localizados na interseção destas duas regiões: G (A) ∩ G (At ). Isso implica a seguinte estimativa simples para
o raio espectral de uma matriz complexa:
3.3 Corolário. Se A ∈ Mn (C), então
n
X n
X
ρ (A) 6 min max |aij | , max |aij | = min (kAkL , kAkC ) .
i=1,...,n j=1,...,n
j=1 i=1
Prova. O ponto no i-ésimo disco de Gershgorin que é mais distante da origem tem módulo
n
X
|aii | + Ri (A) = |aij |
j=1
Em particular,
Xn Xn
1 1
ρ (A) 6 min max pj |aij | , max pj |aij | . (3.14)
p1 ,...,pn >0 i=1,...,n pi j=1,...,n pi
j=1 i=1
3.4 Propriedade FC
Na nossa busca por propriedades para matrizes diagonalmente dominantes que garantirão a sua invertibil-
idade, uma observação fundamental é a de que se A é uma matriz diagonalmente dominante, então 0 não
pode ser um ponto interior de nenhum disco de Gershgorin. De fato, se λ é um autovalor de A interior a
algum disco de Gershgorin então devemos ter desigualdade estrita
n
X
|λ − aii | < Ri (A) = |aij |
j=1
j6=i
Rodney Josué Biezuner 77
Tais pontos λ na região de Gershgorin G (A) (não necessariamente autovalores de A) constituem precisa-
mente a fronteira ∂G (A) da região de Gershgorin. Chamaremos a fronteira de um disco de Gershgorin
{z ∈ C : |z − aii | = Ri (A)} um cı́rculo de Gershgorin.
3.5 Lema. Seja A ∈ Mn (C) e λ um autovalor de A que não é um ponto interior de nenhum disco de
Gershgorin. Seja x = (x1 , . . . , xn ) 6= 0 um autovetor associado a λ e k um ı́ndice tal que
aij 6= 0,
então
|xj | = |xk |
e o j-ésimo cı́rculo de Gershgorin também passa por λ.
|λ − aii | 6 Ri (A) .
donde
n
X
|aij | (|xi | − |xj |) = 0.
j=1
j6=k
Esta é uma soma de termos não-negativos, pois |xi | > |xj |, logo se aij 6= 0 necessariamente devemos ter
|xj | = |xi | = |xk |. ¥
Este lema técnico tem as seguintes conseqüências úteis:
3.6 Teorema. Seja A ∈ Mn (C) uma matriz cujas entradas são todas não-nulas e seja λ um autovalor de
A que não é um ponto interior de nenhum disco de Gershgorin. Então todo cı́rculo de Gershgorin
de A passa por λ (isto é, λ está na interseção de todos os cı́rculos de Gershgorin de A) e se x =
(x1 , . . . , xn ) 6= 0 é um autovetor associado a λ então
3.7 Corolário. Se A ∈ Mn (C) é uma matriz cujas entradas são todas não-nulas e diagonalmente dominante
P
n
tal que |aii | > |aij | para pelo menos alguma linha i, então A é invertı́vel.
j=1
j6=i
Prova. Pois, como A é diagonalmente dominante, se 0 é um autovalor de A então 0 não pode ser um ponto
interior de nenhum disco de Gershgorin. Por outro lado, pelo teorema anterior, segue que todo cı́rculo de
Gershgorin passa por 0. Entretanto, o i-ésimo cı́rculo de Gershgorin centrado em aii e com raio Ri < |aii |
não pode passar por 0. Concluı́mos que 0 não é um autovalor de A, logo A é invertı́vel. ¥
Na verdade, usando com maior cuidado a informação dada pelo Lema 3.5 podemos obter resultados ainda
melhores:
Definição. Dizemos que uma matriz A = (aij ) ∈ Mn (C) satisfaz a propriedade FC se para todo par de
inteiros distintos i, j existe uma seqüência de inteiros distintos i1 = i, i2 , i3 , . . . , im−1 , im = j, com
1 6 m 6 n, tais que todas as entradas matriciais
são não-nulas.
já vista anteriormente, não satisfaz a propriedade FC porque o par 2, 1 não admite tal seqüência (a única
seqüência possı́vel é a23 , a31 ). Já qualquer par de inteiros distintos i, j tal que aij 6= 0 admite a seqüência
trivial não-nula aij , de modo que uma matriz cujas entradas não-diagonais são todas não-nulas satisfaz a
propriedade FC. O significado da abreviatura “FC”, ou “fortemente conexo”, ficará claro mais adiante.
3.8 Teorema. Seja A ∈ Mn (C) uma matriz que satisfaz a propriedade FC e seja λ um autovalor de A que
não é um ponto interior de nenhum disco de Gershgorin. Então todo cı́rculo de Gershgorin de A passa
por λ (isto é, λ está na interseção de todos os cı́rculos de Gershgorin de A) e se x = (x1 , . . . , xn ) 6= 0
é um autovetor associado a λ então
Em particular, segue novamente do Lema 3.5 que o j-ésimo cı́rculo de Gershgorin passa por λ. Como j é
arbitrário, isso prova o teorema. ¥
3.9 Corolário. Se A ∈ Mn (C) é uma matriz que satisfaz a propriedade FC e diagonalmente dominante tal
P
n
que |aii | > |aij | para pelo menos alguma linha i, então A é invertı́vel.
j=1
j6=i
Prova. Segue do teorema anterior da mesma forma que o Corolário 3.7 segue do Teorema 3.6. ¥
Vamos tentar entender melhor o significado da propriedade FC. Note que ela se refere apenas à localização
dos elementos não-nulos de A fora da diagonal principal – os elementos da diagonal principal e os valores
especı́ficos dos elementos fora da diagonal principal são irrelevantes. Isso motiva as seguintes definições:
Definição. Dada uma matriz A = (aij ) ∈ Mn (C) definimos o módulo da matriz A como sendo a matriz
|A| = (|aij |)
cujos elementos são os módulos dos elementos da matriz A e a matriz indicadora de A como sendo
a matriz
M (A) = (µij ) ,
onde ½
1 se aij 6= 0,
µij =
0 se aij = 0.
O conceito de uma seqüência de entradas não-nulas da matriz A que aparece na definição da propriedade
FC pode ser visualizado em termos de caminhos em um grafo associado a A:
Definição. Dada uma matriz A ∈ Mn (C), o grafo direcionado de A é o grafo direcionado Γ (A) com n
nodos P1 , . . . , Pn tais que existe um arco direcionado em Γ (A) de Pi a Pj se e somente se aij 6= 0.
Um caminho direcionado γ em um grafo Γ é uma seqüência de arcos Pi1 Pi2 , Pi2 Pi3 , . . . em Γ. O
comprimento de um caminho direcionado é o número de arcos sucessivos no caminho direcionado. Um
ciclo é um caminho direcionado que começa e termina no mesmo nó.
Dizemos que um grafo direcionado é fortemente conexo se entre qualquer par de nodos distintos
Pi , Pj ∈ Γ existir um caminho direcionado de comprimento finito que começa em Pi e termina em Pj .
Observe que quando Γ é um grafo direcionado com n nodos, se existe um caminho direcionado entre dois
nodos de Γ, então sempre existe um caminho direcionado entre estes dois nodos de comprimento menor que
ou igual a n − 1.
Rodney Josué Biezuner 80
3.11 Teorema. Sejam A ∈ Mn (C) e Pi , Pj nodos de Γ (A). Existe um caminho direcionado de compri-
mento m em Γ (A) de Pi para Pj se e somente se
m
(|A| )ij 6= 0
Prova. Provaremos o teorema por indução. Para m = 1 a afirmativa é trivial. Para m = 2, temos
³ ´ n
X n
X
2
|A| = (|A|)ik (|A|)kj = |aik | |akj | ,
ij
k=1 k=1
³ ´
2
de modo que |A| 6= 0 se e somente se aik , akj são ambos não-nulos para algum ı́ndice k. Mas isso é
ij
equivalente a dizer que existe um caminho direcionado de comprimento 2 em Γ (A) de Pi para Pj .
Em geral, supondo a afirmativa provada para m, temos
³ ´ n
X n
X
m+1 m m
|A| = (|A| )ik (|A|)kj = (|A| )ik |akj | 6= 0
ij
k=1 k=1
m
se e somente se (|A| )ik , akj são ambos não-nulos para algum ı́ndice k. Por hipótese de indução, isso é
equivalente a existir um caminho direcionado de comprimento m em Γ (A) de Pi para Pk e um caminho
direcionado de comprimento 1 em Γ (A) de Pk para Pj , isto é, um caminho direcionado de comprimento
m + 1 em Γ (A) de Pi para Pj . O mesmo argumento vale para M (A). ¥
Definição. Seja A = (aij ) ∈ Mn (C). Dizemos que A > 0 se aij > 0 para todos 1 6 i, j 6 n e que A > 0 se
aij > 0 para todos 1 6 i, j 6 n.
3.12 Corolário. Seja A ∈ Mn (C). Existe um caminho direcionado de comprimento m em Γ (A) de cada
nodo Pi para cada nodo Pj se e somente se
m
|A| >0
Prova. Temos
µ ¶ µ ¶
n−1 n−1 2 n−1 n−1 n−1
(I + |A|) = I + (n − 1) |A| + |A| + . . . + |A| + |A| >0
2 n−3
Rodney Josué Biezuner 81
2 n−1
se e somente se para cada par de ı́ndices i, j com i 6= j pelo menos um dos termos |A| , |A| , . . . , |A|
tem uma entrada positiva em (i, j). Pelo Teorema 3.11, isso ocorre se e somente se existe algum caminho
direcionado em Γ (A) de Pi para Pj com comprimento 6 n−1. Isto é equivalente a A satisfazer a propriedade
FC. O mesmo argumento vale para M (A). ¥
Em geral, a maneira como uma matriz foi obtida (como as nossas matrizes de discretização; veja a última
seção do capı́tulo) torna clara se elas são matrizes que satisfazem a propriedade FC ou não. Se isso
não é possı́vel, e pretende-se verificar a propriedade FC através do Corolário 3.13, é preferı́vel calcular
n−1
[I + M (A)] , já que M (A) é uma matriz composta apenas de 0’s e 1’s.
Matrizes de transposição são simétricas. O efeito de multiplicar uma matriz A por uma matriz de transposição
à esquerda é trocar a posição de duas linhas da matriz A (no caso acima, as linhas k e l), enquanto que a
multiplicação de A por uma matriz de transposição à direita muda a posição de duas colunas de A (no caso
acima, as colunas k e l).
1 0 0 0 a11 a12 a13 a14 a11 a12 a13 a14
0 0 1 0 a21 a22 a23 a24 a31 a32 a33 a34
TA =
0 1 0 0 a31 a32 a33 a34 = a21 a22 a23 a24 ,
P t AP = Tm . . . T1 AT1 . . . Tm
é portanto obtida através da permutação de linhas e colunas de A, de modo que nenhum novo elemento é
criado ou algum elemento existente de A destruı́do.
Definição. Dizemos que uma matriz A ∈ Mn (C) é redutı́vel se existe alguma matriz de permutação P e
algum inteiro 1 6 m 6 n − 1 tal que · ¸
B C
P t AP =
0 D
onde B é uma matriz m × m, D é uma matriz (n − m) × (n − m), C é uma matriz m × (n − m) e 0 é
a matriz nula (n − m) × m. Caso contrário, dizemos que A é irredutı́vel.
Rodney Josué Biezuner 82
Da definição vemos que se |A| > 0, então A é irredutı́vel, e para que A seja redutı́vel, ela precisa ter pelo
menos n − 1 zeros (caso m = 1). A motivação para este nome é a seguinte. Suponha que queiramos resolver
o sistema Ax = b e que A seja redutı́vel. Então, se escrevermos
· ¸
B C
A = P t AP = ,
0 D
n−1
Prova. Para provar o resultado, mostraremos que A é redutı́vel se e somente se (I + |A|) possui pelo
menos uma entrada nula.
Assuma primeiramente que A é redutı́vel, de modo que para alguma matriz de permutação P tenhamos
· ¸
B C
A=P P t =: P AP t .
0 D
Observe que ¯ ¯ ¯ ¯
|A| = ¯P AP t ¯ = P ¯A¯ P t ,
já que o efeito de P é apenas trocar linhas e colunas. Além disso, note que
· k ¸
k B Ck
A =
0 Dk
e todos os termos dentro dos colchetes são matrizes que tem um bloco (n − m) × m nulo no canto esquerdo
n−1
inferior, segue que (I + |A|) é redutı́vel, logo possui entradas nulas e não pode ser positiva.
Rodney Josué Biezuner 83
n−1
Reciprocamente, suponha que (I + |A|) possui pelo menos uma entrada nula. Como
n−1
X µ ¶
n−1 n−1 m
(I + |A|) =I+ |A| ,
m=1
m
n−1
(I
h + |A|) não
i possui entradas diagonais nulas, logo podemos assumir que para algum par i 6= j temos
n−1 m
(I + |A|) = 0, o que implica [|A| ]ij = 0 para todo 1 6 m 6 n − 1. Pelo Teorema 3.11 (e observação
ij
imediatamente posterior à definição de grafo direcionado), não existe um caminho direcionado em Γ (A) de
comprimento finito entre Pi e Pj . Defina os conjuntos de nodos
Por definição destes conjuntos, não pode existir nenhum caminho de algum nodo de S2 para algum nodo de
m
S1 , logo [|A| ]lk = 0 se Pl ∈ S2 e Pk ∈ S1 . E ambos os conjuntos são não-vazios, pois Pj ∈ S1 e Pi ∈ S2 .
Renomeando os nodos de modo que
n o
S1 = Pe1 , . . . , Pem ,
n o
S2 = Pem+1 , . . . , Pen ,
De fato, P é justamente a matriz de permutação que troca as colunas de tal forma que as variáveis anteriores
correspondentes aos nodos Pe1 , . . . , Pem no sistema Ax = b são as novas m primeiras variáveis do sistema linear
Ax = b; como não existe nenhum caminho direcionado entre nenhum dos nodos Pem+1 , . . . , Pen e qualquer um
dos nodos Pe1 , . . . , Pem , temos aij = 0 para m + 1 6 i 6 n e 1 6 j 6 m pelo Teorema 3.11. ¥
3.15 Corolário. Uma matriz A ∈ Mn (C) é irredutı́vel se e somente se ela satisfaz a propriedade FC.
P
n
3.16 Proposição. Se A é uma matriz irredutı́vel, diagonalmente dominante tal que |aii | > |aij | para
j=1
j6=i
pelo menos alguma linha i, então A é invertı́vel.
Além disso, se A é hermitiana e todos os elementos da diagonal principal de A são positivos, então
todos os autovalores de A são positivos.
Prova. O resultado segue do Teorema 3.14, do Corolário 3.9 e do Teorema dos Discos de Gershgorin (veja
comentários após o Teorema 3.2). ¥
são não-nulas: no caso unidimensional, basta percorrer a malha diretamente de Pi até Pj (andando a partir
de Pi sempre para a direita ou sempre para a esquerda, conforme o caso, até encontrar Pj ), e no caso
bidimensional basta usar qualquer caminho interior de Pi até Pj (pode-se usar a ordem lexicográfica para
percorrer a malha, ou a ordem lexicográfica inversa, dependendo das posições relativas de Pi e Pj ; no entanto,
estes caminhos são mais longos que o necessário). Em outras palavras, identificando as malhas de pontos
internos com os grafos direcionados da matriz de discretização, de modo que existe um arco direcionado entre
dois pontos da malha se e somente se eles são vizinhos, os esquemas de discretização considerados garantem
que estes grafos são fortemente conexos.
As matrizes obtidas através de diferenças finitas em geral são irredutı́veis, pois elas satisfazem a pro-
priedade FC. É difı́cil imaginar um esquema de diferenças finitas para uma malha sobre um domı́nio conexo
em que não houvesse um caminho direcionado entre pontos vizinhos (isto é, em que tivéssemos aij = 0
para dois pontos vizinhos Pi e Pj ). Outra maneira de pensar sobre isso é observar que se uma matriz de
discretização fôsse (após permutação de linhas e colunas) da forma
· ¸
B C
,
0 D
isso implicaria que um conjunto de pontos da malha (os correspondentes ao bloco D) teriam diferenças
finitas independentes do conjunto dos pontos restantes da malha (os correspondentes ao bloco D); pior
ainda, estes últimos poderiam ter diferenças finitas dependentes dos primeiros (já que o bloco C poderia
ser não-nulo). Em última análise, seria possı́vel reduzir o problema de resolver o sistema linear associado à
discretização a dois problemas mais simples. É difı́cil imaginar um esquema de diferenças finitas com esta
propriedade, embora talvez possa ocorrer em algum domı́nio com geometria altamente irregular em que a
malha de pontos interiores se dividisse em essencialmente duas malhas independentes. Tal situação deve ser
evitada com cuidado na hora de discretizar tais regiões.
Nestas linhas existe dominância diagonal, enquanto que nas linhas correspondentes a pontos adjacentes à
fronteira do disco temos
(n−1)×m+1
X
|aij | = αi + 2δi < |aii | ,
j=1
j6=i
isto é, temos dominância diagonal estrita. Finalmente, para a primeira linha também temos dominância
diagonal, pois
4
|a00 | = ,
∆r2
(n−1)×m+1
X 2 ∆θ m ∆θ 4
|a0j | = m =4 = = |a00 | .
j=1
π ∆r2 2π ∆r2 ∆r2
j6=0
Ax = b.
Embora a matriz A que temos em mente é em geral uma matriz grande e esparsa, do tipo que aparece
em esquemas de diferenças finitas, os métodos considerados aqui requerem apenas que A seja uma matriz
invertı́vel com todas as entradas diagonais aii não-nulas.
Métodos iterativos requerem um chute inicial x0 , um vetor inicial que aproxima a solução exata x (se
não há nenhuma informação disponı́vel sobre a solução exata, de modo que não temos como construir o
chute inicial de forma inteligente, x0 pode ser uma aproximação muito ruim de x). Uma vez que x0 é dado,
o método iterativo gera a partir de x0 uma nova aproximação x1 , que esperamos deve aproximar melhor a
solução exata. Em seguida, x1 é usada para gerar 2
¡ k ¢uma nova melhor aproximação x e assim por diante.
Desta forma, gera-se uma seqüência de vetores x que espera-se convergir para x. Como na prática não
podemos iterar para sempre, algum critério de parada deve ser estabelecido a priori. Uma vez que xk esteja
suficientemente próximo da solução exata quanto se precise, de acordo com uma margem de tolerância aceita,
pára-se o processo de iteração e aceita-se xk como a solução aproximada adequada para o problema. Por
exemplo, o critério de parada pode ser estabelecido através de uma cota de tolerância τ : quando
° °
°b − Axk ° < τ
ou quando ° k+1 °
°x − xk ° < τ
as iterações são interrompidas e o último valor aproximado obtido é aceito como a melhor aproximação da
solução dentro das circunstâncias.
Os métodos discutidos neste capı́tulo não necessitam de um bom chute inicial (embora, é claro, quanto
melhor o chute inicial, menor o número de iterações necessárias para se chegar à solução aproximada com a
precisão especificada).
86
Rodney Josué Biezuner 87
se aii 6= 0 para todo i, cada xi pode ser isolado na i-ésima equação e escrito na forma
Xn
1 bi −
xi = aij xj
.
aii j=1
j6=i
¡ ¢
Isso sugere definir um método iterativo da seguinte forma: suposto xk = xk1 , . . . , xkn obtido no passo
¡ ¢
anterior, obtemos xk+1 = xk+1
1 , . . . , xk+1
n por
Xn
1 bi −
xk+1
i = aij xkj
. (4.1)
aii j=1
j6=i
No caso da fórmula de cinco pontos para o problema de Poisson com ∆x = ∆y, como a equação para
cada ponto (i, j) é dada por
o método de Jacobi é
1¡ k ¢
uk+1
i,j = ui,j−1 + uki,j+1 + uki−1,j + uki+1,j + ∆x2 fi,j . (4.2)
4
No caso especial da equação de Laplace (f = 0) com condição de fronteira de Dirichlet não-nula, o método
de Jacobi é simplesmente a propriedade do valor médio discreta
1¡ k ¢
uk+1
i,j = ui,j−1 + uki,j+1 + uki−1,j + uki+1,j . (4.3)
4
Em outras palavras, calculados os valores de u em todos os pontos da malha na iteração anterior, o novo
valor de u em um ponto interior da malha nesta iteração é calculado através da média dos seus quatro
pontos vizinhos. Os valores iniciais de u nos pontos interiores da malha para a primeira iteração (isto é, o
chute inicial) podem ser atribuidos arbitrariamente ou através de algum argumento razoável; por exemplo,
podemos utilizar uma média ponderada dos valores de fronteira para o valor inicial em cada ponto interior
da malha, de acordo com a posição do ponto em relação aos pontos das quatro fronteiras discretizadas.
Em forma matricial, o algoritmo de Jacobi pode ser descrito da seguinte forma. Denotando por D = diag
(a11 , . . . , ann ) a matriz diagonal cujas entradas são as entradas diagonais de A, temos que
£ ¤
xk+1 = D−1 (D − A) xk + b (4.4)
ou ¡ ¢
xk+1 = D−1 Cxk + b (4.5)
onde C = D − A é a matriz consistindo dos elementos restantes de A fora da diagonal principal.
Rodney Josué Biezuner 88
Então definimos
i−1
X Xn
1
xk+1
i = bi − aij xk+1
j + aij xkj (4.6)
aii j=1 j=i+1
fator em cada passo (se mover um passo na direção de xk para xk+1 é bom, mover naquela direção ω > 1
passos é melhor). Este é o chamado método de sobrerelaxamento sucessivo (SOR, successive overrelaxation):
usando o método de Gauss-Seidel obtemos
i−1
X Xn
1 bi −
bk+1
xi = aij xk+1
j + aij xkj ;
aii j=1 j=i+1
temos £ ¤
Dxk+1 = Dxk + ω Lxk+1 + (U − D) xk + b (4.14)
ou µ ¶ µ ¶
1 k+1 1−ω
D−L x = D + U xk + b,
ω ω
donde µ ¶−1 ·µ ¶ ¸
k+1 1 1−ω k
x = D−L D+U x +b . (4.15)
ω ω
e tomamos ¡ k+1 ¢
xk+1
i = xki + ω x
bi − xki ,
ou seja,
Xn
1
xk+1 = xk
+ ω b − aij xkj k
i i aii i − xi . (4.16)
j=1
j6=i
Rodney Josué Biezuner 91
Este método é conhecido como método de Jacobi amortecido, método de Jacobi ponderado ou ainda
método de relaxamento simultâneo (diferente do método de relaxamento sucessivo, baseado no método de
Gauss-Seidel, em que cada variável é substituı́da sucessivamente dentro da mesma iteração à medida que
ela é atualizada; no método de Jacobi, as variáveis são todas substituı́das simultameamente na próxima
iteração).
Em forma matricial, o método de Jacobi amortecido pode ser descrito da seguinte forma. Denotando por
D a parte diagonal de A, temos
Xn
aii xk+1
i = aii xki + ω bi − aij xkj ,
j=1
temos £ ¤
Dxk+1 = Dxk + ω b − Axk (4.17)
ou µ ¶ µ ¶
1 1
D xk+1 = D − A xk + ωb,
ω ω
donde µ ¶−1 ·µ ¶ ¸
k+1 1 1 k
x = D D−A x +b . (4.18)
ω ω
Em contraste com o método SOR, que converge em geral para 0 < ω < 2, o método de Jacobi amortecido
converge para 0 < ω 6 1 (veja a próxima seção).
ek = x − xk , (4.21)
O erro algébrico tem interesse puramente teórico (para provar que determinado método iterativo converge,
precisamos mostrar que o erro algébrico tende a zero), já que ele só pode ser calculado uma vez que se
conhece a solução exata, e se este for o caso obviamente não há necessidade de resolver o sistema. Já o erro
residual pode ser usado como critério de parada para o método iterativo. Como
¡ ¢
Bek+1 = Bx − Bxk+1 = Ax + Cx − Cxk − b = C x − xk = Cek ,
segue que
ek+1 = B −1 Cek .
Observe que
B −1 C = B −1 (B − A) = I − B −1 A.
A matriz
R = I − B −1 A = B −1 C (4.23)
é chamada a matriz de iteração ou matriz de propagação do erro do algoritmo considerado, porque
Logo,
n
X
ek = Rk e0 = ai λki vi ,
i=1
de modo que
n
¯ k¯ X
¯e ¯ 6 k
|ai | |λi | |vi | .
i=1
k
Como |λi | → 0 se e somente se |λi | < 1, concluı́mos que ek → 0 qualquer que seja o erro inicial (isto é,
qualquer que seja o chute inicial), se e somente se ρ (R) = max16i6n |λi | < 1 .
Rodney Josué Biezuner 93
ρ (A) 6 kAk .
Ax = λx.
Considere a matriz X ∈ Mn (C) cujas colunas são todas iguais ao vetor x. Temos também
AX = λX
de modo que
|λ| kXk = kAXk 6 kAk kXk ,
donde
|λ| 6 kAk
para todo autovalor λ de A. Como existe um autovalor λ de A tal que ρ (A) = λ, isso prova o resultado. ¥
4.2 Lema. Seja A ∈ Mn (C) e ε > 0 dado. Então existe uma norma matricial k·k tal que
Prova. Toda matriz complexa é triangularizável através de uma matriz unitária (isto é, uma matriz U que
satisfaz U ∗ U = U U ∗ = I; sua inversa é a sua adjunta ou transposta conjugada). Sejam então
λ1 a12 a22 . . . a1n
λ2 a23 . . . a2n
λ3 . . . a3n
T =
.. ..
. .
λn
uma matriz triangular e U uma matriz unitária tais que
A = U ∗ T U.
para t suficientemente grande. Portanto, fixado um tal t, se definirmos uma norma por
° ° °¡ ¢−1 °
° °
kAk := °Dt U AU ∗ Dt−1 °L = ° U ∗ Dt−1 AU ∗ Dt−1 ° ,
L
teremos ° ° ° °
kAk = °Dt U AU ∗ Dt−1 °L = °Dt T Dt−1 °L 6 ρ (A) + ε.
Pelo lema anterior, ρ (A) 6 kAk. ¥
4.3 Lema. Seja A ∈ Mn (C). Se existe alguma norma matricial k·k tal que kAk < 1, então
Ak → 0.
Prova. Se existe algum autovalor λ de A tal que |λ| > 1 e x é um autovetor não-nulo correspondente, então
Ak x = λk x
não converge para 0. Reciprocamente, se ρ (A) < 1, então pelo Lema 4.2 existe uma norma matricial k·k tal
que kAk < 1, logo Ak → 0 pelo lema anterior. ¥
ek → 0
se e somente se
ρ (R) < 1.
Em outras palavras, um método iterativo linear é convergente independentemente da escolha do chute
inicial se e somente se todos os autovalores da matriz de iteração têm valor absoluto menor que 1.
A = B1 − C1 = B2 − C2 ,
Vamos analisar a velocidade de convergência dos métodos iterativos com maior precisão. Novamente à
tı́tulo de motivação, suponha que A é uma matriz diagonalizável com seu maior autovalor sendo um autovalor
simples. Ordene os autovalores de A na forma
donde
n
X
ek = Rk e0 = ai λki vi ,
i=1
segue que " #
n
X µ ¶k
λi
ek = λk1 a1 x1 + ai vi .
i=2
λ1
Como µ ¶k
λi
→ 0,
λ1
k
a taxa de convergência é determinada por |λ1 | . Para k grande, temos
ek ≈ λk1 a1 v1 .
Portanto, ¯ k+1 ¯
¯e ¯
= |λ1 | = ρ (R) . (4.28)
|ek |
Em outras palavras, a convergência é linear com taxa de convergência igual ao raio espectral. Se a1 =
0 a convergência será mais rápida, pois dependerá do módulo do segundo autovalor, mas é obviamente
extremamente raro que o chute inicial satisfaça esta condição. Para o caso geral, precisamos do seguinte
resultado:
4.6 Proposição. Seja A ∈ Mn (C) e k·k uma norma matricial. Então
° °1/k
ρ (A) = lim °Ak ° .
Prova. Como os autovalores da matriz Ak são as k-ésimas potências dos autovalores de A, temos que
¡ ¢ ° °
ρ (A) = ρ Ak 6 °Ak ° ,
k
donde ° °1/k
ρ (A) 6 °Ak ° .
Dado ε > 0, a matriz
1
B= A
ρ (A) + ε
tem raio espectral menor que 1, logo B k → 0. Portanto, existe algum N = N (ε, A) tal que
° k°
°B ° < 1
ou seja,
° k °1/k
°A ° < ρ (A) + ε
para todo k > N . ¥
Definimos a taxa média de convergência de um método iterativo linear com matriz de iteração R por
° °1/k 1 ° °
Rk (R) = − log10 °Rk ° = − log10 °Rk ° (4.29)
k
e a taxa assintótica de convergência por
R∞ (R) = lim Rk (R) . (4.30)
k→∞
Rodney Josué Biezuner 96
4.7 Corolário. Seja R a matriz de iteração de um método iterativo linear. Então a taxa assintótica de
convergência do método é dada por
¥
A taxa assintótica de convergência mede o aumento no número de casas decimais corretas na solução por
iteração. De fato, usando a norma matricial do Lema 4.2 e medindo as normas dos vetores de acordo, temos
¯ k+1 ¯ ¯ k+1 0 ¯
¯e ¯ ¯R e ¯
= 6 kRk = ρ (R) + ε,
|ek | |Rk e0 |
donde ¯ k+1 ¯
¯e ¯
− log10 = − log10 ρ (R) + O (ε)
|ek |
ou ¯ ¯ ¯ ¯
log10 ¯ek ¯ − log10 ¯ek+1 ¯ = R∞ (R) + O (ε) . (4.32)
Assim, se
¯ k¯ ¡ ¢
¯e ¯ = O 10−p ,
¯ k+1 ¯ ¡ ¢
¯e ¯ = O 10−q ,
teremos
q − p ≈ R∞ (R) ,
isto é, reduzimos R∞ (R) ≈ q − p casas decimais no erro. Visto de outra forma, como
¯ k+m ¯ ¯ k+m 0 ¯
¯e ¯ ¯R e ¯ m
= 6 kRm k = ρ (R) + O (ε) ,
|ek | |Rk e0 |
donde ¯ k+m ¯
¯e ¯
− log10 ≈ −m log10 ρ (R) ,
|ek |
ou ¡¯ ¯ ¯ ¯¢
log10 ¯ek+m ¯ / ¯ek ¯
m= (4.33)
log10 ρ (R)
é o número de iterações necessárias para diminuir o erro de um número prescrito de casas decimais.
A6B
se
hAx, xi 6 hBx, xi
n
para todo x ∈ C .
Rodney Josué Biezuner 97
Em particular, se A é uma matriz positiva definida, segue que A > εI para algum ε (o menor autovalor de
A) e denotamos este fato por
A > 0.
4.8 Teorema. Seja A uma matriz simétrica positiva definida e seja A = B − C com B invertı́vel. Então
o método iterativo linear com matriz de iteração R = B −1 C converge se e somente se B t + C é uma
matriz simétrica positiva definida.
e consideraremos a norma matricial k·kA induzida por esta norma. Se provarmos que
kRkA < 1,
ou ¡ ¢t ¡ ¢
C t B −t AB −1 C = A − B −1 A B t + C B −1 A, (4.35)
de modo que C t B −t AB −1 C é uma matriz simétrica, positiva definida. Logo, por (4.34), mostrar que
kRkA < 1 é equivalente a provar que
C t B −t AB −1 C < A,
¡ ¢t
e por (4.35) C t B −t AB −1 C < A se e somente se B −1 A (B t + C) B −1 A > 0, o que é verdade porque B t +C
é positiva definida. ¥
Mas, pela Proposição 3.16, isso implica que I − λ−1 R é invertı́vel, uma contradição. ¥
O Teorema 4.8 mostra que o método de Jacobi converge para as matrizes de discretização obtidas através
dos esquemas de diferenças finitas do Capı́tulo 2.
Através do Teorema 4.9, fomos capazes de provar a convergência do método de Jacobi para as matrizes de
discretização sem calcular explicitamente os seus raios espectrais. Para analizar a velocidade de convergência
do método de Jacobi, no entanto, é necessário obter os raios espectrais destas matrizes. Vamos fazer isso
para as matrizes de discretização obtidas a partir da fórmula de três pontos unidimensional e a partir da
fórmula de cinco pontos bidimensional.
4.10 Teorema. Seja A a matriz de discretização obtida a partir da fórmula de três pontos unidimensional
ou a partir da fórmula de cinco pontos bidimensional com ∆x = ∆y. Seja R = D−1 (D − A) a matriz
de iteração do método de Jacobi. Então
π
ρ (R) = cos . (4.36)
n
Prova. Para o método de Jacobi, a matriz de discretização xk+1 = Rxk + D−1 b é obtida através da fórmula:
1¡ k ¢
uk+1
i,j = ui,j−1 + uki,j+1 + uki−1,j + uki+1,j .
4
Já vimos no Lema 2.2 que
¡ ¢ kl
−ukl kl kl kl kl
i−1,j − ui+1,j + 4ui,j − ui,j−1 − ui,j+1 = λkl ∆x
2
ui,j
com µ ¶
2 kπ lπ
λkl = 2 − cos − cos .
∆x2 n n
Daı́ segue que ¡ ¢ kl
ukl kl kl kl
i,j−1 + ui,j+1 + ui−1,j + ui+1,j = 4 − λkl ∆x
2
ui,j
Logo
1 ¡ kl ¢
u + ukl kl kl kl
i,j+1 + ui−1,j + ui+1,j = µlk ui,j
4 i,j−1
para µ ¶ µ ¶
1 1 kπ lπ 1 kπ lπ
µlk = 1 − λkl ∆x2 = 1 − 2 − cos − cos = cos + cos .
4 2 n n 2 n n
Rodney Josué Biezuner 99
Estes são os autovalores da matriz de iteração de Jacobi para a matriz de discretização obtida a partir da
fórmula de cinco pontos (observe que elas possuem os mesmos autovetores; no entanto R possui autovalores
nulos). Segue que o máximo autovalor ocorre quando k = l = 1, logo
π
ρ (R) = cos .
n
O argumento para a fórmula de três pontos é análogo. ¥
Para o quadrado unitário temos
ρ (R) = cos (π∆x) . (4.37)
Vemos em particular que ρ (R) → 1 quando ∆x → 0, de modo que a velocidade de convergência do método
de Jacobi vai ficando cada vez menor para malhas mais refinadas. Podemos dizer mais usando a expansão
da função cosseno em torno da origem
1 ¡ ¢
cos x = 1 − x2 + O x4 ;
2
se ∆x é pequeno podemos aproximar
π2
cos (π∆x) ≈ 1 − ∆x2 ,
2
de modo que ρ (R) → 1 quadraticamente quando ∆x → 0. Em outras palavras, para uma malha duas vezes
mais refinada (isto é, ∆x reduzido pela metade), o método de Jacobi é cerca de quatro vezes mais vagaroso
em média (consulte novamente a tabela no final da seção anterior). A tabela abaixo mostra os valores do
raio espectral para alguns valores de ∆x:
de modo que para reduzir o erro pelo fator de uma casa decimal precisamos de
log10 0.1 1 1
m= =− = ≈ 742
log10 ρ (R) log10 ρ (R) 0.00135
iterações.
Prova. Sejam D a parte diagonal, −L a parte triangular inferior estrita e −U a parte triangular superior
−1
estrita da matriz A, e seja R = (D − L) U a matriz de iteração do método de Gauss-Seidel para A.
Escrevemos £ ¡ ¢¤−1
−1
R = (D − L) U = D I − D−1 L U
ou ¡ ¢−1 −1
R = I − D−1 L D U. (4.38)
Rodney Josué Biezuner 100
Suponha por absurdo que exista um autovalor λ de R tal que |λ| > 1; como na demonstração do Teorema
4.9, temos ³ h¡
¡ ¢ ¢−1 −1 i´
det I − λ−1 R = det I − λ−1 I − D−1 L D U = 0.
Agora, observando que ¡ ¢
det I − D−1 L = 1
porque I − D−1 L é uma matriz triangular inferior com apenas 1’s na diagonal principal, escrevemos
³ h¡ ¢−1 −1 i´
0 = det I − λ−1 I − D−1 L D U
¡ ¢ ³ h¡ ¢−1 −1 i´
= det I − D−1 L det I − λ−1 I − D−1 L D U
n¡ ¢ ³ h ¡ ¢−1 −1 i´o
= det I − D−1 L I − λ−1 I − D−1 L D U
¡ ¢
= det I − D−1 L − λ−1 D−1 U .
4.12 Teorema. Seja A a matriz de discretização obtida a partir da fórmula de três pontos unidimensional
−1
ou a partir da fórmula de cinco pontos bidimensional com ∆x = ∆y. Seja R = (D − L) U a matriz
de iteração do método de Gauss-Seidel. Então
π
ρ (R) = cos2 . (4.39)
n
Prova. Para obter o raio espectral da matriz de iteração R, queremos encontrar os autovalores µ de R:
−1
Ru = (D − L) U u = µu,
ou seja,
U u = µ (D − L) u
(um problema de autovalor generalizado). No caso da matriz de discretização da fórmula de cinco pontos,
isso significa encontrar µ tal que
para transformar a equação de autovalor naquela que aparece no método de Jacobi. Temos
i+j+1 i+j+1
³ i+j i+j−1 i+j−1
´
µ 2 vi,j + µ 2 vi+1,j = µ 4µ 2 vi,j − µ 2 vi,j−1 − µ 2 vi−1,j
i+j+2 i+j+1 i+j+1
= 4µ 2 vi,j − µ 2 vi,j−1 − µ 2 vi−1,j ,
i+j+1
de modo que, dividindo por µ 2 , obtemos
Portanto os autovalores da matriz de iteração de Gauss-Seidel para esta matriz são exatamente os quadrados
dos autovalores da matriz de iteração de Jacobi (e os autovetores são os mesmos):
µ ¶2
1 kπ lπ
µlk = cos + cos .
4 n n
Portanto, o máximo autovalor ocorre quando k = l = 1 e
π
ρ (R) = cos2 .
n
O argumento para a fórmula de três pontos é análogo. ¥
Para o quadrado unitário temos
ρ (R) = cos2 (π∆x) ,
e usando · ¸
1 ¡ ¢ 2 ¡ ¢
cos2 x = 1 − x2 + O x4 = 1 − x2 + O x4 ,
2
se ∆x é pequeno podemos aproximar
No método de Gauss-Seidel ainda temos ρ (R) → 1 quadraticamente quando ∆x → 0, mas a sua velocidade
de convergência para a matriz de discretização de cinco pontos do quadrado unitário é duas vezes maior que
a do método de Jacobi. Para ver isso, faça a expansão do logaritmo em torno do ponto x = 1:
¡ ¢
log (1 + x) = x + O ∆x2 .
Segue que
π2 ¡ ¢
R∞ (RJacobi ) = ∆x2 + O ∆x4 , (4.42)
2 ¡ ¢
R∞ (RGauss-Seidel ) = π 2 ∆x2 + O ∆x4 . (4.43)
0 < ω < 2.
ou ¡ ¢−1 £ ¤
R = I − ωD−1 L (1 − ω) I + ωD−1 U . (4.44)
Se λ1 , . . . , λn são os autovalores de R, então
det R = λ1 . . . λn .
Mas,
n¡ ¢−1 £ ¤o
det R = det I − ωD−1 L (1 − ω) I + ωD−1 U
¡ ¢−1 £ ¤
= det I − ωD−1 L det (1 − ω) I + ωD−1 U
n
= (1 − ω) ,
já que I − ωD−1 L é uma matriz triangular inferior com apenas 1 na diagonal principal e (1 − ω) I + ωD−1 U
é uma matriz triangular superior com apenas 1 − ω na diagonal principal. Logo
n
λ1 . . . λn = (1 − ω) .
|λj | > |1 − ω| .
Mas, se o método SOR converge, devemos ter também |λ| < 1 para todo autovalor λ de R. Logo
|1 − ω| < 1,
donde
0 < ω < 2.
¥
Em particular, diferente das matrizes de iteração dos métodos de Jacobi e de Gauss-Seidel (para a matriz de
discretização de cinco pontos), zero não é um autovalor para a matriz de iteração do método SOR se ω 6= 1
(para nenhuma matriz).
P
n
4.15 Teorema. Se A é uma matriz irredutı́vel, diagonalmente dominante tal que |aii | > |aij | para pelo
j=1
j6=i
menos alguma linha i, então o método SOR converge se 0 < ω 6 1.
Suponha por absurdo que exista um autovalor λ de R tal que |λ| > 1; temos
¡ ¢ ³ n¡ ¢−1 £ ¤o´
det I − λ−1 R = det I − λ−1 I − ωD−1 L (1 − ω) I + ωD−1 U = 0.
porque I − ωD−1 L é uma matriz triangular inferior com apenas 1’s na diagonal principal, escrevemos
³ n¡ ¢−1 £ ¤o´
0 = det I − λ−1 I − ωD−1 L (1 − ω) I + ωD−1 U
¡ ¢ ³ n¡ ¢−1 £ ¤o´
= det I − ωD−1 L det I − λ−1 I − ωD−1 L (1 − ω) I + ωD−1 U
h¡ ¢³ n¡ ¢−1 £ ¤o´i
= det I − ωD−1 L I − λ−1 I − ωD−1 L (1 − ω) I + ωD−1 U
¡ £ ¤¢
= det I − ωD−1 L − λ−1 (1 − ω) I + ωD−1 U
©£ ¤ ª
= det 1 − λ−1 (1 − ω) I − ωD−1 L − λ−1 ωD−1 U .
é irredutı́vel, diagonalmente dominante e estritamente dominante nas linhas onde A é, logo a matriz
£ ¤
S = 1 − λ−1 (1 − ω) I − ωD−1 L − λ−1 ωD−1 U
também satisfaz estas propriedades. De fato, S tem zeros nas mesmas posições que I − D−1 L − D−1 U , logo
a sua irredutibilidade não é afetada. Além disso, pela dominância diagonal de D−1 A, sabemos que se
¡ ¢
bij = D−1 L ij ,
¡ ¢
cij = D−1 U ij .
então
i−1
X n
X
1> |bij | + |cij | .
j=1 j=i+1
Para provar a dominância diagonal de S, observamos que os valores que S possui na diagonal principal são
1−ω λ+ω−1
1 − λ−1 (1 − ω) = 1 − = ,
λ λ
de modo que precisamos provar que
¯ ¯ i−1 n
¯λ + ω − 1¯ X ω X
¯ ¯>ω |b | + |cij |
¯ λ ¯ ij
|λ| j=i+1
j=1
Para isso, observe que como |λ| > 1 basta provar a primeira desigualdade, a qual por sua vez é equivalente a
|λ + ω − 1| > |λ| ω.
O resultado acima continua valendo com desigualdade estrita nas linhas onde a desigualdade é estrita. A
Proposição 3.16 implica então que S é invertı́vel, contradizendo det S = 0. ¥
4.16 Teorema. Seja A uma matriz simétrica positiva definida. Então o método SOR converge se 0 < ω < 2.
4.17 Teorema. Seja A uma matriz simétrica com entradas diagonais positivas. Então o método SOR
converge se e somente se A é positiva definida e 0 < ω < 2.
Isolando λ, ®
(1 − ω) hx, xi + ω x, D−1 U x
λ= . (4.45)
hx, xi − ω hx, D−1 Lxi
Como A é simétrica, o produto de matrizes simétricas D−1 A = I − D−1 U − D−1 L também é; como
D−1 U, D−1 L são respectivamente a parte estritamente triangular superior e estritamente triangular infe-
rior de uma matriz simétrica, temos
¡ −1 ¢t
D U = D−1 L.
Logo
® D¡ ¢t E ¡ ¢ ®
x, D−1 U x = D−1 U x, x = D−1 L x, x = hx, (D−1 L) xi,
e definindo ¡ −1 ¢ ®
x, D L x
z= ,
hx, xi
Rodney Josué Biezuner 105
podemos escrever
(1 − ω) + ωz
λ= . (4.46)
1 − ωz
Os argumentos acima assumem que o denominador é não-nulo. E, de fato, temos
à ¡ ¢ ® ¡ −1 ¢ ® ! ¡ ¢ ®
1 1 x, D−1 L x x, D U x 1 x, D−1 L + D−1 U x
Re z = (z + z) = + =
2 2 hx, xi hx, xi 2 hx, xi
¡ ¢ ® Ã ¡ ¢ ® !
1 x, I − D−1 A x 1 x, D−1 A x
= = 1− .
2 hx, xi 2 hx, xi
Prova. Argumentamos como na demonstração do Teorema 4.12. Para obter o raio espectral da matriz de
iteração RSOR , queremos encontrar os autovalores λ de RSOR :
¡ ¢−1 £ ¤
RSOR u = I − ωD−1 L (1 − ω) I + ωD−1 U u = λu,
ou seja, £ ¤ ¡ ¢
(1 − ω) I + ωD−1 U u = λ I − ωD−1 L u
No caso da matriz de discretização da fórmula de cinco pontos, isso significa encontrar λ tal que
ω ω ³ ω ω ´
(1 − ω) ui,j + ui,j+1 + ui+1,j = λ ui,j − ui,j−1 − ui−1,j
4 4 4 4
ou
1−ω−λ 1
ui,j = (ui,j+1 + ui+1,j + λui,j−1 + λui−1,j ) . (4.48)
ω 4
Fazendo a substituição
i+j
ui,j = λ 2 vi,j
i+j+1
e dividindo por µ 2 , segue que
1−ω−λ
vi−1,j + vi+1,j + vi,j−1 + vi,j+1 = 4vi,j
λ1/2 ω
e daı́ o resultado. ¥ √ ¡p ¢2
Resolvendo a equação (4.47) como uma equação quadrática em λ, vemos que as duas raı́zes λ± = λ±
podem ser escritas na forma
· q ¸2
1
λ± = −ωλJ ± ω 2 λ2J − 4 (ω − 1) . (4.49)
4
Denotaremos
Λω,λJ = max (|λ+ | , |λ− |) (4.50)
e por λJ = ρ (RJ ) o maior autovalor do método de Jacobi.
4.19 Proposição. Seja A a matriz de discretização obtida a partir da fórmula de três pontos unidimensional
ou a partir da fórmula de cinco pontos bidimensional com ∆x = ∆y. Então
2 2
Se λJ > λc , ω 2 λJ − 4 (ω − 1) > 0 e segue a conclusão como no caso anterior. Se λJ 6 λc , então ω 2 λJ −
4 (ω − 1) 6 0 e q q
2 2
ω 2 λJ − 4 (ω − 1) = 4 (ω − 1) − ω 2 λJ i,
√
onde i = −1, logo
¯ q ¯2 ¯¯r h
¯
i ¯2
¯ 2 ¯ ¯ 2 ¯
Λω,λJ = ¯¯ωλJ + ω 2 λJ − 4 (ω − 1)¯¯ = ¯ ω 2 λ2J + 4 (ω − 1) − ω 2 λJ ¯
¯ ¯
= ω − 1,
4.20 Proposição. Seja A a matriz de discretização obtida a partir da fórmula de três pontos unidimensional
ou a partir da fórmula de cinco pontos bidimensional com ∆x = ∆y. Então
µ q ¶2
1 2
2
ρ (RSOR,ω ) = ωλJ + ω λJ − 4 (ω − 1) se 0 < ω 6 ωótimo , (4.53)
4
ω−1 se ωótimo 6 ω < 2.
2
Prova. Temos ω 2 λJ − 4 (ω − 1) > 0 para 0 < ω < 2 se e somente se ω 6 ωótimo . De fato, as raı́zes de
2
f (ω) = ω 2 λJ − 4ω + 4 são q
2 µ q ¶
4 ± 4 1 − λJ 2 2
ω± = 2 = 2 1 ± 1 − λ J
2λJ λJ
de modo que a raiz positiva de f é maior que 2, logo para que f (ω) > 0 se 0 < ω < 2, devemos ter
³ 2
´
µ q ¶ 1 − 1 − λ
2 2 2 J 2
ω 6 2 1 − 1 − λJ = 2 q = q .
λJ λJ 1 + 1 − λ2 1 + 1 − λ
2
J J
4.21 Teorema. Seja A a matriz de discretização obtida a partir da fórmula de três pontos unidimensional
ou a partir da fórmula de cinco pontos bidimensional com ∆x = ∆y. Então o fator de relaxamento
ótimo para o método SOR é dado por
2
ωótimo = π (4.54)
1 + sen
n
é o fator de relaxamento ótimo para o método SOR.
2
Prova. Se 0 < ω 6 ωótimo , então ω 2 λJ − 4 (ω − 1) > 0 e
q
µ q ¶ 2 2
d 2 λJ ω 2 λJ − 4 (ω − 1) + ωλJ − 2
2
ωλJ + ω λJ − 4 (ω − 1) = q .
dω 2
ω 2 λJ − 4 (ω − 1)
Rodney Josué Biezuner 108
2
Temos ωλJ − 2 < 0, porque 0 < ω < 2 e λJ < 1, e
¯ ¯ q
¯ 2 ¯ 2
¯ωλJ − 2¯ > λJ ω 2 λJ − 4 (ω − 1),
pois
¯ ¯2
¯ 2 ¯ 4 2 4 2 2 4 2
¯ωλJ − 2¯ = ω 2 λJ − 4λJ ω + 4 > ω 2 λJ − 4λJ ω + 4λJ > ω 2 λJ − 4λJ (ω − 1)
· q ¸2
2
= λJ ω 2 λJ − 4 (ω − 1) .
Isso implica µ q ¶
d 2
2
ωλJ + ω λJ − 4 (ω − 1) < 0,
dω
logo ρ (RSOR,ω ) é decrescente de 0 até ωótimo . Para ωótimo 6 ω < 2, ρ (RSOR,ω ) = ω − 1 é claramente
crescente. Portanto, ρ (RSOR,ω ) atinge o seu mı́nimo em ωótimo .
Pelo Teorema 4.10, temos
π
λJ = cos ,
n
logo
2 2 2
ωótimo = q = r = π.
2 π 1 + sen
1 + 1 − λJ 1 + 1 − cos 2
n
n
¥
Para o quadrado unitário temos
2
ωótimo =
1 + sen (π∆x)
e conseqüentemente
2 1 − sen (π∆x)
ρ (RSOR,ω ) = −1= .
1 + sen (π∆x) 1 + sen (π∆x)
e usando
1−x ¡ ¢
= 1 − 2x + O x2 ,
1+x
¡ ¢
sen x = x + O x3 ,
se ∆x é pequeno podemos aproximar
1 − sen (π∆x) ¡ ¢
≈ 1 − 2π∆x + O ∆x2 .
1 + sen (π∆x)
Portanto, usando o valor ótimo de ω no método SOR, temos ρ (R) → 1 linearmente quando ∆x → 0, um
resultado muito melhor que o obtido nos métodos de Jacobi e de Gauss-Seidel. Para uma comparação mais
precisa, usando ¡ ¢
log (1 + x) = x + O ∆x2
temos que ¡ ¢
R∞ (RSOR ) = 2π∆x + O ∆x2 . (4.55)
Segue que
R∞ (RSOR ) 2π∆x 2
≈ 2 2 = .
R∞ (RGauss-Seidel ) π ∆x π∆x
Em particular, se ∆x = 0.025, temos ωótimo = 1. 8545 e R∞ (RSOR ) /R∞ (RGauss-Seidel ) = 25.5, isto é, o
método SOR é 25 vezes mais rápido que o método de Gauss-Seidel. Quanto mais refinada a malha, maior é
a diferença na velocidade de convergência entre os dois métodos.
Rodney Josué Biezuner 109
0 < ω 6 1.
Prova. Vamos escrever a matriz de iteração RJ,ω do método de Jacobi amortecido em função da matriz de
iteração do método de Jacobi RJ . Temos
RJ = D−1 (D − A)
de modo que
µ ¶−1 µ ¶ µ ¶ µ ¶
1 1 1 1
RJ,ω = D D−A = ωD−1 D−D+D−A = ωD−1 D − D + ωD−1 (D − A)
ω ω ω ω
donde
RJ,ω = (1 − ω) I + ωRJ . (4.56)
Em particular,
RJ v = λv
se e somente se
[RJ,ω − (1 − ω) I] v = ωλv.
Portanto, λJ é um autovalor de RJ se e somente se
é um autovalor de RJ,ω . Logo, se todo autovalor de RJ satisfaz |λJ | < 1 (isto é, ρ (RJ ) < 1 equivalente ao
método de Jacobi convergir) e ω < 1, então
2 ¡ ¢
|λJ,ω | = (ωλJ + 1 − ω) ωλJ + 1 − ω
2 2
= ω 2 |λJ | + 2 Re λJ ω (1 − ω) + (1 − ω)
2 2
6 ω 2 |λJ | + 2 |λJ | ω (1 − ω) + (1 − ω)
2
= (ω |λJ | + 1 − ω)
< 1.
¥
Segue do Teorema 4.8 que o método de Jacobi amortecido converge para as matrizes de discretização do
Capı́tulo 2 se 0 < ω 6 1.
4.23 Corolário.
ρ (RJ,ω ) = ω [ρ (RJ ) − 1] + 1. (4.58)
4.3.5 Resumo
π2 ¡ ¢ π2 ¡ ¢
Jacobi amortecido 1−ω ∆x2 + O ∆x4 ω ∆x2 + O ∆x4
2 2
ou
1 t
f (y) − f (x) = (y − x) A (y − x) . (4.61)
2
Como A é positiva definida, segue que
t
(y − x) A (y − x) = hA (y − x) , (y − x)i > 0
e
t
(y − x) A (y − x) = 0
se e somente se y = x. Portanto,
f (y) > f (x)
para todo y 6= x e o mı́nimo de f ocorre em x. ¥
Em muitos problemas, o funcional f tem significado fı́sico, correspondente a um funcional de energia que
quando é minimizado corresponde a um estado de equilı́brio do sistema. Observe que definindo um produto
interno a partir da matriz simétrica positiva definida A da maneira usual por hv, wiA = v t Aw e considerando
1/2
a norma induzida kvkA = hv, viA , o funcional f pode ser escrito na forma
1
f (y) = hy, Ayi − hy, Axi (4.62)
2
ou
1 2
f (y) =
kykA − hy, xiA . (4.63)
2
Outra maneira de enxergar o resultado do teorema anterior é observar que o gradiente do funcional f é
∇f (y) = Ay − b. (4.64)
Ax = b.
Este método variacional é a base dos métodos iterativos de descida em geral, e do método do gradiente
conjugado em particular. A idéia é usar as idéias do cálculo diferencial para encontrar o mı́nimo do funcional
quadrático f .
xk+1 = xk + αk pk .
Rodney Josué Biezuner 112
A escolha de αk é também chamada uma busca na reta, já que queremos escolher um ponto na reta
© k ª
x + αpk : α ∈ R
tal que ¡ ¢ ¡ ¢
f xk + αpk 6 f xk .
Idealmente, gostarı́amos de escolher αk de tal modo que
¡ ¢ ¡ ¢ ¡ ¢
f xk+1 = f xk + αk pk = min f xk + αpk
α∈R
Esta é chamada uma busca na reta exata. Para funcionais quadráticos, a busca na reta exata é trivial e
obtemos uma fórmula para o valor de αk , como veremos a seguir. Denotaremos o resı́duo em cada iteração
por
rk = b − Axk . (4.65)
Então ¡ k ¢t k k k®
p r p ,r
αk = t = k . (4.66)
k
(p ) Apk hp , Apk i
ou
pk = rk . (4.67)
Buscar na direção da descida mais acentuada é uma idéia natural, mas que na prática não funciona sem
modificações. De fato, em alguns casos o método é de velocidade comparável à do método de Jacobi, como
na matriz de discretização da fórmula de cinco pontos aplicada ao problema descrito na primeira seção deste
capı́tulo [Watkins]:
De fato, como as iterações do método de descida mais acentuada são bem mais custosas que as do método
de Jacobi, o primeiro é muito pior que este último.
Para entender melhor o método da descida mais acentuada, porque ele pode ser lento e as modificações que
vamos fazer para torná-lo mais rápido levando ao método do gradiente conjugado, vamos entender o processo
do ponto de vista geométrico. Como vimos na demonstração do Teorema 4.24, o funcional quadrático f é
da forma
1 t
f (y) = (y − x) A (y − x) + c (4.68)
2
onde c = f (x) = 12 xt Ax − xt b é uma constante. Já que A é uma matriz simétrica, existe uma matriz
ortogonal P tal que P t AP é uma matriz diagonal D , cujos valores na diagonal principal são exatamente os
autovalores positivos de A. Nas coordenadas
z = P t (y − x) ,
As curvas de nı́vel do funcional f neste sistema de coordenadas são elipses (em R2 , elipsóides em R3 e
hiperelipsóides em Rn ) centradas na origem com eixos paralelos aos eixos coordenados e f (0) = c é nı́vel
mı́nimo de f ; elipses correspondentes a menores valores de f estão dentro de elipses correspondentes a
maiores valores de f . Como P é uma aplicação ortogonal, as curvas de nı́vel de f no sistema de coordenadas
original também são elipses, centradas em x, e uma reta de um ponto y até o ponto x corta elipses de nı́veis
cada vez menores até chegar ao mı́nimo da função f em x, centro de todas as elipses. O vetor gradiente é
perpendicular às curvas de nı́vel, logo é perpendicular às elipses. Seguir a direção de descida mais acentuada
equivale a cortar a elipse que contém xk ortogonalmente na direção do interior da elipse até encontrar um
ponto xk+1 situado em uma elipse que a reta tangencie, pois a partir daı́ a reta irá na direção de elipses com
nı́veis maiores, portanto este é o ponto da reta onde f atinge o seu mı́nimo. Em particular, vemos que a
próxima direção pk+1 é ortogonal à direção anterior pk , tangente a esta elipse. Em geral, a direção de descida
mais acentuada não é a direção de x (quando bastaria uma iteração para atingir a solução exata) a não ser
que A seja um múltiplo escalar da identidade, de modo que todos os autovalores de A são iguais e as elipses
são cı́rculos. Por outro lado, se os autovalores de A têm valores muito diferentes uns dos outros, com alguns
muito pequenos e alguns muito grandes, as elipses serão bastante excêntricas e, dependendo do chute inicial,
Rodney Josué Biezuner 114
a convergência pode ser muito lenta (matrizes com estas propriedades são chamadas mal-condicionadas; para
que o método de descida acentuada seja lento, a matriz A não precisa ser muito mal-condicionada).
Como vimos na seção anterior, os algoritmos de Gauss-Seidel e SOR podem ser encarados como algoritmos
de descida. A discussão no parágrafo anterior também pode ser usada para entender a relativa lentidão destes
algoritmos.
4.26 Proposição. Sejam A ∈ Mn (R) uma matriz simétrica positiva definida, v ∈ Rn e W um subsespaço
de Rn . Então existe um único w ∈ W tal que
Definição. Dois vetores y, z que são ortogonais com respeito ao produto interno h·, ·iA , isto é, tais que
hy, ziA = 0
Nosso objetivo então é desenvolver um método em que o erro a cada passo é conjugado com todas as direções
de busca anteriores. O próximo resultado, que é basicamente uma reafirmação da Proposição 4.25, mostra
que em qualquer método de descida em que a busca na reta é exata satisfaz automaticamente ej ⊥A pj−1 ,
isto é, (4.72) é válido para a última iteração (o erro da iteração presente é A-ortogonal à direção de busca
da iteração anterior).
4.27 Proposição. Seja xk+1 = xk + αk pk obtido através de uma busca na reta exata. Então
rk+1 ⊥ pk
e
ek+1 ⊥A pk .
Prova: Temos
b − Axk+1 = b − Axk − αk Apk ,
de modo que a seqüência dos resı́duos é dada pela fórmula
Logo, k k®
k+1 k
® ® ® ® p ,r k k®
r ,p = rk+1 , pk − αk Apk , pk = rk , pk − k k
Ap , p = 0.
hp , Ap i
Além disso, como
Aek+1 = rk+1 ,
segue que k+1 k ® ® ®
e , p A = Aek+1 , pk = rk+1 , pk = 0.
¥
O significado geométrico deste resultado é que o mı́nimo do funcional f na reta xk + αk pk ocorre quando a
derivada direcional de f na direção de busca é zero, ou seja,
∂f ¡ k+1 ¢ ¡ ¢ ® ®
0= x = ∇f xk+1 , pk = rk+1 , pk .
∂pk
De acordo com a Proposição 4.27, depois do primeiro passo temos e1 ⊥A p0 . Para manter os erros
subseqüentes conjugados a p0 , como
ek+1 = x − xk+1 = x − xk − αk pk
Rodney Josué Biezuner 116
ou
ek+1 = ek − αk pk , (4.74)
0 1 0
basta escolher as direções de busca subseqüentes conjugadas a p . Se escolhemos p conjugado a p , obtemos
x2 para o qual o erro satisfaz e2 ⊥A p1 ; como p1 ⊥A p0 , segue de (4.74) que e2 ⊥A p0 também. Para manter
os erros subseqüentes conjugados a p0 e p1 , basta escolher as direções de busca subseqüentes conjugadas a
p0 e p1 . Assim, vemos que para obter a condição (4.72) basta escolher as direções de busca de tal forma que
pi ⊥A pj para todos i 6= j.
Um método com estas caracterı́sticas é chamado um método de direções conjugadas. Estes resultados
são resumidos na proposição a seguir:
4.28 Teorema. Se um método emprega direções de busca conjugadas e performa buscas na reta exatas,
então
ej ⊥A pi para i = 1, . . . , j − 1,
para todo j. Conseqüentemente ° j° ° °
°e ° = min °e0 − p° ,
A p∈Wj A
®
onde Wj = p0 , p1 , . . . , pj−1 .
Prova: A demonstração é por indução. Para j = 1, temos e1 ⊥A p0 pela Proposição 4.27 porque a busca
na reta é exata. Em seguida, assuma ej ⊥A pi para i = 1, . . . , j − 1; queremos mostrar que ej+1 ⊥A pi
para i = 1, . . . , j. Como
ej+1 = ej − αj pj ,
para i = 1, . . . , j − 1 temos
j+1 i ® ® ® ®
e , p A = ej − αj pj , pi A = ej , pi A − αj pj , pi A = 0 − 0 = 0
porque as direções de busca são conjugadas. ej+1 ⊥A pj segue novamente da Proposição 4.27. ¥
Quando a direção inicial é dada pelo vetor gradiente de f , como na primeira iteração do método da descida
mais acentuada, obtemos o método do gradiente conjugado. As direções subseqüentes são escolhidas
através de A-ortogonalizar o resı́duo (ou vetor gradiente de f , que é a direção de busca em cada iteração
do método da descida mais acentuada) com todas as direções de busca anteriores, para isso utilizando o
algoritmo de Gram-Schmidt. Assim, dado um chute inicial p0 , a primeira direção é
¡ ¢
p0 = −∇f x0 = b − Ax0 = r0
p0 = r0 . (4.75)
de forma que pk+1 ⊥A pi para todos i = 1, . . . , k. Felizmente, como veremos a seguir depois de algum trabalho
preliminar (Corolário 4.32), cki = 0 para todo i exceto i = k, o que torna necessário que apenas a direção
Rodney Josué Biezuner 117
de busca mais recente pk seja armazenada na memória do computador, o que garante que a implementação
do gradiente conjugado é eficiente:
k+1 k ® k+1 ®
k+1 k+1
r ,p A k k+1 r , Apk k
p =r − p =r − p . (4.78)
hpk , pk iA hpk , Apk i
Esta é a modificação do método do gradiente conjugado em relação ao método da descida mais acentuada,
em que pk+1 = rk+1 .
Definição.
Dada uma ®matriz A ∈ Mn (C) e um vetor v ∈ Cn , o espaço de Krylov Kj (A, v) é o subespaço
v, Av, . . . , Aj−1 v .
4.29 Teorema. Depois de j iterações do algoritmo do gradiente conjugado (com rk 6= 0 em cada iteração),
temos 0 1 ® ® ¡ ¢
p , p , . . . , pj−1 = r0 , r1 , . . . , rj−1 = Kj A, r0 .
Prova: A demonstração é por indução. O resultado é trivial para j = 0, pois p0 = r0 . Assuma o resultado
válido para j − 1. Em primeiro lugar, mostraremos que
0 1 ® ¡ ¢
r , r , . . . , rj ⊂ Kj+1 A, r0 . (4.79)
¡ ¢
Em vista da ¡ hipótese
¢ de indução,
¡ ¢ basta mostrar que rj ∈ Kj+1 A, r0 . Como rj = rj−1 −¡αj−1 Ap ¢
j−1
e
j−1 0 0 j−1 0
r ∈ Kj A, r ⊂ Kj+1 A, r por hipótese¡ de indução, ¢ basta provar que Ap ∈ K j+1 A, r . Mas,
também por hipótese de indução, pj−1 ∈ Kj+1 A, r0 , logo
¡ ¢ ® ® ¡ ¢
Apj−1 ∈ Kj A, Ar0 = Ar0 , A2 r0 , . . . , Aj r0 ⊂ r0 , Ar0 , A2 r0 , . . . , Aj r0 = Kj+1 A, r0 .
Para provar que eles são iguais, basta mostrar que eles têm a mesma dimensão. Isso decorre de
®
dim r0 , r1 , . . . , rj 6 j + 1,
¡ ¢
dim Kj+1 A, r0 6 j + 1
e ®
dim p0 , p1 , . . . , pj = j + 1,
o último porque os vetores p0 , p1 , . . . , pj são vetores não-nulos A-ortogonais. ¥
para todo j.
Esta estimativa é uma estimativa grosseira, mas mostra que o método do gradiente conjugado converge
mais rapidamente para matrizes bem-condicionadas (κ (A) ∼ 1). Uma comparação entre a velocidade de
convergência dos dois métodos para a matriz de discretização da fórmula de cinco pontos aplicada ao problema
descrito na primeira seção deste capı́tulo, desta vez com o tamanho das matrizes indicado na linha superior
da tabela, é dada a seguir [Watkins].
n = 81 n = 361 n = 1521
Descida Mais Acentuada 304 1114 4010
Gradiente Conjugado 29 60 118
No caso desta matriz de discretização no quadrado unitário temos
(n − 1) π
sen2 π π∆x 4
κ (A) = 2n = cot2 = cot2 ≈ 2 2
π 2n 2 π ∆x
sen2
2n
Rodney Josué Biezuner 119
de modo que p
κ (A) − 1 1 − π∆x/2
p ≈ ≈ 1 − π∆x,
κ (A) + 1 1 + π∆x/2
o que dá uma velocidade de convergência para o método do gradiente conjugado duas vezes maior que a
do método SOR com o fator de relaxamento ótimo. No entanto, deve-se ter em mente que enquanto que a
taxa de covergência que obtivemos para o método SOR é precisa, a estimativa de erro (4.83) para o método
do gradiente conjugado é apenas um limitante superior grosseiro (veja [Watkins] para algumas estimativas
melhoradas).
Capı́tulo 5
Métodos Multigrid
120
Capı́tulo 6
O método de elementos finitos é um outro método de discretização de equações diferenciais parciais baseado
na reformulação variacional da equação. Por exemplo, como já vimos exemplos, encontrar a solução u de
uma equação diferencial parcial dada é equivalente a resolver um problema de minimização
e Z Z
1 1
1 2 1 0
F (v) = |v 0 (x)| dx − f (x) v (x) dx = kv kL2 − hf, viL2 . (6.3)
2 0 0 2
Veremos agora que uma solução para o problema de Dirichlet (6.1), que sabemos existir por integração
simples, é solução tanto de um problema de minimização como de um problema variacional.
121
Rodney Josué Biezuner 122
6.1 Proposição. (Problema Variacional) Se u ∈ V é uma solução do problema (6.1), então u é a solução
única do problema variacional
hu0 , v 0 iL2 = hf, viL2 para todo v ∈ V. (6.4)
Portanto, Z Z
1 1
u0 (x) v 0 (x) dx = f (x) v (x) dx.
0 0
A unicidade de solução para o problema variacional (6.4) é facilmente determinada. Se u1 , u2 satisfazem
hu01 , v 0 iL2 = hf, viL2 ,
hu02 , v 0 iL2 = hf, viL2 ,
para todo v ∈ V , então
hu01 − u02 , v 0 iL2 = 0
para todo v ∈ V , em particular para v = u1 − u2 , donde
ku01 − u02 kL2 = 0.
Isso implica u1 − u2 = c para alguma constante c, e as condições de fronteira implicam que c = 0. ¥
6.2 Proposição. (Problema de Minimização) u ∈ V é uma solução do problema variacional (6.4), se e
somente se u satisfaz
F (u) = min F (v) . (6.5)
v∈V
Como u é um ponto de mı́nimo para F , 0 é um ponto de mı́nimo para g, logo g 0 (0) = hu0 , v 0 i − hf, viL2 = 0.
¥
O problema variacional é chamado método de Galerkin, enquanto que o problema de minimização é
chamado método de Ritz. Coletivamente, eles são chamados simplesmente de método de Ritz-Galerkin.
Observe que para descrever uma função v ∈ Vh é suficiente conhecer os n valores v (x1 ) , . . . , v (xn ). Intro-
duzimos uma base B = {ϕ1 , . . . , ϕn } ⊂ Vh para Vh declarando
½
1 se i = j,
ϕj (xi ) = (6.7)
0 se i 6= j,
(note que como estas funções são não-negativas, esta base é evidentemente não-ortogonal). Assim as funções
v de V têm a representação
v = v (x1 ) ϕ1 + . . . + v (xn ) ϕn . (6.8)
As funções ϕ1 , . . . , ϕn são chamadas funções base. Note que dim Vh = n. Observe que estas funções têm
suporte compacto, e que o suporte está contido em dois subintervalos adjacentes.
Se uh ∈ Vh satisfaz o problema variacional
então em particular 0 0®
uh , ϕj L2 = hf, ϕj iL2 para todo j = 1, . . . , n. (6.10)
Escrevendo
uh = uh (x1 ) ϕ1 + . . . + uh (xn ) ϕn
ou
uh = u1 ϕ1 + . . . + un ϕn , (6.11)
onde denotamos ui = uh (xi ), obtemos um sistema linear nas incógnitas u1 , . . . , un :
n
X 0 0®
ϕi , ϕj L2 ui = hf, ϕj iL2 para j = 1, . . . , n. (6.12)
i=1
A matriz do sistema
hϕ01 , ϕ01 iL2 . . . hϕ01 , ϕ0n iL2
.. ..
A= . . (6.13)
0 0 0 0
hϕn , ϕ1 iL2 . . . hϕn , ϕn iL2
0 0® ®
é uma matriz simétrica porque ϕi , ϕj L2 = ϕ0j , ϕ0i L2 . Ela é chamada a matriz de rigidez e o vetor
hf, ϕ1 iL2
..
b= .
hf, ϕn iL2
Rodney Josué Biezuner 124
é chamado o vetor de carga, terminologia emprestada das primeiras aplicações do método de elementos
finitos em mecânica de estruturas; o método foi inventado por engenheiros para tratar de tais problemas na
década de 1950. As entradas da matriz de rigidez podem ser facilmente calculados. Primeiro observe que
0 0®
ϕi , ϕj L2 = 0 se |i − j| > 1,
porque, neste caso, onde ϕ0i não se anula, ϕ0j se anula, e vice-versa. Em particular, segue que a matriz A
é uma matriz esparsa tridiagonal. A escolha especial de Vh e das funções base garantiu a esparsidade da
matriz de rigidez. Os elementos da diagonal principal da matriz de rigidez são dados por
Z xi+1 Z xi Z xi+1
2 1 1 1 1
hϕ0i , ϕ0i iL2 = ϕ0i (x) dx = 2 dx + dx = + ,
xi−1 xi−1 hi xi h2i+1 hi hi+1
Resumindo,
1 1
+ se i = j,
0 0® hi hi+1
ϕi , ϕj L2 = 1 (6.14)
− se |i − j| = 1,
hi+1
0 se |i − j| > 1.
P
n
A matriz de rigidez também é positiva definida, Se ξ = (ξ1 , . . . , ξn ) ∈ Rn é um vetor não-nulo e v = ξi ϕ i ,
i=1
temos * n +
n
X n
X X n
X
0 0®
hAξ, ξi = aij ξi ξj = ϕi , ϕj L2 ξi ξj = ξi ϕ0i , ξj ϕ0j = hv 0 , v 0 iL2 > 0.
i,j=1 i,j=1 i=1 j=1 L2
No caso especial em que
1
hi = xi − xi−1 = =: h,
n+1
a matriz de rigidez é exatamente a matriz de discretização de diferenças finitas centradas:
2 −1
−1 2 −1
.. ..
1 −1 . .
.
2
h . .
.. . . −1
−1 2 −1
−1 2
e Z Z
1 2 1
F (v) = |∇v (x)| dx − f (x) v (x) dx = k∇vkL2 (Ω) − hf, viL2 (Ω) . (6.17)
2 Ω Ω 2
Como vimos no Capı́tulo 1, os problemas variacional e de minimização são equivalentes e a solução de ambos
é a solução do problema (6.15):
6.3 Proposição. u ∈ V é uma solução do problema (6.15), se e somente se u é a solução única do problema
variacional
h∇u, ∇viL2 (Ω) = hf, viL2 (Ω) para todo v ∈ V, (6.18)
ou, equivalentemente, se e somente se u satisfaz
Esta triangulação de Ω é também chamada uma malha triangular e os vértices da triangulação são freqüen-
temente chamados nodos. Definimos o parâmetro da malha
Observe que o diâmetro de um triângulo é o comprimento de seu maior lado. Definimos o subespaço Vh de
dimensão finita de V por
Para descrever uma função v ∈ Vh , é suficiente conhecer os n valores de v nos n nodos internos da triangulação
de Ω: x1 , . . . , xn (nos nodos da fronteira, v é nula). Introduzimos uma base B = {ϕ1 , . . . , ϕn } ⊂ Vh para Vh
declarando ½
1 se i = j,
ϕj (xi ) = (6.23)
0 se i 6= j.
As funções v de V têm a seguinte representação em termos das funções base ϕ1 , . . . , ϕn :
e dim Vh = n. Note que o suporte de ϕj consiste dos triângulos que têm xn como um nodo comum. Tais
funções bases podem ser definidas da seguinte forma. Se Tk é um triângulo da triangulação de Ω que tem xi
Rodney Josué Biezuner 126
¡ ¢ ¡ ¢ ¡ ¢
como vértice, sejam xi = x0 , y 0 , a1k = x1 , y 1 e a2k = x2 , y 2 os três vértices de Tk ; definimos ϕi em Tk
por ¡ ¢¡ ¢ ¡ ¢¡ ¢
x − x1 y 2 − y 1 − y − y 1 x2 − x1
ϕi (x, y) = 0 .
(x − x1 ) (y 2 − y 1 ) − (y 0 − y 1 ) (x2 − x1 )
¡ ¢ ¡ ¢ ¡ ¢
Observe que ϕi x0 , y 0 = 1 e ϕi x1 , y 1 = ϕi x2 , y 2 = 0. Se Tk é um triângulo da triangulação de Ω que
não tem xi como vértice, então definimos ϕj ≡ 0 em Tk .
Se uh ∈ Vh satisfaz o problema variacional
então em particular
h∇uh , ∇ϕj iL2 (Ω) = hf, ϕj iL2 (Ω) para todo j = 1, . . . , n. (6.26)
Escrevendo
uh = uh (x1 ) ϕ1 + . . . + uh (xn ) ϕn
ou
uh = u1 ϕ1 + . . . + un ϕn , (6.27)
onde denotamos ui = uh (xi ), obtemos um sistema linear nas incógnitas u1 , . . . , un :
n
X
h∇ϕi , ∇ϕj iL2 (Ω) ui = hf, ϕj iL2 (Ω) para j = 1, . . . , n. (6.28)
i=1
é uma matriz simétrica, positiva definida, pelos mesmos motivos que a matriz de rigidez no caso unidimen-
sional é. Ela é esparsa porque o suporte da função base ϕj é constituı́do pelos triângulos que têm o vértice xj
em comum. De fato, h∇ϕi , ∇ϕj iL2 (Ω) = 0 se xi e xj não são diretamente ligados pelo lado de um triângulo.
Para calcular o valor das entradas não-nulas, é útil usar a seguinte fórmula de mudança de ¡ coordenadas:
¢ ¡ ¢se
T é o triângulo de vértices (0, 0), (0, 1) e (1, 0) e Te é um triângulo qualquer com vértices x0 , y 0 , x1 , y 1 e
¡ 2 2¢
x , y , então a aplicação φ : T −→ Te definida por
¡ ¢ ¡ ¢ ¡ ¢
φ (ξ, η) = x0 , y 0 + ξ x1 − x0 , y 1 − y 0 + η x2 − x0 , y 2 − y 0
é um difeomorfismo com
¯¡ ¢¡ ¢ ¡ ¢¡ ¢¯
det dφ (ξ, η) = ¯ x1 − x0 y 1 − y 0 − x2 − x0 y 2 − y 0 ¯ ,
Prova. Como
h∇u, ∇viL2 (Ω) = hf, viL2 (Ω) para todo v ∈ V
e
h∇uh , ∇viL2 (Ω) = hf, viL2 (Ω) para todo v ∈ Vh ,
segue que
h∇u − ∇uh , ∇viL2 (Ω) = 0 para todo v ∈ Vh . (6.31)
Pela desigualdade de Cauchy, para todo v ∈ Vh vale então
2
k∇u − ∇uh kL2 (Ω) = h∇u − ∇uh , ∇u − ∇uh iL2 (Ω) + h∇u − ∇uh , ∇uh − ∇viL2 (Ω)
= h∇u − ∇uh , ∇u − ∇viL2 (Ω)
6 k∇u − ∇uh kL2 (Ω) k∇u − ∇vkL2 (Ω) ,
donde
k∇u − ∇uh kL2 (Ω) 6 k∇u − ∇vkL2 (Ω)
para todo v ∈ Vh . Lembrando que a norma L2 do gradiente é uma norma em W01,2 (Ω), pela desigualdade
de Poincaré, segue o resultado. ¥
Definição. Uma forma bilinear a : V × V −→ R é limitada (ou contı́nua) se existe uma constante Λ > 0
tal que
|a (u, v)| 6 Λ kukV kvkV para todos u, v ∈ V. (6.32)
a é coerciva se existe um número α > 0 tal que
2
|a (v, v)| > α kvkV para todo v ∈ V. (6.33)
Se a forma bilinear a que satisfaz as hipóteses do Teorema de Lax-Milgram for simétrica, isto é,
então ela define um produto interno em V , e a conclusão segue diretamente do Teorema de Representação
de Riesz. Seja a uma forma bilinear limitada coerciva e f um funcional linear limitado em V . Consideremos
o funcional F : V −→ R definido por
1
F (v) = a (v, v) − f (v) . (6.35)
2
Rodney Josué Biezuner 128
No caso da equação de Poisson com condição de Dirichlet homogênea, temos V = W01,2 (Ω) e
Z
a (u, v) = ∇u · ∇v,
ZΩ
f (v) = f v,
Ω
6.6 Lema. Sejam V um espaço de Hilbert, a : V × V −→ R uma forma bilinear simétrica, limitada e
coerciva em V com
2
|a (v, v)| > α kvkV para todo v ∈ V
e f : V −→ R um funcional linear limitado em V com
Além disso, existe de fato uma única solução u ∈ V para estes problemas e ela satisfaz a seguinte
condição de estabilidade:
C
kukV 6 .
α
Prova. A existência de solução para o problema variacional segue do teorema de Lax-Milgram. Suponha
que u satisfaz o problema variacional. Dado v ∈ V , escreva w = u − v. Temos
1
F (v) = F (u + w) = a (u + w, u + w) − f (u + w)
2
1 1
= a (u, u) + a (u, w) + a (w, w) − f (u) − f (w)
2 2
1 1
= a (u, u) + f (w) + a (w, w) − f (u) − f (w)
2 2
1 α 2
= F (u) + a (w, w) > F (u) + kwkV
2 2
> F (u) .
¥
Observe que pelo Teorema de Lax-Milgram a solução para o problema variacional existe mesmo se a forma
bilinear não é simétrica. No entanto, neste caso não existe um problema de minimização associado.
Seja Vh um subespaço de V de dimensão finita. Seja B = {ϕ1 , . . . , ϕn } uma base para Vh e
v = v1 ϕ1 + . . . + vn ϕn
então em particular
a (uh , ϕj ) = f (ϕj ) para todo j = 1, . . . , n. (6.38)
Escrevendo
uh = u1 ϕ1 + . . . + un ϕn , (6.39)
obtemos um sistema linear nas incógnitas u1 , . . . , un :
n
X
a (ϕi , ϕj ) ui = f (ϕj ) para j = 1, . . . , n. (6.40)
i=1
A matriz do sistema
a (ϕ1 , ϕ1 ) . . . a (ϕ1 , ϕn )
.. ..
A= . .
a (ϕn , ϕ1 ) . . . a (ϕn , ϕn )
é chamada matriz de rigidez.
¥
Vamos agora provar a seguinte estimativa de erro:
6.8 Proposição. (Estimativa de Erro) Se u ∈ V é a solução exata para o problema variacional (6.36) e uh
é a solução do problema discretizado (6.37), então
Λ
ku − uh kV 6 ku − vkV (6.41)
α
para todo v ∈ Vh .
Rodney Josué Biezuner 130
Prova. Como
a (u, v) = f (v) para todo v ∈ V
e
a (uh , v) = f (v) para todo v ∈ Vh ,
segue que
a (u − uh , v) = 0 para todo v ∈ Vh . (6.42)
Para todo v ∈ Vh vale então
2
α ku − uh kV 6 a (u − uh , u − uh ) + a (u − uh , uh − v)
= a (u − uh , u − v)
6 Λ ku − uh kV ku − vkV ,
donde
2 Λ
ku − uh kV 6 k∇u − ∇vkL2 (Ω)
α
para todo v ∈ Vh . ¥
Introduzimos uma norma equivalente em V , induzida pela forma bilinear simétrica a, definindo
1/2
kvka = a (v, v) . (6.43)
De fato, √ √
α kvkV 6 kvka 6 Λ kvkV .
Esta norma é chamada norma da energia.
6.9 Proposição. (Melhor Aproximação) Se u ∈ V é a solução exata para o problema variacional (6.36) e
uh é a solução do problema discretizado (6.37), então
ku − uh ka 6 ku − vka (6.44)
Aproximação de Autovalores do
Laplaciano
Neste capı́tulo desejamos mostrar que tanto os autovalores da matriz de discretização, quanto os autovalores
da matriz de rigidez, são aproximações para os autovalores do laplaciano, o que produz métodos numéricos
para encontrar os autovalores do laplaciano em domı́nios arbitrários.
onde Z
a (u, v) = h∇u, ∇viL2 (Ω) = ∇u · ∇v.
Ω
e
n
X n
X
a (uh , v) = ui a (ϕi , ϕj ) vj = ui h∇ϕi , ∇ϕj iL2 (Ω) vj = uth Av,
i,j=1 i,j=1
Xn
huh , viL2 (Ω) = ui hϕi , ϕj iL2 (Ω) vj = uth M v,
i,j=1
131
Rodney Josué Biezuner 132
onde ³ ´
A = h∇ϕi , ∇ϕj iL2 (Ω)
16i,j6n
é a matriz de rigidez e ³ ´
M = hϕi , ϕj iL2 (Ω)
16i,j6n
Auh = λh M uh . (7.4)
n
* n n
+
X X X
hM ξ, ξi = hϕi , ϕj iL2 (Ω) ξi ξj = ξi ϕi , ξj ϕj = hv, viL2 (Ω) > 0.
i,j=1 i=1 j=1 L2 (Ω)
Ae = B −t AB −1 ,
u
eh = Buh ,
euh = λh u
Ae eh . (7.5)
Nestas condições, pode-se provar que a solução uh dada pelo método de elementos finitos converge na norma
de V para a solução exata u (veja [Hackbusch]). Uma condição suficiente para assegurar (7.6) é que
∞
[
Vh1 ⊂ Vh2 ⊂ . . . ⊂ Vhi ⊂ Vhi+1 ⊂ . . . ⊂ V e Vhi é denso em V. (7.8)
i=1
Rodney Josué Biezuner 133
A relação entre os números ω (λ) e ωh (λ) e os respectivos problemas de autovalores é dada pelos Lemas 7.1
e 7.2 a seguir.
A uma forma bilinear contı́nua a : V × V −→ R podemos associar de forma única um operador linear
contı́nuo L : V −→ V 0 que satisfaz
a (u, v) = (Lu) (v) . (7.12)
Além disso, se
|a (u, v)| 6 C kukV kvkV
para todos u, v ∈ V , então
kLk 6 C.
Prova. Se λ não é um autovalor, então o operador linear L − λI é invertı́vel pela alternativa de Fredholm.
Observe que L − λI é precisamente o operador linear associado à forma bilinear aλ . Denotando A = L − λI,
temos
¯¡ ¢ ¯
|aλ (u, v)| |(Au) (v)| ¯ AA−1 u0 (v)¯
ω (λ) = inf sup = inf sup = 0inf 0 sup
u∈V v∈V kukV kvkV u∈V v∈V kukV kvkV u ∈V v∈V kA−1 u0 kV kvkV
u6=0 v6=0 u6=0 v6=0 0
u 6=0 v6=0
0
1 |u (v)| 1
= 0inf 0 −1 0
sup = 0inf 0 −1 0k
ku0 kV
u ∈V kA u kV v∈V kvk V u ∈V kA u V
0 0
u 6=0 v6=0 u 6=0
1
= .
kA−1 k
A demonstração para ωh (λ) é análoga. ¥
Prova. Se λ é um autovalor de (7.2), então por definição existe u ∈ V tal que aλ (u, v) = 0 para todo v ∈ V ,
donde ω (λ) = 0. Reciprocamente, se λ não é um autovalor, pelo lema anterior ω (λ) 6= 0. A demonstração
para ωh (λ) é análoga. ¥
Rodney Josué Biezuner 134
Prova. Temos
2 2
|aλ (u, u)| > |a (u, u)| − |λ| kukL2 (Ω) > (α − |λ|) kukV ,
de modo que aλ é coerciva sempre que |λ| < α. Para provar as desigualdades, note que se u ∈ V e kukV = 1
então
sup |aλ (u, v)| > |aλ (u, u)| > α − |µ| .
v∈V
kvkV =1
7.5 Lema. Seja K ⊂ C compacto. Então existem números C > 0 e ηh > 0 independentes de λ ∈ K com
lim ηh = 0 tais que
h→0
para todo λ ∈ K.
aλ (u, v) = aµ (u − z, v) , (7.15)
pois
Usando a continuidade dos operadores Zλ , Zλh com relação a λ e a compacidade de K, seja CZ > 0 uma
constante positiva tal que ° °
kZλ k , °Zλh ° 6 CZ para todo λ ∈ K. (7.16)
Denote por Cµ uma constante de continuidade para a forma bilinear aµ , isto é,
para todos u, v ∈ V , por C0 uma constante uniforme de continuidade para as formas bilineares aλ , λ ∈ K,
isto é,
|aλ (v, w)| 6 C0 kvkV kwkV , (7.18)
Rodney Josué Biezuner 135
ω (λ) kukV 6 sup |aλ (u, v)| = sup |aµ (u − z, v)| 6 Cµ ku − zkV . (7.20)
v∈V v∈V
kvkV =1 kvkV =1
> ωh (µ) ku − zh kV
> β ku − zh kV
> β (ku − zkV − kz − zh kV )
µ ¶
ω (λ) ° °
>β − °Zλ − Zλh ° kukV
Cµ
ωh (λ) = inf sup |aλ (u, v)| = min sup |aλ (u, v)| = sup |aλ (u, v)| ,
u∈Vh v∈Vh u∈Vh v∈Vh v∈Vh
kukV =1 kvk =1 kukV =1 kvk =1 kvkV =1
V V
obtemos
β ° °
ωh (λ) > ω (λ) − β °Zλ − Zλh ° . (7.21)
Cµ
Portanto, (7.13) segue se provarmos que
° °
lim sup °Zλ − Zλh ° = 0. (7.22)
h→0 λ∈K
Da mesma forma, a demonstração de (7.14) depende de (7.22). De fato, pela definição de ωh (λ) segue
que para todo uh ∈ Vh temos
ωh (λ) kuh kV 6 sup |aλ (uh , v)| = sup |aµ (uh − zh , v)| 6 Cµ kuh − zh kV . (7.23)
v∈Vh v∈Vh
kvkV =1 kvkV =1
ω (λ) = inf sup |aλ (u, v)| = min sup |aλ (u, v)| = sup |aλ (u, v)| .
u∈V v∈V u∈V v∈V v∈V
kukV =1 kvk =1 kukV =1 kvk =1 kvkV =1
V V
Rodney Josué Biezuner 136
Como
sup |aλ (u − uh , v)| 6 C0 ku − uh kV ,
v∈V
kvkV =1
segue que
donde µ ¶
β ° °
ω (λ) > ωh (λ) − β °Zλ − Zλh ° kuh kV − C0 ku − uh kV .
Cµ
Como para cada h podemos escolher uh tal que ku − uh kV → 0 quando h → 0, por (7.7), (7.14) será provado
se (7.22) for verdadeiro.
Para terminar a demonstração do lema, provaremos agora (7.22). Suponha por absurdo que existe ε > 0,
{λi } ⊂ K e hi → 0 tal que ° °
° °
°Zλi − Zλhii ° > ε.
λi → λ0 ,
ui → u0 em V 0 .
Segue do fato que a solução dada por elementos finitos aproxima a solução exata que
° °
° °
°Zλ0 (u0 ) − Zλh0i (u0 )° → 0.
V
Logo,
° ° ° °
° ° ° °
°Zλi (ui ) − Zλhii (ui )° 6 kZλi (ui ) − Zλ0 (ui )kV + °Zλh0i (ui ) − Zλhii (ui )°
V V
° °
° hi °
+ kZλ0 (ui − u0 )kV + °Zλ0 (u0 − ui )°
V
° °
° hi °
+ °Zλ0 (u0 ) − Zλ0 (u0 )°
V
° °
° °
6 2C |λi − λ0 | + 2Cz ku0 − ui kV 0 + °Zλ0 (u0 ) − Zλh0i (u0 )°
V
→0
uma contradição. ¥
Rodney Josué Biezuner 137
Prova. Suponha por absurdo que λ0 não é um autovalor de (7.2). Então, pelo Lema 7.2,
ω (λ0 ) = η0 > 0.
7.7 Lema. As funções ω (λ) e ωh (λ) não possuem um mı́nimo positivo próprio no interior de um compacto
K ⊂ C.
Prova. Seja L o operador associado à forma bilinear a. Sejam µ um ponto interior de K com ω (µ) > 0
e ε > 0 suficientemente pequeno para que Dε (µ) ⊂ K e ω (λ) > 0 para todo λ ∈ Dε (µ). Pelo Lema 7.2,
−1
(L − λI) está definida em Dε (µ), logo é holomórfica aı́. Pela fórmula integral de Cauchy,
I −1
−1 1 (L − zI)
(L − λI) = dz
2πi ∂Dε (µ) z−λ
de modo que
ω (λ) > min ω (z)
z∈∂Dε (µ)
para todo λ ∈ Dε (µ). Portanto, ω (λ) não pode assumir um mı́nimo próprio em Dε (µ).
A demonstração para ωh (λ) é análoga. ¥
A recı́proca do Teorema 7.6, isto é, que todos os autovalores reais podem ser aproximados por uma
seqüência de autovalores discretos, é dada no próximo resultado:
7.8 Teorema. Seja λ0 um autovalor de (7.2). Então existem autovalores discretos λh de (7.3) tais que
lim λh = λ0 . (7.25)
h→0
Rodney Josué Biezuner 138
se ε > 0 é suficientemente pequeno. Como ω (λ) é contı́nua e ∂Dε (λ0 ) é compacto, temos
Segue do Lema 7.5 que para todo λ ∈ ∂Dε (λ0 ) e para todo h suficientemente pequeno temos
C
ηh < ωε ,
1
1+
C
donde
ηh ω (λ0 )
ωh (λ) > Cω (λ) − ηh > Cωε − ηh > > ωh (λ0 ) − = ωh (λ0 ) .
C C
Em particular, ωh (λ) tem um mı́nimo próprio em Dε (λ0 ). Pelo lema anterior, isso implica que existe
λh ∈ Dε (λ0 ) tal que ωh (λh ) = 0, isto é, λh é um autovalor discreto. ¥
7.9 Teorema. Sejam uh autofunções de (7.3) associadas respectivamentes aos autovalores discretos λh e
satisfazendo kuh kV = 1 e lim λh = λ0 . Então existe uma subseqüência uhi que converge em V para
h→0
uma autofunção u0 associada ao autovalor λ0 de (7.2) com ku0 kV = 1.
Prova. Usando o fato que V = W01,2 (Ω) está compactamente imerso em L2 (Ω), obtemos uma subseqüência
uhi convergente para u0 ∈ L2 (Ω). Como no Lema 7.4, definimos
z0 = Zλ0 (u0 ) é a solução de aµ (z0 , v) = (λ0 − µ) hu0 , viL2 (Ω) para todo v ∈ V,
zhi = Zλh0i (u0 ) é a solução de aµ (zhi , v) = (λ0 − µ) hu0 , viL2 (Ω) para todo v ∈ Vhi .
para todo v ∈ Vhi . Mas fi → 0 em V 0 porque λhi → λ0 e uhi → u0 em L2 (Ω), logo existe h2ε > 0 tal que
ε
kfi kV 0 6
2α
Rodney Josué Biezuner 139
e
ε
kzhi − uhi kV < (7.27)
2
para hi < h2ε . Portanto,
kz0 − uhi kV < ε
¡ ¢
se hi < min h1ε , h2ε , o que implica
uhi → z0 em V,
Em particular,
z0 = u0 ,
ou seja,
aµ (u0 , v) = (λ0 − µ) hu0 , viL2 (Ω) para todo v ∈ V,
e, portanto,
a (u0 , v) = λ0 hu0 , viL2 (Ω) para todo v ∈ V.
¥
Capı́tulo 8
140
Rodney Josué Biezuner 141
q, Aq, A2 q, . . . , Ak q, . . .
ou seja, ¡ ¢
Ak q = A Ak−1 q .
Para quase todas as escolhas de q esta seqüência converge em um certo sentido para um autovetor dominante
de A. De fato, para a maioria das escolhas de q devemos ter
n
X
q= ai vi
i=1
com a1 6= 0; raramente uma escolha aleatória de q produzirá um vetor no subespaço hv2 , . . . , vn i. Temos
n
X
Ak q = ai λki vi ,
i=1
donde " µ ¶k #
n
X λi
Ak q = λk1 a1 v1 + ai vi .
i=2
λ1
° ° ° °
Embora °Ak q ° → ∞ se λ1 > 1 e °Ak q ° → 0 se λ1 < 1, como
µ ¶k
λi
→ 0,
λ1
Ak q
qk = → a1 v1
λk1
converge para um autovetor dominante. No entanto, como o autovalor λ1 não é conhecido a priori, é
impossı́vel trabalhar com esta seqüência. Em geral, escolhemos um fator de escala σk e definimos
1
qk+1 = Aqk . (8.1)
σk+1
O fator de escala σk é comumente escolhido como sendo o valor da coordenada de Aqk que tem o maior
valor absoluto. Deste modo, o maior componente de qk é igual a 1 e a seqüência converge para um autovetor
dominante cujo maior componente é 1.
o maior autovalor de A−1 . Este método é chamado método das potências inverso ou iteração inversa (em
contraste, o método das potências é às vezes chamado iteração direta).
Para encontrar os demais autovalores da matriz A, observe que se A tem autovalores λ1 , . . . , λn , então
A − σI tem autovalores λ1 − σ, . . . , λn − σ. O escalar σ é chamado um deslocamento. Podemos então aplicar
−1
o método das potências à matriz (A − σI) , pois o maior autovalor desta matriz é 1/ (λ − σ), onde λ é o
autovalor de A mais próximo de σ. De fato, se
−1
(A − σI) v = µv,
então v = µ (A − σI) v, donde µ ¶
1
Av = σ + v.
µ
Assim, podemos escolher quais autovalores de A encontrar através da escolha do deslocamento σ. Este
método é chamado iteração com deslocamento. Ele é particularmente eficiente quando possuı́mos boas
estimativas para os autovalores de A.
É muito importante notar que tanto na iteração inversa, quanto na iteração com deslocamento, em
nenhum momento é necessário calcular a inversa A−1 explicitamente, o que consumiria muito tempo e
recursos. Embora as iteradas satisfazem
1 −1
qk+1 = (A − σI) qk ,
σk+1
basta resolver o sistema
(A − σI) qek+1 = qk
e então tomar
1
qk+1 = qek+1 .
σk+1
Definição. Dados dois subespaços vetoriais de mesma dimensão S1 , S2 ⊂ V a distância dist (S1 , S2 ) entre
S1 e S2 é o seno do maior ângulo principal entre eles.
Dada uma seqüência de subespaços {Sk } ⊂ V e um subespaço T ⊂ V , todos de mesma dimensão,
dizemos que Sk converge para T , denotado por
Sk → T
se
dist (Sk , T ) → 0.
8.1 Teorema. Seja A ∈ Mn (F) uma matriz diagonalizável com autovalores λ1 , . . . , λn ∈ F satisfazendo
Seja B = {v1 , . . . , vn } ⊂ Fn uma base de autovetores correspondente. Suponha que |λm | > |λm+1 | para
algum m. Sejam
Tm = hv1 , . . . , vm i ,
Um = hvm+1 , . . . , vn i .
Seja S um subespaço m-dimensional qualquer de Fn tal que S ∩Um = {0}. Então existe uma constante
C > 0 tal que
¯ ¯
¡ ¢ ¯ λm+1 ¯k
dist Ak S, Tm 6 C ¯¯ ¯ para todo k.
λm ¯
Em particular, Ak S → Tm .
Prova. Embora não demonstraremos o Teorema 8.1 rigorosamente, daremos uma idéia da demonstração.
Seja q ∈ S um vetor arbitrário. Então q se escreve de maneira única na forma
m
X n
X
q= a i vi + ai vi =: q1 + q2
i=1 i=m+1
Rodney Josué Biezuner 144
Os coeficientes da componente em Tm crescem, ou pelo menos não decrescem, enquanto que os coeficientes
da
¡ kcomponente
¢ em Um tendem a zero com taxa igual a ou melhor que λm+1 /λm . Portanto, toda seqüência
A q converge para um vetor em Tm com a taxa de convergência dada no enunciado. O limite Ak S não
pode ser um subespaço próprio de Tm porque ele tem dimensão m. ¥
Tm é chamado o subespaço invariante dominante de A de dimensão m.
Para fazer uma iteração de subespaços na prática, é necessário escolher uma base © 0 para 0oªsubespaço a
ser iterado, iterando
© todos os vetores
ª desta base simultaneamente. Assim, se B 0 = q1 , . . . , qm é uma base
para S, Bk = Ak q10 , . . . , Ak qm 0
é uma base para Ak S.° Por° outro lado,
° já vimos
° que trabalhar com os
vetores Ak qj0 pode ser problemático, pois pode ocorrer °Ak qj0 ° → ∞ ou°Ak qj0 ° → 0; seria necessário fazer
© ª © ª
um reescalamento a cada iteração. Pior que isso, as seqüências de vetores Ak q10 , . . . , Ak qm 0
convergem
cada uma para o autovetor dominante v1 , como vimos na seção anterior, logo os©vetores Ak q10 , . . ª . , A k qm
0
k 0 k 0
apontam aproximadamente para a mesma direção v1 para m grande, logo Bk = A q1 , . . . , A qm não é
uma boa base para Ak S (dizemos que Bk é uma base mal-condicionada): pequenas perturbações em um dos
vetores-base podem fazer uma grande diferença no espaço.
Deve-se portanto substituir a base obtida em cada iteração por uma base bem-condicionada. A maneira
mais
© 0 confiável ª de fazer isso é ortonormalizar a base.
© Assim, começa-se
ª com uma base ortonormal B0 =
0
q 1 , . . . , qm para S e obtém-se a base Be1 = Aq10 , . . . , Aqm 0
para AS. Através de um processo de
ortonormalização, e
© ª como o algoritmo de Gram-Schmidt, a partir de B1 obtém-se © umaª base ortonormal
B1 = q11 , . . . , qm1
para AS. Em geral, dada uma base ortonormal Bk = q1k , . . . , qm k
para Ak S, obte-
© k+1 ª © ª
mos uma base ortonormal Bk+1 = q1 , . . . , qm k+1
para Ak+1 S a partir da base Bek+1 = Aq1k , . . . , Aqm k
.
Este procedimento é chamado iteração simultânea com ortonormalização ou simplesmente iteração
simultânea.
8.3 Método QR
O algoritmo mais usado para calcular o conjunto completo de autovalores de uma matriz é o algoritmo
QR, desenvolvido simultanea e independentemente por Francis e Kublanovskaya em 1961. Ele pode ser
compreendido a partir do processo de iteração simultânea.
© 0 Consideremos ª o que acontece quando o processo de iteração simultânea é aplicado a uma base B0 =
q1 , . . . , qn0 de vetores ortonormais para Fn . Como antes, assumimos que A é diagonalizável com autovalores
λ1 , . . . , λn e B = {v1 , . . . , vn } é uma base correspondente de autovetores. Assuma
para m = 1, . . . , n − 1, e defina
®
Sm = q10 , . . . , qm
0
,
Tm = hv1 , . . . , vm i ,
Um = hvm+1 , . . . , vn i .
Rodney Josué Biezuner 145
b ∗k AQ
Ak = Q bk . (8.2)
e os autovalores λ1 , . . . , λk seriam os autovalores do bloco Ak11 . Como estas colunas apenas aproximam Tm ,
ao invés de um bloco nulo devemos obter um bloco Ak21 cujas entradas são próximas de zero. Pode-se provar
que de fato Ak21 → 0. Isso acontece para todo k, de modo que Ak converge para uma matriz triangular, cujos
elementos na diagonal principal são os autovalores λ1 , . . . , λn de A. Se A for uma matriz hermitiana, então
Ak também será hermitiana e Ak convergirá para uma matriz diagonal.
O algoritmo QR é uma variante da iteração de subespaços que produz a seqüência (Ak ) diretamente.
8.3.1 O Algoritmo QR
Para obter o algoritmo QR, vamos colocar a iteração simultânea em forma matricial. Assumiremos que A
é invertı́vel. Depois de k iterações, temos os vetores ortonormais q1k , . . . , qnk , que são as colunas da matriz
unitária Q b k , isto é,
£ ¤
Qb k = q1k . . . qnk . (8.4)
Denote £ ¤
bk =
Bk+1 = AQ Aq1k ... Aqnk . (8.5)
Em seguida, o processo de Gram-Schmidt clássico é aplicado aos vetores linearmente independentes bk+1 1 =
k+1
Aq1k , . . . , bk+1
n = Aq k
n (daı́ a hipótese de que A é invertı́vel) para obter vetores ortonormais q 1 , . . . , q k+1
n
que serão as colunas da matriz unitária Q b k+1 .
Para expressar o algoritmo de Gram-Schmidt em forma matricial, lembre-se que para obter vetores
ortonormais q1 , . . . , qn a partir de vetores linearmente independentes b1 , . . . , bn neste processo primeiro or-
togonalizamos, obtendo os vetores ortogonais
qe1 = b1 ,
hb2 , qe1 i
qe2 = b2 − qe1 ,
he
q1 , qe1 i
..
.
m−1
X hbm , qej i
qem = bm − qej ,
j=1
he
qj , qej i
..
.
n
X hbn , qej i
qen = bn − qejk+1 .
j=1
he
qj , qej i
Rodney Josué Biezuner 146
qe1
q1 = ,
ke
q1 k
..
.
qen
qn = .
ke
qn k
ou seja,
b1 = r11 q1 ,
b2 = r12 q1 + r22 q2 ,
b3 = r13 q1 + r23 q2 + r33 q3
..
.
bn = r1n q1 + r2n q2 + . . . + rnn qn
Em forma matricial, se definirmos rjm = 0 sempre que j > m e considerarmos a matriz triangular superior
R = (rij ), temos
r11 r12 r13 . . . r1n
0 r22 r23 . . . r2n
£ ¤ £ ¤
b1 b2 b3 . . . bn = q1 q2 q3 . . . qn 0 0 r33 . . . r3n
.. .. .. .. ..
. . . . .
0 0 0 ... rnn
Rodney Josué Biezuner 147
ou
B = QR (8.11)
Esta é a chamada decomposição QR de uma matriz invertı́vel B em um produto de uma matriz unitária Q
(ortogonal, se B for uma matriz real) e uma matriz triangular superior com entradas diagonais reais positivas
R.
Portanto, usando a decomposição QR, um passo de iteração simultânea pode ser expresso em forma
matricial como
Bk+1 = AQ bk = Qb k+1 Rk+1 , (8.12)
onde Rk+1 é a matriz triangular superior definida por
0 ® se j > m,
(Rk+1 )jm = Aqjk , qjk+1® se j = 1, . . . , m − 1, (8.13)
Aqjk , Aqjk se j = m.
© 0 Agora 0suponha
ª que comecemos a iteração simultânea a partir dos vetores da base canônica, isto é,
b 0 = I. Então
q1 , . . . , qn = {e1 , . . . , en }, de modo que Q
b 0 = A,
B1 = AQ
donde
b 1 R1 .
A=Q
Daı́,
b ∗1 AQ
A1 = Q b 1 = R1 Q
b1 .
b 1 , escrevemos
Denotando Q1 = Q
A = Q1 R1
e
A1 = R1 Q1 . (8.14)
No próximo passo,
b1 = Q
B2 = AQ b 2 R2 .
Observando que
A1 = Q b1 = Q
b ∗1 AQ b 2 R2 ,
b ∗1 Q
definindo
b ∗1 Q
Q2 = Q b2
obtemos a decomposição QR da matriz A1 :
A1 = Q2 R2 . (8.15)
Daı́,
b ∗2 AQ
A2 = Q b2 = Q
b ∗2 Q
b 1 R1 Q
b 2 = Q∗2 R1 Q
b 1 Q2 = Q∗2 A1 Q2 .
Como Q∗2 A1 = R2 , segue que
A2 = R2 Q2 . (8.16)
Em geral,
Ak−1 = Qk Rk , (8.17)
Ak = Rk Qk , (8.18)
isto é, obtemos primeiro a decomposição QR da matriz Ak−1 e a partir dela obtemos a próxima iterada, a
matriz Ak .
Rodney Josué Biezuner 148
Definição. Dizemos que uma matriz A = (aij ) é uma matriz de Hessenberg superior se aij = 0 sempre
que i > j + 1.
Observe que uma matriz hermitiana de Hessenberg é uma matriz tridiagonal. Toda matriz complexa é
semelhante a uma matriz na forma de Hessenberg superior através de uma matriz unitária, isto é, dada
A ∈ Mn (C), existe uma matriz unitária Q tal que
B = Q∗ AQ
Os autovalores restantes de A serão os autovalores de Abk , que é uma matriz (n − 1) × (n − 1), de modo que
podemos efetuar iterações subseqüentes nesta matriz. Operando desta forma, a cada autovalor encontrado
diminuı́mos o tamanho da matriz, diminuindo o custo computacional (é claro que a cada autovalor encontrado
devemos também considerar um novo deslocamento, aproximando o próximo autovalor a ser encontrado).
Pode-se mostrar que este processo produz exatamente a mesma seqüência de vetores que o processo de
Gram-Schmidt produz aplicado aos vetores q, Aq, A2 q, . . . , Ak q.
Para ver como o processo de Arnoldi pode ser utilizado para encontrar autovalores, primeiro estabelecemos
alguns resultados teóricos. Lembre-se que dada uma matriz A ∈ Mn (C) e um vetor q ∈ Cn , o j-ésimo espaço
de Krylov associado com A e q é o subespaço
®
Kj (A, q) = q, Aq, . . . , Aj−1 q .
8.2 Proposição. Sejam A ∈ Mn (C) e q ∈ Cn . Suponha que q, Aq, . . . , Am−1 q são linearmente indepen-
dentes. Então Km (A, q) é invariante sob A se e somente se q, Aq, . . . , Am−1 q, Am q são linearmente
dependentes.
Prova. Como Km (A, q) é gerado por q, Aq, . . . , Am−1 q, Km (A, q) é invariante sob A se e somente se Am q
é combinação linear de q, Aq, . . . , Am−1 q. ¥
8.3 Teorema. Sejam A ∈ Mn (C) e q ∈ Cn . Suponha que q, Aq, . . . , Am−1 q são linearmente independentes.
Sejam q1 , . . . , qm os vetores gerados pelo processo de Arnoldi. Então
(a) Kk (A, q) = hq1 , . . . , qk i para k = 1, . . . , m.
(b) hk+1,k > 0 para k = 1, . . . , m − 1.
(c) hm+1,m = 0 se e somente se q, Aq, . . . , Am q são linearmente dependentes ou, equivalentemente, se
e somente se Km (A, q) é invariante sob A.
Prova. (a) e (b) seguem por indução. Para k = 1 é óbvio. Assumindo (a) e (b) válidos para todo j 6 k < m,
vamos provar a validade de (a) e (b) para k + 1. Isso significa que temos que mostrar que hk+1,k > 0 e
®
q, Aq, . . . , Ak−1 q, Ak q = hq1 , . . . , qk+1 i
assumindo válido
hqi = hq1 i
hq, Aqi = hq1 , q2 i
®
q, Aq, A2 q = hq1 , q2 , q3 i
..
.
k−1
®
q, Aq, . . . , A q = hq1 , . . . , qk i
Em particular, vemos que cada vetor qj , para j = 1, . . . , k, possui uma componente não-nula na direção de
Aj−1 q, digamos
j−2
X
j−1
qj = aj−1 A q + ai Ai q com aj−1 6= 0.
i=0
Por definição
k
X
qbk+1 = Aqk − hjk qj ,
j=1
produzindo Ak q como combinação linear de q, Aq, . . . , Ak−1 q para k < m, violando a hipótese de que
q, Aq, . . . , Am−1 q são linearmente independentes. Isso prova que hk+1,k = kb
qk+1 k > 0. Além disso, como
à k−2
! k k−1 k
X X X X
k−1 i k i
qbk+1 = A ak−1 A q+ ai A q − hjk qj = ak−1 A q + ai A q − hjk qj ,
i=0 j=1 i=1 j=1
e portanto
m
X
Am q = hAqm , qj i qj
j=1
pois esta é a expressão de Am q na base ortonormal {q1 , . . . , qm }; daı́ segue da definição que qbm+1 = 0. ¥
Pelo Teorema 8.3, esta relação vale para k = 1, . . . , m se q, Aq, . . . , Am q forem linearmente independentes.
Estas equações vetoriais podem ser combinadas em uma equação matricial da seguinte maneira. Definimos
£ ¤
Qm = q1 . . . qm n×m (8.26)
e
h11 h12 ... h1,m−1 h1m
h21 h22 ... h2,m−1 h2m
0 h32 ... h3,m−1 h3,m
Hm+1,m =
0 ..
.
.. ..
. (8.27)
0 . .
. .. ..
.. . . hm,m−1 hm,m
0 0 ... 0 hm+1,m (m+1)×m
Temos
AQm = Qm+1 Hm+1,m . (8.28)
Rodney Josué Biezuner 152
Observe que Qm é uma isometria (embora não necessariamente um isomorfismo isométrico, a não ser que
m = n) e que Hm+1,m é uma matriz de Hessenberg superior, não quadrada, com entradas diagonais posi-
tivas. Denotaremos por Hm a matriz de Hessenberg superior quadrada obtida através de Hm+1,m quando
suprimimos a última linha desta. Segue que
£ ¤
AQm = Qm Hm + qm+1 0 . . . 0 hm+1,m
ou
AQm = Qm Hm + qm+1 hm+1,m etm . (8.29)
8.4 Proposição. Suponha que q1 , . . . , qm+1 são vetores ortonormais,
£ ¤
Qm = q1 . . . qm ,
e que Hm é uma matriz de Hessenberg superior com hj+1,j > 0 para j = 1, . . . , m. Embora estes
possam ter sido obtidos por qualquer processo, suponha que eles satisfazem (8.29).
Então q1 , . . . , qm+1 são exatamente os vetores produzidos pelo processo de Arnoldi com vetor inicial
q1 . Em outras palavras, dada uma matriz A, os objetos em (8.29) são unicamente determinados pela
primeira coluna de Qm .
Se q, Aq, . . . , Am q são linearmente independentes, então hm+1,m 6= 0. Se eles são linearmente dependentes,
então hm+1,m = 0 e
AQm = Qm Hm . (8.30)
Em particular, isso implica que hq1 , . . . , qm i são invariantes sob A e que os autovalores de Hm são autovalores
de A, como o próximo resultado mostra:
8.5 Proposição. Suponha que x1 , . . . , xm ∈ Fn são linearmente independentes e sejam S = hx1 , . . . , xm i e
£ ¤
X = x1 . . . xm n×m
Então S é invariante sob A ∈ Mn (F) se e somente se existe algum B ∈ Mm (F) tal que
AX = XB.
Além disso, todo autovalor de B é um autovalor de A com autovetor correspondente em S.
Prova. Se existe tal B, então
m
X
Axj = xi bij ∈ S.
i=1
Reciprocamente, se X é invariante sob A, então para cada ı́ndice j = 1, . . . , m existem escalares bij tais que
m
X
Axj = bij xi .
i=1
Defina B = (bij ).
Se w é um autovetor de B com autovalor λ, então v = Xw ∈ S é um autovetor de A com autovalor λ. ¥
Se m não é muito grande, podemos então usar o algoritmo QR para encontrar os autovalores de Hm . Na
prática, dificilmente obteremos hm+1,m = 0 exatamente, mas se hm+1,m é próximo de zero podemos esperar
que estamos próximos de um subespaço invariante e, portanto, que os autovalores de Hm são próximos aos
autovalores de A. O próximo resultado mostra que mesmo na eventualidade em que hm+1,m não é pequeno,
alguns dos autovalores de Hm podem ser boas aproximações dos autovalores de A.
8.6 Teorema. Sejam Qm , Hm e hm+1,m gerados pelo processo de Arnoldi. Seja λ um autovalor de Hm
com autovetor unitário x. Seja v = Qm x. Então
kAv − λvk = |hm+1,m | |xm | ,
onde xm denota a última componente de x.
Rodney Josué Biezuner 153
[Asmar] Nakhlé ASMAR, Partial Differential Equations and Boundary Value Problems, Pren-
tice Hall, 2000.
[Aronszajn] N. ARONSZAJN, A unique continuation theorem for solutions of elliptic partial dif-
ferential equations of second order, J. Math. Pures Appl. 36 (1957), 235-239.
[Bandle] Catherine BANDLE, Isoperimetric Inequalities and Applications, Pitman, 1980.
[Berard1] Pierre BÉRARD, Transplantation et isospectralité, Math. Ann. 292 (1992), pp. 547–
559
[Berard2] Pierre BÉRARD, Domaines plans isospectraux à la Gordon-Webb-Wolpert: une
preuve élémentaire, Afrika Mat. 3 (1993), no. 1, 135–146.
[Biezuner] Rodney Josué BIEZUNER, Notas de Aula: Equações Diferenciais Parciais, UFMG,
2005.
[BHM] William L. BRIGGS, Van Emden HENSON e Steve F. McCORMICK, A Multigrid
Tutorial, SIAM, 2000.
[Chapman] S. J. CHAPMAN, Drums That Sound the Same, American Mathematical Monthly,
102 (1995), no. 2, 124–138.
[Cheng] Shiu-Yuen CHENG, Eigenfunctions and nodal sets, Comment. Math. Helvetici 51
(1976), 43–55.
[Courant-Hilbert] Richard COURANT e David HILBERT, Methods of Mathematical Physics, Wiley-
Interscience, 1953.
[Demmel] James W. DEMMEL, Applied Numerical Linear Algebra, SIAM, 1997.
[Driscoll] Tobin A. DRISCOLL, Eigenmodes of isospectral drums, SIAM Review 39 (1997), no.
1, 1–17.
154
Rodney Josué Biezuner 155
[GWW2] Carolyn GORDON, David L. WEBB e Scott WOLPERT, Isospectral plane domains
and surfaces via Riemannian orbifolds, Inventiones Mathematicae 110 (1992), n. 1,
1–22.
[Hackbusch] W. HACKBUSCH, Elliptic Differential Equations: Theory and Numerical Treatment,
Springer Series in Computational Mathematics 18, Springer, 1992.
[Herrman] H. HERRMANN, Beziehungen zwischen den Eigenwerten und Eigenfunktionen ver-
schiedener Eigenwertprobleme, Math. Z. 40 (1935), 221–241.
[Heuveline] Vincent HEUVELINE, On the computation of a very large number of eigenvalues for
selfadjoint elliptic operators by means of multigrid methods, Journal of Computational
Physics 184 (2003), 321–337.
[Horn-Johnson] Roger A. HORN e Charles R. JOHNSON, Matrix Analysis, Cambridge University
Press, 1985.
[Johnson] Claes JOHNSON, Numerical solutions of partial differential equations by the finite
element method, Cambridge, 1987.
[Jost] Jürgen JOST, Partial Differential Equations, Graduate Texts in Mathematics 214,
Springer-Verlag, 2002.
[Kac] M. KAC, Can one hear the shape of a drum?, American Mathematical Monthly 73
(1966), no. 4, part II, 1–23.
[Kuttler-Sigillito] J. R. KUTTLER e V. G. SIGILLITO, Eigenvalues of the Laplacian in two dimensions,
SIAM REVIEW 26 (1984) no. 2, 163–193.
[Milnor] J. MILNOR, Eigenvalues of the Laplace operator on certain manifolds, Proceedings
of the National Academy of Sciences USA 51 (1964), 542.
[Pleijel] A. PLEIJEL, Remarks on Courant’s nodal line theorem, Comm. Pure Appl. Math. 9
(1956), 543–550.
[Protter] M. H. PROTTER, Can one hear the shape of a drum? Revisited, SIAM REVIEW
29 (1987) no. 2, 185–197.
[Rosser1] J. Barkley ROSSER, Nine point difference solutions for Poisson’s equation, Comp.
Math. Appl. 1 (1975), 351–360.
[Rosser2] J. Barkley ROSSER, Finite-difference solution of Poisson’s equation in rectangles of
arbitrary proportions, Zeitschrift für Angewandte Mathematik und Physik (ZAMP)
28 (1977), no.2, 185–196.
[Sridhar-Kudrolli] S. SRIDAR e A. KUDROLLI, Experiments on not “hearing the shape” of drums,
Physical Review Letters 72 (1994), 2175–2178.
[Strang] Gilbert STRANG, Linear Algebra and its Applications, 3rd Ed., Harcourt Brace Jo-
vanovich, 1988.
[Strikwerda] John C. STRIKWERDA, Finite Difference Schemes and Partial Differential Equa-
tions, 2nd Ed., SIAM, 2004.
[Thomas1] J. W. THOMAS, Numerical Partial Differential Equations: Finite Difference Meth-
ods, Texts in Applied Mathematics 22, Springer, 1995.
Rodney Josué Biezuner 156