No caso de um sistema de equações lineares, as duas principais classes de métodos iterativos são os métodos iterativos estacionários, e os métodos subespaciais mais gerais de Krylov.
Métodos iterativos estacionáriosEditar
IntroduçãoEditar
Métodos iterativos estacionários resolvem um sistema linear com um operador aproximando-se do original; e baseado em uma medida do erro no resultado (o residual), formam uma “equação de correção” para a qual este processo é repetido. Enquanto estes métodos são simples de derivar, implementar e analisar, a convergência só é garantida para uma classe limitada de matrizes.
DefiniçãoEditar
Um método iterativo é definido por
x k + 1 := Ψ ( x k ) , k ≥ 0 {\displaystyle \mathbf {x} Psi (^{k+1}:=\psi (^mathbf {x} ^{k})^,,^quad k\geq 0}
e para um dado sistema linear A x = b ^{\pg}mathbf {x} =mathbf {b} }
com a solução exacta x ∗ {\i1}displaystyle {\i}mathbf {x} ^{*}}
o erro por e k := x k – x ∗ , k ≥ 0 . estilo de exibição {\i1}mathbf {e} ^{k}:=mathbf {x} Mathbf ,,quad kgeq 0,.^
Um método iterativo é chamado linear se existir uma matriz C ∈ R n × n ^R n ^n vezes n
tal que e k + 1 = C e k ∀ k ≥ 0 {\i1}displaystyle \i}mathbf {e} ^{k+1}=C\mathbf {e} E esta matriz é chamada de matriz de iteração. Um método iterativo com uma dada matriz de iteração C
é chamado de convergente se o seguinte se mantém lim k → ∞ C k = 0 . C^{k}=0,.}
Um teorema importante afirma que para um dado método iterativo e sua matriz de iteração C {\i1}displaystyle C}
é convergente se e só se o seu raio espectral ρ ( C ) {\i1}displaystyle \i}rho (C)}
é menor que a unidade, ou seja, ρ ( C ) < 1 . estilo de jogo {\i1}rho (C)<1{\i},.}
Os métodos iterativos básicos funcionam através da divisão da matriz A {\i1}displaystyle A}
em A = M – N {\\\i1}displaystyle A=M-N}
e aqui a matriz M {\i1}displaystyle M
Daqui decorre que a matriz de iteração é dada por
C = I – M – 1 A = M – 1 N . {\i1}displaystyle C=I-M^{-1}A=M^{-1}N,.}
ExemplosEditar
Exemplos básicos de métodos iterativos estacionários usam uma divisão da matriz A {\displaystyle A}
tal como A = D + L + U , D := diag ( ( a i i ) i ) {\displaystyle A=D+L+U\,,\quad D:={\i}((a_{ii})_{i})}
where D {\i1}displaystyle D
é apenas a parte diagonal de A {\i1}displaystyle A
, e L {\i1}displaystyle L
é a parte triangular inferior estrita de A {\i1}displaystyle A
.Respectivamente, U {\i1}displaystyle U
é a parte triangular superior estrita de A {\i1}displaystyle A
.
- Método Richardson: M := 1 ω I ( ω ≠ 0 ) {\i1}{\i1}Iquad ({\i1}Iomega {\i}neq 0)}
- Método Jacobi: M := D {\\\i1}displaystyle M:=D}
- Método Jacobi amortecido: M := 1 ω D ( ω ≠ 0 ) {\i1}{\i1}displaystyle M:={\i}frac {\i}{\i1}Dquad ({\i1}neq 0)}
- Método de Gauss-Seidel: M := D + L {\\\\i1}displaystyle M:=D+L}
- Método de sobre-relação sucessiva (SOR): M := 1 ω D + L ( ω ≠ 0 ) {\displaystyle M:={\frac {\\frac {\frac }}}D+L\quad (\frac \frac 0)}
- Sobre-relação simétrica sucessiva (SSOR):
Métodos estacionários iterativos lineares também são chamados de métodos de relaxamento.
Métodos subespaciais de KrylovEditar
Métodos subespaciais de Krylov funcionam formando uma base da sequência de potências matriciais sucessivas vezes o residual inicial (a sequência de Krylov). As aproximações à solução são então formadas pela minimização do residual sobre o subespaço formado. O método prototípico nesta classe é o método de gradiente conjugado (CG) que assume que a matriz do sistema A {\displaystyle A}
é simétrico positivo-definido. Para simétrico (e possivelmente indefinido) A {\\i1}displaystyle A
trabalha-se com o método do mínimo residual (MINRES). No caso de matrizes não simétricas, métodos como o método do mínimo residual generalizado (GMRES) e o método do gradiente biconjugado (BiCG) foram derivados.
Convergência dos métodos subespaciais de KrylovEditar
Desde que estes métodos formam uma base, é evidente que o método converge em N iterações, onde N é o tamanho do sistema. Entretanto, na presença de erros de arredondamento esta afirmação não se mantém; além disso, na prática N pode ser muito grande, e o processo iterativo atinge precisão suficiente já muito antes. A análise destes métodos é difícil, dependendo de uma função complicada do espectro do operador.
PreconditionersEdit
O operador que aparece em métodos iterativos estacionários também pode ser incorporado em métodos subespaciais de Krylov como GMRES (alternativamente, métodos pré-condicionados de Krylov podem ser considerados como acelerações de métodos iterativos estacionários), onde se tornam transformações do operador original para um presumivelmente melhor condicionado. A construção de pré-condicionadores é uma grande área de pesquisa.
HistoryEdit
Provavelmente o primeiro método iterativo para resolver um sistema linear apareceu em uma carta de Gauss para um aluno dele. Ele propôs resolver um sistema de equações 4 por 4 resolvendo repetidamente o componente em que o residual era o maior.
A teoria dos métodos iterativos estacionários foi solidamente estabelecida com o trabalho de D.M. Young a partir dos anos 50. O método Gradiente Conjugado também foi inventado nos anos 50, com desenvolvimentos independentes de Cornelius Lanczos, Magnus Hestenes e Eduard Stiefel, mas sua natureza e aplicabilidade foram mal compreendidas na época. Somente na década de 1970 foi percebido que métodos baseados na conjugação funcionam muito bem para equações diferenciais parciais, especialmente do tipo elíptico.