No caso de um sistema de equações lineares, as duas principais classes de métodos iterativos são os métodos iterativos estacionários, e os métodos subespaciais mais gerais de Krylov.

Métodos iterativos estacionáriosEditar

IntroduçãoEditar

Métodos iterativos estacionários resolvem um sistema linear com um operador aproximando-se do original; e baseado em uma medida do erro no resultado (o residual), formam uma “equação de correção” para a qual este processo é repetido. Enquanto estes métodos são simples de derivar, implementar e analisar, a convergência só é garantida para uma classe limitada de matrizes.

DefiniçãoEditar

Um método iterativo é definido por

x k + 1 := Ψ ( x k ) , k ≥ 0 {\displaystyle \mathbf {x} Psi (^{k+1}:=\psi (^mathbf {x} ^{k})^,,^quad k\geq 0}

e para um dado sistema linear A x = b ^{\pg}mathbf {x} =mathbf {b} }

com a solução exacta x ∗ {\i1}displaystyle {\i}mathbf {x} ^{*}}

o erro por e k := x k – x ∗ , k ≥ 0 . estilo de exibição {\i1}mathbf {e} ^{k}:=mathbf {x} Mathbf ,,quad kgeq 0,.^

Um método iterativo é chamado linear se existir uma matriz C ∈ R n × n ^R n ^n vezes n

tal que e k + 1 = C e k ∀ k ≥ 0 {\i1}displaystyle \i}mathbf {e} ^{k+1}=C\mathbf {e} E esta matriz é chamada de matriz de iteração. Um método iterativo com uma dada matriz de iteração C

é chamado de convergente se o seguinte se mantém lim k → ∞ C k = 0 . C^{k}=0,.}

Um teorema importante afirma que para um dado método iterativo e sua matriz de iteração C {\i1}displaystyle C}

é convergente se e só se o seu raio espectral ρ ( C ) {\i1}displaystyle \i}rho (C)}

é menor que a unidade, ou seja, ρ ( C ) < 1 . estilo de jogo {\i1}rho (C)<1{\i},.}

Os métodos iterativos básicos funcionam através da divisão da matriz A {\i1}displaystyle A}

em A = M – N {\\\i1}displaystyle A=M-N}

e aqui a matriz M {\i1}displaystyle M

Daqui decorre que a matriz de iteração é dada por

C = I – M – 1 A = M – 1 N . {\i1}displaystyle C=I-M^{-1}A=M^{-1}N,.}

ExemplosEditar

Exemplos básicos de métodos iterativos estacionários usam uma divisão da matriz A {\displaystyle A}

tal como A = D + L + U , D := diag ( ( a i i ) i ) {\displaystyle A=D+L+U\,,\quad D:={\i}((a_{ii})_{i})}

where D {\i1}displaystyle D

é apenas a parte diagonal de A {\i1}displaystyle A

, e L {\i1}displaystyle L

é a parte triangular inferior estrita de A {\i1}displaystyle A

.Respectivamente, U {\i1}displaystyle U

é a parte triangular superior estrita de A {\i1}displaystyle A

.

  • Método Richardson: M := 1 ω I ( ω ≠ 0 ) {\i1}{\i1}Iquad ({\i1}Iomega {\i}neq 0)}
  • Método Jacobi: M := D {\\\i1}displaystyle M:=D}
  • Método Jacobi amortecido: M := 1 ω D ( ω ≠ 0 ) {\i1}{\i1}displaystyle M:={\i}frac {\i}{\i1}Dquad ({\i1}neq 0)}
  • Método de Gauss-Seidel: M := D + L {\\\\i1}displaystyle M:=D+L}
  • Método de sobre-relação sucessiva (SOR): M := 1 ω D + L ( ω ≠ 0 ) {\displaystyle M:={\frac {\\frac {\frac }}}D+L\quad (\frac \frac 0)}
  • Sobre-relação simétrica sucessiva (SSOR):

Métodos estacionários iterativos lineares também são chamados de métodos de relaxamento.

Métodos subespaciais de KrylovEditar

Métodos subespaciais de Krylov funcionam formando uma base da sequência de potências matriciais sucessivas vezes o residual inicial (a sequência de Krylov). As aproximações à solução são então formadas pela minimização do residual sobre o subespaço formado. O método prototípico nesta classe é o método de gradiente conjugado (CG) que assume que a matriz do sistema A {\displaystyle A}

é simétrico positivo-definido. Para simétrico (e possivelmente indefinido) A {\\i1}displaystyle A

trabalha-se com o método do mínimo residual (MINRES). No caso de matrizes não simétricas, métodos como o método do mínimo residual generalizado (GMRES) e o método do gradiente biconjugado (BiCG) foram derivados.

Convergência dos métodos subespaciais de KrylovEditar

Desde que estes métodos formam uma base, é evidente que o método converge em N iterações, onde N é o tamanho do sistema. Entretanto, na presença de erros de arredondamento esta afirmação não se mantém; além disso, na prática N pode ser muito grande, e o processo iterativo atinge precisão suficiente já muito antes. A análise destes métodos é difícil, dependendo de uma função complicada do espectro do operador.

PreconditionersEdit

O operador que aparece em métodos iterativos estacionários também pode ser incorporado em métodos subespaciais de Krylov como GMRES (alternativamente, métodos pré-condicionados de Krylov podem ser considerados como acelerações de métodos iterativos estacionários), onde se tornam transformações do operador original para um presumivelmente melhor condicionado. A construção de pré-condicionadores é uma grande área de pesquisa.

HistoryEdit

Provavelmente o primeiro método iterativo para resolver um sistema linear apareceu em uma carta de Gauss para um aluno dele. Ele propôs resolver um sistema de equações 4 por 4 resolvendo repetidamente o componente em que o residual era o maior.

A teoria dos métodos iterativos estacionários foi solidamente estabelecida com o trabalho de D.M. Young a partir dos anos 50. O método Gradiente Conjugado também foi inventado nos anos 50, com desenvolvimentos independentes de Cornelius Lanczos, Magnus Hestenes e Eduard Stiefel, mas sua natureza e aplicabilidade foram mal compreendidas na época. Somente na década de 1970 foi percebido que métodos baseados na conjugação funcionam muito bem para equações diferenciais parciais, especialmente do tipo elíptico.

Deixe uma resposta

O seu endereço de email não será publicado.