Iterative Methode
Im Rechenmathematik, ein iterative Methode ist ein mathematisches Verfahren Dies verwendet einen Anfangswert, um eine Folge der Verbesserung der ungefähren Lösungen für eine Klasse von Problemen zu erzeugen, in denen die n-D Die Näherung wird von den vorherigen abgeleitet. Eine spezifische Implementierung einer iterativen Methode, einschließlich der Beendigung Kriterien ist ein Algorithmus der iterativen Methode. Eine iterative Methode heißt konvergent Wenn die entsprechende Sequenz für gegebene Anfangsnäherungen konvergiert. Eine mathematisch strenge Konvergenzanalyse einer iterativen Methode wird normalerweise durchgeführt; jedoch, Heuristik-Basierte iterative Methoden sind ebenfalls häufig.
Im Gegensatz, direkte Methoden Versuchen Sie, das Problem durch eine endliche Abfolge von Operationen zu lösen. In Abwesenheit von RundungsfehlerDirekte Methoden würden eine genaue Lösung liefern (z. B. Lösen eines linearen Gleichungssystems durch Gaußsche Eliminierung). Iterative Methoden sind oft die einzige Wahl für Nichtlineare Gleichungen. Iterative Methoden sind jedoch häufig auch für lineare Probleme, an denen viele Variablen (manchmal in der Reihenfolge von Millionen) beteiligt sind, bei denen direkte Methoden unerschwinglich teur sind (und in einigen Fällen unmöglich), selbst mit der besten verfügbaren Rechenleistung.[1]
Attraktive Fixpunkte
Wenn eine Gleichung in die Form gesteckt werden kann f(x) = xund eine Lösung x ist attraktiv Fixpunkt der Funktion fdann kann man mit einem Punkt beginnen x1 in dem Anziehungsbecken von x, und lass xn+1 = f(xn) zum n≥ 1 und die Sequenz {xn}n≥ 1 wird zu der Lösung konvergieren x. Hier xn ist der nTH -Annäherung oder Iteration von x und xn+1 ist der nächste oder n + 1 Iteration von x. Alternativ werden Superscripts in Klammern häufig in numerischen Methoden verwendet, um die Einschüsse nicht mit anderen Bedeutungen zu beeinträchtigen. (Zum Beispiel, x(n+1) = f(x(n)).) Wenn die Funktion f ist kontinuierlich differenzierbar, eine ausreichende Bedingung für die Konvergenz ist, dass die Spektralradius des Derivats wird streng von einem in einer Nachbarschaft des Fixpunkts begrenzt. Wenn diese Bedingung am festen Punkt gilt, muss eine ausreichend kleine Nachbarschaft (Anziehungsbecken) existieren.
Lineare Systeme
Im Fall von a System der linearen GleichungenDie beiden Hauptklassen iterativer Methoden sind die Stationäre iterative Methodenund desto allgemeiner Krylov Subspace Methoden.
Stationäre iterative Methoden
Einführung
Stationäre iterative Methoden lösen ein lineares System mit einem Operator das ursprüngliche annähern; und basierend auf einer Messung des Fehlers im Ergebnis (der Rest), bilden Sie eine "Korrekturgleichung", für die dieser Vorgang wiederholt wird. Während diese Methoden einfach abgeleitet, implementieren und analysieren sind, ist die Konvergenz nur für eine begrenzte Klasse von Matrizen garantiert.
Definition
Ein iterative Methode wird definiert von
und für ein bestimmtes lineares System mit exakter Lösung das Error durch
Eine iterative Methode heißt linear Wenn es eine Matrix gibt so dass
und diese Matrix wird die genannt Iterationsmatrix. Eine iterative Methode mit einer bestimmten Iterationsmatrix wird genannt konvergent Wenn der folgende gilt
Ein wichtiger Satz besagt, dass für eine bestimmte iterative Methode und seine Iterationsmatrix es ist konvergent, wenn und nur wenn es ist Spektralradius ist kleiner als die Einheit, das heißt,
Die grundlegenden iterativen Methoden funktionieren von Aufteilung die Matrix hinein
Und hier die Matrix sollte leicht sein invertierbar. Die iterativen Methoden sind jetzt definiert als
Daraus folgt, dass die Iterationsmatrix gegeben wird
Beispiele
Grundlegende Beispiele für stationäre iterative Methoden verwenden eine Aufteilung der Matrix wie zum Beispiel
wo ist nur der diagonale Teil von , und ist der strenge niedriger dreieckiger Teil von . Beziehungsweise, ist der strenge obere dreieckige Teil von .
- Richardson -Methode:
- Jacobi -Methode:
- Gedämpfte Jacobi -Methode:
- Gauss -Seidel -Methode:
- Aufeinanderfolgende Überrelaxationsmethode (SOR):
- Symmetrische aufeinanderfolgende Überrelaxation (SSOR):
Lineare stationäre iterative Methoden werden ebenfalls genannt Entspannungsmethoden.
Krylov Subspace -Methoden
Krylov Subspace -Methoden arbeiten, indem er a bildet Basis von der Abfolge von aufeinanderfolgenden Matrix Powers Male das erste Rest (die Krylov -Sequenz). Die Annäherungen an die Lösung werden dann gebildet, indem der Rest über den gebildeten Unterraum minimiert wird. Die prototypische Methode in dieser Klasse ist die Konjugat -Gradientenmethode (CG), was annimmt, dass die Systemmatrix ist symmetrisch positiv-definit. Für symmetrisch (und möglicherweise unbestimmt) Man arbeitet mit dem Minimale Restmethode (Minres). Im Fall von nicht symmetrischen Matrizen Methoden wie die Verallgemeinerte minimale Restmethode (Gmres) und die Biconjugat -Gradientenmethode (BICG) wurden abgeleitet.
Konvergenz von Krylov -Subspace -Methoden
Da diese Methoden eine Basis bilden, ist es offensichtlich, dass die Methode konvergiert N Iterationen, wo N ist die Systemgröße. In Gegenwart von Rundungsfehlern gilt diese Aussage jedoch nicht; Darüber hinaus in der Praxis N Kann sehr groß sein und der iterative Prozess erreicht bereits weit früher eine ausreichende Genauigkeit. Die Analyse dieser Methoden ist schwierig, abhängig von einer komplizierten Funktion der Spektrum des Bedieners.
Vorkondonierer
Der in stationäre iterativen Methoden erscheinende approximierende Operator kann auch in Krylov -Subspace -Methoden wie z. Gmres (Alternative, vorkonditioniert Krylov -Methoden können als Beschleunigungen stationärer iterativer Methoden angesehen werden), bei denen sie zu Transformationen des ursprünglichen Operators in eine vermutlich besser konditionierte Veränderungen werden. Der Bau von Vorkonditionierern ist ein großes Forschungsgebiet.
Geschichte
Wahrscheinlich erschien die erste iterative Methode zur Lösung eines linearen Systems in einem Brief von Gauß zu einem Schüler von ihm. Er schlug vor, ein 4-mal-4-Gleichungssystem zu lösen, indem er die Komponente, in der der Rest der größte war, wiederholt löste.
Die Theorie der stationären iterativen Methoden wurde mit der Arbeit von solide festgestellt DM. Jung Ab den 1950er Jahren. Die konjugierte Gradientenmethode wurde auch in den 1950er Jahren mit unabhängigen Entwicklungen von erfunden Cornelius Lanczos, Magnus Hestenes und Eduard Stiefel, aber seine Natur und Anwendbarkeit wurden zu dieser Zeit missverstanden. Erst in den 1970er Jahren wurde erkannt, dass auf Konjugation basierende Methoden sehr gut funktionieren für partielle Differentialgleichungen, insbesondere der elliptische Typ.
Siehe auch
- Expression geschlossene Form
- Iterative Verfeinerung
- Non-linear least squares
- Numerische Analyse
- Wurzelfindungsalgorithmus
Verweise
- ^ Amritkar, Amit; de Sturler, Eric; Świrydowicz, Kataryna; Tafti, Danesh; Ahuja, Kapil (2015). "Recycling von Krylov -Teilräumen für CFD -Anwendungen und einen neuen Hybrid -Recycling -Solver". Journal of Computational Physics. 303: 222. Arxiv:1501.03358. Bibcode:2015jcoph.303..222a. doi:10.1016/j.jcp.2015.09.040.