Numerische Analyse

Numerische Analyse ist das Studium von Algorithmen das benutzt numerisch Annäherung (im Gegensatz zu Symbolische Manipulationen) für die Probleme von Mathematische Analyse (im Unterschied von Diskrete Mathematik). Es ist die Untersuchung numerischer Methoden, die versuchen, ungefähre Lösungen von Problemen und nicht die genauen Probleme zu finden. Die numerische Analyse findet Anwendung in allen Bereichen Ingenieurwesen und physischen Wissenschaften sowie im 21. Jahrhundert auch das Leben und die Sozialwissenschaften, die Medizin, das Geschäft und sogar die Künste. Das derzeitige Wachstum der Rechenleistung hat die Verwendung komplexerer numerischer Analysen ermöglicht und detaillierte und realistische mathematische Modelle in Naturwissenschaften und Ingenieurwesen bereitgestellt. Beispiele für die numerische Analyse sind: gewöhnliche Differentialgleichungen Wie in Himmelsmechanik (Vorhersage der Bewegungen von Planeten, Sternen und Galaxien), Numerische lineare Algebra in der Datenanalyse,[2][3][4] und Stochastische Differentialgleichungen und Markov -Ketten Für die Simulation lebender Zellen in Medizin und Biologie.
Vor modernen Computern, Numerische Methoden oft auf Hand angewiesen Interpolation Formeln, die Daten aus großen gedruckten Tabellen verwenden. Seit Mitte des 20. Jahrhunderts berechnen Computer stattdessen die erforderlichen Funktionen, aber viele der gleichen Formeln werden weiterhin in Softwarealgorithmen verwendet.[5]
Der numerische Standpunkt geht auf die frühesten mathematischen Schriften zurück. Eine Tablette aus dem Yale babylonische Sammlung (YBC 7289), gibt ein sexagesimal numerische Näherung der Quadratwurzel von 2die Länge der Länge der Diagonale in einem Einheitsquadrat.
Die numerische Analyse setzt diese lange Tradition fort: Anstatt genaue symbolische Antworten zu geben, die in Ziffern übersetzt und nur für reale Messungen anwendbar sind, werden ungefähre Lösungen innerhalb bestimmter Fehlergrenzen verwendet.
Allgemeine Einführung
Das Gesamtziel des Gebiets der numerischen Analyse ist das Design und die Analyse von Techniken, um ungefähre, aber genaue Lösungen für harte Probleme zu verleihen, deren Sorte im Folgenden vorgeschlagen wird:
- Fortgeschrittene numerische Methoden sind für die Herstellung von wesentlicher Bedeutung Numerische Wettervorhersage machbar.
- Die Berechnung der Flugbahn eines Raumfahrzeugs erfordert die genaue numerische Lösung eines Systems gewöhnlicher Differentialgleichungen.
- Autounternehmen können die Unfallsicherheit ihrer Fahrzeuge verbessern, indem sie Computersimulationen von Autounfällen verwenden. Solche Simulationen bestehen im Wesentlichen aus Lösung partielle Differentialgleichungen numerisch.
- Hedge -Fonds (private Investmentfonds) Verwenden Sie Tools aus allen Bereichen der numerischen Analyse, um zu versuchen, den Wert von zu berechnen Vorräte und Derivate genauer als andere Marktteilnehmer.
- Fluggesellschaften verwenden anspruchsvolle Optimierungsalgorithmen, um Ticketpreise, Flugzeug- und Besatzungsaufgaben und Kraftstoffanforderungen zu entscheiden. Historisch gesehen wurden solche Algorithmen im überlappenden Bereich von entwickelt Unternehmensforschung.
- Versicherungsunternehmen verwenden numerische Programme für Versicherungsmathematisch Analyse.
Der Rest dieses Abschnitts beschreibt mehrere wichtige Themen der numerischen Analyse.
Geschichte
Das Gebiet der numerischen Analyse ist vor der Erfindung moderner Computer nach vielen Jahrhunderten. Lineare Interpolation war bereits vor mehr als 2000 Jahren im Einsatz. Viele große Mathematiker der Vergangenheit wurden durch numerische Analyse beschäftigt,[5] Wie aus den Namen wichtiger Algorithmen wie ersichtlich ist wie Newtons Methode, LaGrange Interpolation Polynom, Gaußsche Eliminierung, oder Eulers Methode.
Um Berechnungen von Hand zu erleichtern, wurden große Bücher mit Formeln und Daten Tabellen wie Interpolationspunkten und Funktionskoeffizienten hergestellt. Unter Verwendung dieser Tabellen, die für einige Funktionen häufig auf 16 Dezimalstellen oder mehr berechnet werden, kann man Werte nachschlagen, um in die angegebenen Formeln einzusteigen und sehr gute numerische Schätzungen einiger Funktionen zu erreichen. Die kanonische Arbeit vor Ort ist die NIST Veröffentlichung bearbeitet von Abramowitz und Stegun, ein über 1000 Seitenbuch einer sehr großen Anzahl häufig verwendeter Formeln und Funktionen und deren Werte an vielen Punkten. Die Funktionswerte sind nicht mehr sehr nützlich, wenn ein Computer verfügbar ist, aber die große Auflistung von Formeln kann immer noch sehr praktisch sein.
Das mechanischer Taschenrechner wurde auch als Werkzeug für Handberechnungen entwickelt. Diese Taschenrechner entwickelten sich in den 1940er Jahren zu elektronischen Computern, und es wurde dann festgestellt, dass diese Computer auch für Verwaltungszwecke nützlich waren. Die Erfindung des Computers beeinflusste aber auch das Gebiet der numerischen Analyse.[5] Seit nun länger und komplizierter berechnungsberechnungen.
Direkte und iterative Methoden
Betrachten Sie das Problem der Lösung
- 3x3 + 4 = 28
für die unbekannte Menge x.
3x3 + 4 = 28. | |
Subtrahieren 4 | 3x3 = 24. |
Teilen Sie durch 3 | x3 = 8. |
Nehmen Sie Würfelwurzeln | x = 2. |
Für die iterative Methode wenden Sie die an Bisektionsmethode zu f(x) = 3x3 - 24. Die Anfangswerte sind a = 0,, b = 3, f(a) = –24, f(b) = 57.
a | b | Mitte | f(Mitte) |
---|---|---|---|
0 | 3 | 1.5 | –13,875 |
1.5 | 3 | 2.25 | 10.17 ... |
1.5 | 2.25 | 1,875 | −4.22 ... |
1,875 | 2.25 | 2.0625 | 2.32 ... |
Aus dieser Tabelle kann der Schluss gezogen werden, dass die Lösung zwischen 1,875 und 2,0625 liegt. Der Algorithmus kann eine beliebige Zahl in diesem Bereich mit einem Fehler von weniger als 0,2 zurückgeben.
Diskretisierung und numerische Integration

In einem zweistündigen Rennen wird die Geschwindigkeit des Autos in drei Augenbläschen gemessen und in der folgenden Tabelle aufgezeichnet.
Zeit | 0:20 | 1:00 | 1:40 |
---|---|---|---|
km/h | 140 | 150 | 180 |
A Diskretisierung Würde sagen, dass die Geschwindigkeit des Autos von 0:00 bis 0:40 konstant war, dann von 0:40 bis 1:20 und schließlich von 1:20 bis 2:00 Uhr. Zum Beispiel beträgt die Gesamtstrecke in den ersten 40 Minuten ungefähr (2/3 h×140 km/h) =93,3 km. Dies würde es uns ermöglichen, die Gesamtstrecke abzuschätzen als 93,3 km + 100 km + 120 km = 313,3 km, was ein Beispiel für ist Numerische Integration (siehe unten) Verwenden Sie a Riemann Sum, weil Verschiebung das ist Integral- der Geschwindigkeit.
Schlecht konditioniertes Problem: Nehmen Sie die Funktion f(x) = 1/((x- 1). Beachten Sie, dass f(1.1) = 10 und f(1.001) = 1000: Eine Änderung in x von weniger als 0,1 verwandelt sich in eine Änderung in f(x) von fast 1000. Bewertung f(x) nahe x = 1 ist ein schlecht konditioniertes Problem.
Gut konditioniertes Problem: Im Gegensatz dazu bewerten Sie dieselbe Funktion f(x) = 1/((x- 1) nahe x = 10 ist ein gut konditioniertes Problem. Zum Beispiel, f(10) = 1/9 ≈ 0,111 und f(11) = 0,1: eine bescheidene Änderung in x führt zu einer bescheidenen Änderung in f(x).
Direkte Methoden berechnen die Lösung für ein Problem in einer begrenzten Anzahl von Schritten. Diese Methoden würden die genaue Antwort geben, wenn sie in durchgeführt würden Unendliche Präzisionsarithmetik. Beispiele beinhalten Gaußsche Eliminierung, das QR -Faktorisierung Methode zum Lösen Systeme der linearen Gleichungen, und die Simplex -Methode von Lineares Programmieren. In der Praxis, endliche Präzision wird verwendet und das Ergebnis ist eine Annäherung der wahren Lösung (vorausgesetzt Stabilität).
Im Gegensatz zu direkten Methoden,, iterative Methoden Es wird nicht erwartet, dass sie in einer begrenzten Anzahl von Schritten enden. Ausgehend von einer ersten Vermutung bilden iterative Methoden aufeinanderfolgende Annäherungen, die konvergieren zur genauen Lösung nur in der Grenze. Ein Konvergenztest, der oft beteiligt ist der Rest, wird angegeben, um zu entscheiden, wann (hoffentlich) eine ausreichend genaue Lösung gefunden wurde. Selbst die Verwendung unendlicher Präzisionsarithmetik würde diese Methoden nicht innerhalb einer begrenzten Anzahl von Schritten (im Allgemeinen) die Lösung erreichen. Beispiele sind Newtons Methode, die Bisektionsmethode, und Jacobi Iteration. In der Computermatrixalgebra werden im Allgemeinen iterative Methoden für große Probleme benötigt.[6][7][8][9]
Iterative Methoden sind häufiger als direkte Methoden in der numerischen Analyse. Einige Methoden sind im Prinzip direkt, werden jedoch normalerweise so verwendet, als ob sie nicht wären, z. Gmres und die Konjugat -Gradientenmethode. Für diese Methoden ist die Anzahl der Schritte, die zur Erzielung der genauen Lösung erforderlich sind, so groß, dass eine Näherung auf die gleiche Weise wie für eine iterative Methode akzeptiert wird.
Diskretisierung
Darüber hinaus müssen kontinuierliche Probleme manchmal durch ein diskretes Problem ersetzt werden, dessen Lösung bekannt ist, dass sie dem kontinuierlichen Problem annähert. Dieser Prozess wird genannt 'Diskretisierung'. Zum Beispiel die Lösung von a Differentialgleichung ist ein Funktion. Diese Funktion muss durch eine begrenzte Datenmenge dargestellt werden, beispielsweise durch ihren Wert bei einer endlichen Anzahl von Punkten an seiner Domäne, obwohl diese Domäne a ist Kontinuum.
Erzeugung und Ausbreitung von Fehlern
Die Studie von Fehlern ist ein wichtiger Bestandteil der numerischen Analyse. Es gibt verschiedene Möglichkeiten, wie Fehler in der Lösung des Problems eingeführt werden können.
Abrunden
Rückfehler entstehen, weil es unmöglich ist, alle zu repräsentieren reale Nummern genau auf einer Maschine mit endlicher Speicher (was alles praktisch ist Digitale Computer sind).
Aus Kürzung und Diskretisierungsfehler
Kürzungsfehler werden festgelegt, wenn eine iterative Methode beendet oder ein mathematisches Verfahren angenähert wird und die ungefähre Lösung von der genauen Lösung unterscheidet. In ähnlicher Weise induziert Diskretisierung a Diskretisierungsfehler Weil die Lösung des diskreten Problems nicht mit der Lösung des kontinuierlichen Problems übereinstimmt. Im obigen Beispiel, um die Lösung von zu berechnen Nach zehn Iterationen beträgt die berechnete Wurzel ungefähr 1,99. Daher beträgt der Kürzungsfehler ungefähr 0,01.
Sobald ein Fehler erzeugt wird, verbreitet er sich durch die Berechnung. Zum Beispiel ist der Betrieb + auf einem Computer ungenau. Eine Berechnung des Typs ist noch ungenau.
Ein Kürzungsfehler wird erzeugt, wenn ein mathematisches Verfahren angenähert wird. Um eine Funktion genau zu integrieren, muss eine unendliche Summe von Regionen gefunden werden, aber numerisch kann nur eine endliche Summe von Regionen gefunden werden, und daher die Näherung der genauen Lösung. Um eine Funktion zu unterscheiden, nähert sich das Differentialelement Null, aber numerisch kann nur ein Wert ungleich Null des Differentialelements gewählt werden.
Numerische Stabilität und gut gestellte Probleme
Numerische Stabilität ist ein Begriff in der numerischen Analyse. Ein Algorithmus wird als "numerisch stabil" bezeichnet, wenn ein Fehler, unabhängig von seiner Ursache, während der Berechnung nicht viel größer wird.[10] Dies geschieht, wenn das Problem lautet 'gut konditioniert', was bedeutet, dass sich die Lösung nur um eine geringe Menge ändert, wenn die Problemdaten um eine geringe Menge geändert werden.[10] Im Gegenteil, wenn ein Problem „schlecht konditioniert“ ist, wird ein kleiner Fehler in den Daten zu einem großen Fehler.[10]
Sowohl das ursprüngliche Problem als auch der Algorithmus, der zur Lösung dieses Problems verwendet wird, kann "gut konditioniert" oder "schlecht konditioniert" werden, und jede Kombination ist möglich.
Ein Algorithmus, der ein gut konditioniertes Problem löst, kann entweder numerisch stabil oder numerisch instabil sein. Eine Kunst der numerischen Analyse besteht darin, einen stabilen Algorithmus zur Lösung eines gut ausgestatteten mathematischen Problems zu finden. Zum Beispiel ist die Berechnung der Quadratwurzel von 2 (was ungefähr 1,41421 beträgt) ein gut behobenes Problem. Viele Algorithmen lösen dieses Problem, indem sie mit einer anfänglichen Näherung beginnen x0 zu , zum Beispiel x0 = 1,4 und anschließend verbesserte Vermutungen x1, x2usw. Eine solche Methode ist die berühmte Babylonische Methode, was gegeben wird durch xk+1 = xk/2 + 1/xk. Eine andere Methode, die als "Methode x" bezeichnet wird, wird gegeben xk+1 = (xk2 - 2)2 + xk.[Anmerkung 1] Einige Iterationen jedes Schemas werden in Tabellenform mit anfänglichen Vermutungen berechnet x0 = 1.4 und x0 = 1,42.
Babylonisch | Babylonisch | Methode x | Methode x |
---|---|---|---|
x0 = 1,4 | x0 = 1,42 | x0 = 1,4 | x0 = 1,42 |
x1 = 1.4142857 ... | x1 = 1.41422535 ... | x1 = 1.4016 | x1 = 1.42026896 |
x2 = 1.414213564 ... | x2 = 1.41421356242 ... | x2 = 1.4028614 ... | x2 = 1.42056 ... |
... | ... | ||
x1000000 = 1.41421 ... | x27 = 7280.2284 ... |
Beachten Sie, dass die babylonische Methode unabhängig von der anfänglichen Vermutung schnell konvergiert, während Methode x mit anfänglicher Vermutung extrem langsam konvergiert x0 = 1,4 und divergiert für erste Vermutung x0 = 1,42. Daher ist die babylonische Methode numerisch stabil, während die Methode x numerisch instabil ist.
- Numerische Stabilität wird von der Anzahl der signifikanten Ziffern der Maschine beeinflusst. Wenn eine Maschine verwendet wird, die nur die vier bedeutendsten Dezimalstellen hält, kann ein gutes Beispiel für den Signifikanzverlust durch die beiden äquivalenten Funktionen angegeben werden
- und
- Vergleich der Ergebnisse von
- und
- Durch den Vergleich der beiden obigen Ergebnisse ist klar, dass es klar ist, dass Signifikanzverlust (hier durch verursacht von Katastrophale Stornierung vom Subtrahieren von Annäherung an die nahe gelegenen Zahlen und Trotz der genau berechneten Subtraktion) hat einen großen Einfluss auf die Ergebnisse, obwohl beide Funktionen äquivalent sind, wie unten gezeigt
- Der gewünschte Wert, der unter Verwendung von unendlicher Präzision berechnet wird, beträgt 11.174755 ...
- Das Beispiel ist eine Modifikation von einem von Mathew entnommen; Numerische Methoden unter Verwendung von Matlab, 3. Aufl.
Studienbereiche
Das Gebiet der numerischen Analyse umfasst viele Unterdisziplinen. Einige der wichtigsten sind:
Computerwerte von Funktionen
Interpolation: Die Beobachtung, dass die Temperatur zwischen 20 und 14 bis 14 Grad um 3:00 Uhr zwischen 20 Grad variiert, würde eine lineare Interpolation dieser Daten zu dem Schluss kommen, dass es 17 Grad um 2:00 und 18,5 Grad um 13:30 Uhr betrug. Extrapolation: wenn die Bruttoinlandsprodukt eines Landes hat durchschnittlich 5% pro Jahr gewachsen und lag im vergangenen Jahr 100 Milliarden. Es könnte extrapoliert werden, dass es in diesem Jahr 105 Milliarden betragen wird. ![]() Regression: In der linearen Regression, gegeben n Punkte, eine Linie wird berechnet, die so nah wie möglich an diese übergeht n Punkte. Optimierung: Angenommen, Limonade wird bei a verkauft LimonadenstandBei 1,00 USD pro Glas kann diese 197 Gläser Limonade pro Tag verkauft werden, und für jeden Anstieg von 0,01 USD wird pro Tag ein Glas Limonade verkauft. Wenn 1,485 US-Dollar berechnet werden könnten, würde der Gewinn maximiert, aber aufgrund der Einschränkung, einen Gesamtbetrag zu berechnen, erhalten beide 1,48 USD oder 1,49 USD pro Glas das Höchstgewinn von 220,52 USD pro Tag. ![]() Differentialgleichung: Wenn 100 Ventilatoren so eingerichtet sind, dass Luft von einem Ende des Raums zum anderen ist und dann eine Feder in den Wind fallen gelassen wird, was passiert dann? Die Feder folgt den Luftströmungen, die sehr komplex sein können. Eine Annäherung besteht darin, die Geschwindigkeit zu messen, mit der die Luft jede Sekunde in der Nähe der Feder bläst, und die simulierte Feder voranzutreiben, als würde sie sich eine Sekunde lang in einer geraden Linie bewegen, bevor sie die Windgeschwindigkeit erneut misst. Dies nennt man die Euler -Methode zur Lösung einer gewöhnlichen Differentialgleichung. |
Eines der einfachsten Probleme ist die Bewertung einer Funktion an einem bestimmten Punkt. Der unkomplizierteste Ansatz, nur die Zahl in der Formel anzuschließen, ist manchmal nicht sehr effizient. Für Polynome ist ein besserer Ansatz die Verwendung des Horner -Schemada es die erforderliche Anzahl von Multiplikationen und Ergänzungen verringert. Im Allgemeinen ist es wichtig, abzuschätzen und zu kontrollieren Rückfehler aus der Verwendung von schwimmende Punktarithmetik.
Interpolation, Extrapolation und Regression
Interpolation Löst das folgende Problem: Welchen Wert hat diese Funktion angesichts des Wertes einer unbekannten Funktion an einer Reihe von Punkten zu einem anderen Punkt zwischen den angegebenen Punkten?
Extrapolation ist der Interpolation sehr ähnlich, außer dass jetzt der Wert der unbekannten Funktion an einem Punkt außerhalb der angegebenen Punkte gefunden werden muss.[11]
Regression ist auch ähnlich, aber es berücksichtigt, dass die Daten ungenau sind. Bei einigen Punkten und einer Messung des Wertes einer bestimmten Funktion an diesen Punkten (mit einem Fehler) kann die unbekannte Funktion gefunden werden. Das kleinsten Quadrate-Method ist eine Möglichkeit, dies zu erreichen.
Lösen von Gleichungen und Gleichungssystemen
Ein weiteres grundlegendes Problem ist die Berechnung der Lösung einer bestimmten Gleichung. Zwei Fälle werden häufig unterschieden, je nachdem, ob die Gleichung linear ist oder nicht. Zum Beispiel die Gleichung ist linear während ist nicht.
Es wurde viel Anstrengungen in die Entwicklung von Methoden zur Lösung unternommen Systeme der linearen Gleichungen. Standard direkte Methoden, d. H. Methoden, die einige verwenden Matrixabzug sind Gaußsche Eliminierung, LU -Zersetzung, Cholesky -Zersetzung zum symmetrisch (oder Hermitianer) und positive definitive Matrix, und QR -Zersetzung für Nichtquadratmatrizen. Iterative Methoden wie die Jacobi -Methode, Gauss -Seidel -Methode, aufeinanderfolgende Überrelaxation und Konjugat -Gradientenmethode[12] werden normalerweise für große Systeme bevorzugt. Allgemeine iterative Methoden können mit a entwickelt werden Matrixaufteilung.
Wurzelfindungsalgorithmen werden verwendet, um nichtlineare Gleichungen zu lösen (sie werden so benannt, da ein Wurzel einer Funktion ein Argument ist, für das die Funktion Null liefert). Wenn die Funktion ist differenzierbar Und das Derivat ist bekannt, dann ist Newtons Methode eine beliebte Wahl.[13][14] Linearisierung ist eine weitere Technik zur Lösung nichtlinearer Gleichungen.
Lösen von Eigenwert oder singulären Wertproblemen
Mehrere wichtige Probleme können in Bezug auf die Form von Form Eigenwert -Zersetzungen oder Singularwert -Zerlegungen. Zum Beispiel die Spektralbildkomprimierung Algorithmus[15] basiert auf der einzelnen Wertzersetzung. Das entsprechende Instrument in Statistik wird aufgerufen Hauptkomponentenanalyse.
Optimierung
Optimierungsprobleme verlangen nach dem Punkt, an dem eine bestimmte Funktion maximiert (oder minimiert) wird. Oft muss der Punkt auch einige befriedigen Einschränkungen.
Das Optimierungsfeld wird in mehreren Teilfeldern weiter aufgeteilt, abhängig von der Form der Zielfunktion und die Einschränkung. Zum Beispiel, Lineares Programmieren befasst sich mit dem Fall, dass sowohl die objektive Funktion als auch die Einschränkungen linear sind. Eine berühmte Methode in der linearen Programmierung ist die Simplex -Methode.
Die Methode von Lagrange -Multiplikatoren Kann verwendet werden, um Optimierungsprobleme mit Einschränkungen auf nicht eingeschränkte Optimierungsprobleme zu reduzieren.
Bewertung von Integralen
Numerische Integration in einigen Fällen, die auch als numerisch bezeichnet werden Quadratur, fragt nach dem Wert eines bestimmten Integral-.[16] Beliebte Methoden verwenden eine der Newton -Cotes -Formeln (wie die Mittelpunktregel oder Simpsons Regel) oder Gaußsche Quadratur.[17] Diese Methoden stützen sich auf eine "Kluft- und Eroberung" -Strategie, wobei ein Integral in einem relativ großen Satz in kleineren Sets in Integrale unterteilt wird. In höheren Dimensionen, in denen diese Methoden im Hinblick auf den Rechenaufwand unerschwinglich teuer werden, kann man verwenden Monte Carlo oder Quasi-Monte-Carlo-Methoden (sehen Monte Carlo Integration[18]) oder in bescheidenen großen Dimensionen die Methode von spärliche Gitter.
Differentialgleichung
Die numerische Analyse befasst sich ebenfalls mit der Computing (auf ungefähre Weise) der Lösung von Differentialgleichungen, sowohl gewöhnlichen Differentialgleichungen als auch partielle Differentialgleichungen.[19]
Partielle Differentialgleichungen werden durch die erste Diskretisierung der Gleichung gelöst, wodurch sie in einen endlichdimensionalen Unterraum gebracht wird.[20] Dies kann durch a erfolgen Finite -Elemente -Methode,[21][22][23] a endlicher Unterschied Methode,[24] oder (insbesondere im Ingenieurwesen) a Finite Volumenmethode.[25] Die theoretische Rechtfertigung dieser Methoden beinhaltet oft Theoreme von Funktionsanalyse. Dies reduziert das Problem auf die Lösung einer algebraischen Gleichung.
Software
Seit dem späten 20. Jahrhundert werden die meisten Algorithmen in einer Vielzahl von Programmiersprachen implementiert. Das Netlib Repository enthält verschiedene Sammlungen von Softwareroutinen für numerische Probleme, hauptsächlich in Forran und C. Kommerzielle Produkte, die viele verschiedene numerische Algorithmen implementieren IMSL und GAUL Bibliotheken; a gratis Software Alternative ist die GNU wissenschaftliche Bibliothek.
Im Laufe der Jahre die Royal Statistical Society veröffentlichte zahlreiche Algorithmen in seiner Angewendete Statistiken (Code für diese "als" Funktionen ist hier);ACM Ebenso in seinem Transaktionen zur mathematischen Software ("Toms" Code ist hier). Das Marine -Oberflächenkriegs -Zentrum Mehrmals veröffentlichte seine Bibliothek der Mathematik -Unterprogramme (Code hier).
Es gibt mehrere beliebte numerische Computeranwendungen wie z. Matlab,[26][27][28] TK -Löser, S-plus, und Idl[29] sowie kostenlose und Open -Source -Alternativen wie z. Freemat, Scilab,[30][31] Gnu octave (ähnlich wie Matlab) und Es ++ (eine C ++ - Bibliothek). Es gibt auch Programmiersprachen wie R[32] (ähnlich wie s-plus), Julia,[33] und Python mit Bibliotheken wie z. Numpy, Scipy[34][35][36] und Sympy. Die Leistung variiert stark: Während Vektor- und Matrixoperationen normalerweise schnell sind, können Skalarschleifen um mehr als eine Größenordnung variieren.[37][38]
Viele Computeralgebra -Systeme wie zum Beispiel Mathematica profitieren auch von der Verfügbarkeit von willkürliche Präzisionsarithmetik Dies kann genauere Ergebnisse liefern.[39][40][41][42]
Auch jeder Kalkulationstabelle Software Kann verwendet werden, um einfache Probleme im Zusammenhang mit der numerischen Analyse zu lösen.Excelhat zum Beispiel Hunderte von verfügbare Funktionen, einschließlich für Matrizen, die in Verbindung mit seiner verwendet werden können eingebaut in "Solver" eingebaut.
Siehe auch
- Analyse von Algorithmen
- Computerwissenschaft
- Computerphysik
- Intervallarithmetik
- Liste der numerischen Analysethemen
- Lokale Linearisierungsmethode
- Numerische Differenzierung
- Numerische Rezepte
- Probabilistische Zahlen
- Symbolische Numerikberechnung
- Validierte Numeriker
Anmerkungen
- ^ Das ist ein Iteration fester Punkt für die Gleichung , deren Lösungen enthalten . Die Iteraten bewegen sich seitdem immer nach rechts . Somit konvergiert und abweicht.
Verweise
Zitate
- ^ "Foto, Illustration und Beschreibung der Wurzel (2) Tafel aus der Yale babylonischen Sammlung ". Archiviert von das Original am 13. August 2012. Abgerufen 2. Oktober 2006.
- ^ Demmel, J. W. (1997). Angewandte numerische lineare Algebra. SIAM.
- ^ P. G. Ciarlet, B. Miara & J. M. Thomas (1989). Einführung in numerische lineare Algebra und Optimierung. Cambridge University Press.
- ^ Trefethen, Lloyd; Bau III, David (1997). Numerische lineare Algebra (1. Aufl.). Philadelphia: SIAM.
- ^ a b c Brezinski, C. & Wuytack, L. (2012). Numerische Analyse: Historische Entwicklungen im 20. Jahrhundert. Elsevier.
- ^ Saad, Y. (2003). Iterative Methoden für spärliche lineare Systeme. SIAM.
- ^ Hageman, L. A. & Young, D. M. (2012). Angewandte iterative Methoden. Courier Corporation.
- ^ Traub, J. F. (1982). Iterative Methoden für die Lösung von Gleichungen. American Mathematical Society.
- ^ Greenbaum, A. (1997). Iterative Methoden zur Lösung linearer Systeme. SIAM.
- ^ a b c Higham, N. J. (2002). Genauigkeit und Stabilität numerischer Algorithmen (Band 80). SIAM.
- ^ Brezinski, C. & Zaglia, M. R. (2013). Extrapolationsmethoden: Theorie und Praxis. Elsevier.
- ^ Hestenes, Magnus R.; Stiefel, Eduard (Dezember 1952). "Methoden konjugierter Gradienten zur Lösung linearer Systeme". Journal of Research des National Bureau of Standards. 49 (6): 409.
- ^ Ezquerro Fernández, J. A. & Hernández Verón, M. Á. (2017). Newtons Methode: Ein aktualisierter Ansatz von Kantorovichs Theorie. Birkhäuser.
- ^ Peter Deufflhard, Newton Methoden für nichtlineare Probleme. Affine Invarianz und adaptive Algorithmen, zweite gedruckte Ausgabe. Serie Computational Mathematics 35, Springer (2006)
- ^ Die einzelnen Wertzersetzung und ihre Anwendungen bei der Bildkomprimierung Archiviert 4. Oktober 2006 bei der Wayback -Maschine
- ^ Davis, P. J. & Rabinowitz, P. (2007). Methoden der numerischen Integration. Courier Corporation.
- ^ Weisstein, Eric W. "Gaußsche Quadratur." Von MathWorld-eine Wolfram-Webressource. Mathord
.Wolfram .com /Gaußsianquadratur .html - ^ Geweke, J. (1995). Monte -Carlo -Simulation und numerische Integration. Federal Reserve Bank of Minneapolis, Forschungsabteilung.
- ^ Iserles, A. (2009). Ein erster Kurs in der numerischen Analyse von Differentialgleichungen. Cambridge University Press.
- ^ Ames, W. F. (2014). Numerische Methoden für partielle Differentialgleichungen. Akademische Presse.
- ^ Johnson, C. (2012). Numerische Lösung partieller Differentialgleichungen nach der Finite -Elemente -Methode. Courier Corporation.
- ^ Brenner, S. & Scott, R. (2007). Die mathematische Theorie endlicher Elementmethoden. Springer Science & Business Media.
- ^ Strang, G. & Fix, G. J. (1973). Eine Analyse der Finite -Elemente -Methode. Englewood Cliffs, NJ: Prentice-Hall.
- ^ Strikwerda, J. C. (2004). Endliche Differenzschemata und partielle Differentialgleichungen. SIAM.
- ^ Leveque, Randall (2002), Finite -Volumen -Methoden für hyperbolische Probleme, Cambridge University Press.
- ^ A. Quarteroni, F. Saleri & P. Gervasio (2006). Wissenschaftliches Computer mit Matlab und Oktave. Berlin: Springer.
- ^ Gander, W. & Hrebicek, J. (Hrsg.). (2011). Lösen von Problemen im wissenschaftlichen Computer mithilfe von Maple und MATLAB®. Springer Science & Business Media.
- ^ Barnes, B. & Fulford, G. R. (2011). Mathematische Modellierung mit Fallstudien: Ein Differentialgleichungsansatz unter Verwendung von Maple und MATLAB. Chapman und Hall/CRC.
- ^ Gumley, L. E. (2001). Praktische IDL -Programmierung. Elsevier.
- ^ Bunks, C., Chancelier, J. P., Delebecque, F., Goursat, M., Nikoukhah, R. & Steer, S. (2012). Engineering and Scientific Computing mit Scilab. Springer Science & Business Media.
- ^ Thanki, R. M. & Kothari, A. M. (2019). Digitale Bildverarbeitung mit scilab. Springer International Publishing.
- ^ Ihaka, R. & Gentleman, R. (1996). R: Eine Sprache für Datenanalyse und Grafiken. Journal of Computational and Graphical Statistics, 5 (3), 299-314.
- ^ Bezanson, Jeff; Edelman, Alan; Karpinski, Stefan; Shah, Viral B. (1. Januar 2017). "Julia: Ein neuer Ansatz zum numerischen Computing". Siam Review. 59 (1): 65–98. doi:10.1137/141000671. HDL:1721.1/110125. ISSN 0036-1445. S2CID 13026838.
- ^ Jones, E., Oliphant, T. & Peterson, P. (2001). Scipy: Open Source Scientific Tools für Python.
- ^ Bressert, E. (2012). Scipy und Numpy: Ein Überblick für Entwickler. "O'Reilly Media, Inc.".
- ^ Blanco-Silva, F. J. (2013). Lernskipy für numerisches und wissenschaftliches Computing. Packt Publishing Ltd.
- ^ Geschwindigkeitsvergleich verschiedener Zahlen -Crunching -Pakete Archiviert 5. Oktober 2006 bei der Wayback -Maschine
- ^ Vergleich der mathematischen Programme für die Datenanalyse Archiviert 18. Mai 2016 im portugiesischen Webarchiv Stefan Steinhaus, ScientificWeb.com
- ^ Maeder, R. E. (1991). Programmierung in Mathematica. Addison-Wesley Longman Publishing Co., Inc.
- ^ Stephen Wolfram. (1999). Das Mathematica® -Buch, Version 4. Cambridge University Press.
- ^ Shaw, W. T. & Tigg, J. (1993). Angewandte Mathematica: Erste Schritte, erledigen Sie es. Addison-Wesley Longman Publishing Co., Inc.
- ^ Marasco, A. & Romano, A. (2001). Wissenschaftliches Computer mit Mathematica: Mathematische Probleme für gewöhnliche Differentialgleichungen; mit einer CD-ROM. Springer Science & Business Media.
Quellen
- Golub, Gene H.; Charles F. Van Loan (1986). Matrixberechnungen (3. Aufl.). Johns Hopkins University Press. ISBN 0-8018-5413-x.
- Higham, Nicholas J. (1996). Genauigkeit und Stabilität numerischer Algorithmen. Gesellschaft für industrielle und angewandte Mathematik. ISBN 0-89871-355-2.
- Hildebrand, F. B. (1974). Einführung in die numerische Analyse (2. Aufl.). McGraw-Hill. ISBN 0-07-028761-9.
- Führer, Jeffery J. (2004). Numerische Analyse und wissenschaftliche Berechnung. Addison Wesley. ISBN 0-201-73499-0.
- Wilkinson, J.H. (1965). Das algebraische Eigenwertproblem. Clarendon Press.
- Kahan, W. (1972). Eine Übersicht über die Fehleranalyse. Proc. IFIP -Kongress 71 in Ljubljana. Die Info. Verarbeitung 71. Vol. 2. Amsterdam: North-Holland Publishing. S. 1214–39. (Beispiele für die Bedeutung einer genauen Arithmetik).
- Trefethen, Lloyd N. (2006). "Numerische Analyse", 20 Seiten. In: Timothy Gowers und June Barrow-Green (Herausgeber), Princeton Begleiter der Mathematik, Princeton University Press.
Externe Links
Zeitschriften
- gdz.sub.uni-Goettingen, Numerische Mathematik, Bände 1-66, Springer, 1959-1994 (durchsuchbare Seiten sind Bilder). (in Englisch und Deutsch)
- Numerische Mathematik, Bände 1–112, Springer, 1959–2009
- Journal über numerische Analyse, Bände 1-47, Siam, 1964–2009
Online -Texte
- "Numerische Analyse", Enzyklopädie der Mathematik, EMS Press, 2001 [1994]
- Numerische Rezepte, William H. Press (kostenlose, herunterladbare frühere Ausgaben)
- Erste Schritte in der numerischen Analyse (archiviert), R.J.Hosking, S.Joe, D.C.Joyce und J.C. Turnerer
- CSEP (Computational Science Education Project), US -Energieministerium (Archiviert 2017-08-01)
- Numerische Methoden, ch 3. in der Digitale Bibliothek mathematischer Funktionen
- Numerische Interpolation, Differenzierung und Integration, ch 25. in der Handbuch der mathematischen Funktionen (Abramowitz und Stegun)
Online -Kursmaterial
- Numerische Methoden (Archiviert 28. Juli 2009 bei der Wayback -Maschine), Stuart Dalziel Universität von Cambridge
- Vorträge zur numerischen Analyse, Dennis Disturck und Herbert S. Wilf Universität von Pennsylvania
- Numerische MethodenJohn D. Fenton Universität von Karlsruhe
- Numerische Methoden für Physiker, Anthony O’Hare Universität Oxford
- Vorträge in der numerischen Analyse (archiviert), R. Radok Mahidol University
- Einführung in die numerische Analyse für das Engineering, Henrik Schmidt Massachusetts Institute of Technology
- Numerische Analyse für Engineering, D. W. Härter Universität von Waterloo
- Einführung in die numerische Analyse, Doron Levy Universität von Maryland
- Numerische Analyse - Numerische Methoden (archiviert), John H. Mathews Fullerton der California State University