Computer simulation

Eine 48-stündige Computersimulation von Taifun Mawar Verwendung der Wetterforschungs- und Prognosemodell
Prozess des Erstellens eines Computermodells und des Zusammenspiels zwischen Experiment, Simulation und Theorie.

Computersimulation ist der Prozess von Mathematische Modellierung, aufgeführt auf a Computer, das so konzipiert ist, dass das Verhalten oder das Ergebnis eines realen oder physikalischen Systems vorhersagt. Die Zuverlässigkeit einiger mathematischer Modelle kann durch Vergleich ihrer Ergebnisse mit den realen Ergebnissen, die sie vorhersagen möchten, ermittelt werden. Computersimulationen sind zu einem nützlichen Instrument für die mathematische Modellierung vieler natürlicher Systeme in geworden Physik (Computerphysik), Astrophysik, Klimatologie, Chemie, Biologie und Herstellungsowie menschliche Systeme in Wirtschaft, Psychologie, Sozialwissenschaften, Gesundheitsvorsorge und Ingenieurwesen. Die Simulation eines Systems wird als Ausführen des Systemmodells dargestellt. Es kann verwendet werden, um neue Einblicke in neue Erkenntnisse zu erkunden und zu gewinnen Technologie und um die Leistung von Systemen zu komplex für die zu komplexen Systeme zu schätzen Analytische Lösungen.[1]

Computersimulationen werden durch Laufen realisiert Computerprogramme Dies kann entweder klein sein und fast augenblicklich auf kleinen Geräten oder groß angelegten Programmen ausgeführt werden, die stundenlang oder tagelang in netzwerkbasierten Computern ausgeführt werden. Die Skala der Ereignisse, die von Computersimulationen simuliert werden, hat mithilfe herkömmlicher mathematischer Modellierung von Papier und Bleistift bei weitem übertroffen (oder vielleicht sogar vorstellbar). Im Jahr 1997 beinhaltete eine Wüstenklappe-Simulation einer Kraft, die eine andere in die Modellierung von 66.239 Tanks, Lastwagen und anderen Fahrzeugen auf simuliertem Gelände eindrangte Kuwaitmit mehreren Supercomputern in der Dod Hochleistungs -Computer -Modernisierungsprogramm.[2] Weitere Beispiele sind ein 1-Milliarden-Atom-Modell der Materialdeformation;[3] Ein 2,64-Millionen-Atom-Modell der komplexen Protein-produzierenden Organelle aller lebenden Organismen, die Ribosom, im Jahr 2005;[4] eine vollständige Simulation des Lebenszyklus von Mycoplasma Genitalium in 2012; und die Blaues Gehirn Projekt bei EPFL (Schweiz), begonnen im Mai 2005, um die erste Computersimulation des gesamten menschlichen Gehirns bis hin zu molekularer Ebene zu erstellen.[5]

Wegen der Rechenkosten der Simulation, Computerexperimente werden verwendet, um Inferenz wie z. Unsicherheitsquantifizierung.[6]

Simulation versus Modell

Ein Computermodell sind die Algorithmen und Gleichungen, mit denen das Verhalten des zu modellierten Systems erfasst wird. Im Gegensatz dazu ist die Computersimulation das tatsächliche Ausführen des Programms, das diese Gleichungen oder Algorithmen enthält. Simulation ist daher der Prozess des Ausführens eines Modells. So würde man keine "Simulation aufbauen"; Stattdessen würde man "ein Modell (oder einen Simulator) erstellen" und dann entweder "das Modell ausführen" oder äquivalent "eine Simulation ausführen".

Geschichte

Die Computersimulation entwickelte sich Hand in Hand mit dem schnellen Wachstum des Computers, nachdem er während des ersten großen Einsatzes während des Manhattan -Projekt in Zweiter Weltkrieg modellieren den Prozess von nukleare Detonation. Es war eine Simulation von 12 harte Kugeln Verwendung einer Monte Carlo Algorithmus. Computersimulation wird häufig als Ergänzung zum Modellierungssysteme verwendet oder ersetzt, für die einfach Analytische Lösungen für geschlossene Form sind nicht möglich. Es gibt viele Arten von Computersimulationen; Ihr gemeinsames Merkmal ist der Versuch, eine Stichprobe repräsentativer Szenarien für ein Modell zu generieren, in dem eine vollständige Aufzählung aller möglichen Zustände des Modells unerschwinglich oder unmöglich wäre.[7]

Datenaufbereitung

Die externen Datenanforderungen von Simulationen und Modellen variieren stark. Für einige ist der Eingang möglicherweise nur wenige Zahlen (z. B. Simulation einer Wellenform von Wechselstromstrom auf einem Draht), während andere möglicherweise Informationen von Informationen benötigen (wie Wetter- und Klimamodelle).

Eingangsquellen variieren auch stark:

  • Sensoren und andere physische Geräte, die mit dem Modell verbunden sind;
  • Kontrollflächen, die verwendet werden, um den Fortschritt der Simulation auf irgendeine Weise zu lenken;
  • Aktuelle oder historische Daten, die von Hand eingegeben wurden;
  • Werte, die als Nebenprodukt aus anderen Prozessen extrahiert wurden;
  • Werte, die für den Zweck nach anderen Simulationen, Modellen oder Prozessen ausgegeben werden.

Schließlich variiert die Zeit, zu der Daten verfügbar sind,:

  • "Invariante" Daten werden häufig in den Modellcode integriert, entweder weil der Wert wirklich invariant ist (z. B. den Wert von π) oder weil die Designer den Wert für alle Fälle von Interesse als unveränderlich betrachten.
  • Daten können in die Simulation eingegeben werden, wenn sie gestartet werden, beispielsweise durch Lesen einer oder mehrere Dateien oder durch Lesen von Daten von a Präprozessor;
  • Daten können während des Simulationslaufs bereitgestellt werden, beispielsweise von einem Sensornetzwerk.

Aufgrund dieser Vielfalt und weil verschiedene Simulationssysteme viele gemeinsame Elemente haben, gibt es eine große Anzahl von Spezialisation Simulationssprachen. Das Bekannte kann sein Simula. Es gibt jetzt viele andere.

Systeme, die Daten aus externen Quellen akzeptieren, müssen sehr vorsichtig sein, um zu wissen, was sie erhalten. Während es für Computer einfach ist, Werte aus Text- oder Binärdateien zu lesen, ist es viel schwieriger, zu wissen, was die Richtigkeit (verglichen mit Messauflösung und Präzision) der Werte sind. Oft werden sie als "Fehlerbalken" ausgedrückt, eine minimale und maximale Abweichung vom Wertebereich, in dem der wahre Wert (erwartet wird). Da die Mathematik der digitalen Computer nicht perfekt ist, multiplizieren Sie diesen Fehler mit Rund- und Verkürzungsfehlern. Daher ist es nützlich, eine "Fehleranalyse" durchzuführen[8] Um zu bestätigen, dass die nach der Simulation ausgegebenen Werte immer noch sinnvoll genau sind.

Typen

Computermodelle können nach mehreren unabhängigen Attributenpaaren klassifiziert werden, darunter:

  • Stochastisch oder deterministisch (und als Sonderfall von deterministisch, chaotisch) - siehe Beispiele für Beispiele für stochastische vs. deterministische Simulationen
  • Stationär oder dynamisch
  • Kontinuierlich oder diskret (und als wichtiger Sonderfall von diskreter, Diskretes Ereignis oder de Modelle)
  • Dynamische Systemsimulation, z.B. Elektrische Systeme, hydraulische Systeme oder mechanische Systeme mit mehreren Geistes (hauptsächlich durch DAE: S) oder Dynamiksimulation von Feldproblemen, z. CFD von FEM -Simulationen (beschrieben von PDE: S).
  • Lokal oder verteilt.

Eine andere Möglichkeit, Modelle zu kategorisieren, besteht darin, die zugrunde liegenden Datenstrukturen zu untersuchen. Für zeitübergreifende Simulationen gibt es zwei Hauptklassen:

  • Simulationen, die ihre Daten in regelmäßigen Gittern speichern und nur den Zugang zum nächsten Nachbarn erfordern, werden aufgerufen Schablonencodes. Viele CFD Anwendungen gehören zu dieser Kategorie.
  • Wenn das zugrunde liegende Diagramm kein reguläres Netz ist, kann das Modell zu dem gehören Meshfree -Methode Klasse.

Gleichungen definieren die Beziehungen zwischen Elementen des modellierten Systems und versuchen, einen Zustand zu finden, in dem sich das System im Gleichgewicht befindet. Solche Modelle werden häufig bei der Simulation physikalischer Systeme als einfacheres Modellierungsfall verwendet, bevor dynamische Simulation versucht wird.

  • Dynamische Simulationsmodelländerungen in einem System als Reaktion auf (normalerweise ändernde) Eingangssignale.
  • Stochastisch Modelle verwenden Zufallszahlengeneratoren Chance oder zufällige Ereignisse zu modellieren;
  • A Diskrete Ereignissimulation (Des) verwaltet Ereignisse rechtzeitig. Die meisten Computer-, Logiktest- und Fehlerbaumsimulationen sind von diesem Typ. In dieser Art von Simulation behält der Simulator eine Warteschlange von Ereignissen bei, die nach der simulierten Zeit sortiert werden sollten, die er auftreten sollte. Der Simulator liest die Warteschlange und löst neue Ereignisse aus, während jedes Ereignis verarbeitet wird. Es ist nicht wichtig, die Simulation in Echtzeit auszuführen. Es ist oft wichtiger, auf die von der Simulation erzeugten Daten zugreifen zu können und logische Defekte im Design oder die Abfolge der Ereignisse zu entdecken.
  • A kontinuierliche dynamische Simulation führt numerische Lösung von durch Differential-Algebraic-Gleichungen oder Differentialgleichung (entweder teilweise oder gewöhnliche). In regelmäßigen Abständen löst das Simulationsprogramm alle Gleichungen und verwendet die Zahlen, um den Zustand und die Ausgabe der Simulation zu ändern. Anwendungen umfassen Flugsimulatoren, Konstruktions- und Management -Simulationsspiele, Chemische Prozessmodellierungund Simulationen von Stromkreise. Ursprünglich wurden diese Art von Simulationen tatsächlich implementiert Analogische Computer, wo die Differentialgleichungen direkt durch verschiedene elektrische Komponenten wie z. Op-Ampere. In den späten 1980er Jahren wurden jedoch die meisten "analogen" Simulationen von konventionell durchgeführt Digitale Computer das emulieren, nacheifern Das Verhalten eines analogen Computers.
  • Eine spezielle Art diskreter Simulation, die nicht auf ein Modell mit einer zugrunde liegenden Gleichung beruht, aber dennoch formal dargestellt werden kann, ist Agentenbasierte Simulation. In der agentenbasierten Simulation werden die einzelnen Wesenheiten (wie Moleküle, Zellen, Bäume oder Verbraucher) im Modell direkt (und nicht durch ihre Dichte oder Konzentration) dargestellt und besitzen einen internen Zustand und eine Reihe von Verhaltensweisen oder Regeln, die bestimmen, wie die Der Status des Agenten wird von einem Zeitschritt zum nächsten aktualisiert.
  • Verteilt Modelle werden in einem Netzwerk von miteinander verbundenen Computern ausgeführt, möglicherweise über die Internet. Simulationen, die über mehrere solche Host -Computer verteilt sind, werden häufig als "verteilte Simulationen" bezeichnet. Es gibt mehrere Standards für verteilte Simulation, einschließlich Simulationsprotokoll der Aggregatspiegel (ALSP), Verteilte interaktive Simulation (Dis) die High -Level -Architektur (Simulation) (HLA) und die Test und Training ermöglichen Architektur (TENA).

Visualisierung

Früher wurden die Ausgabedaten aus einer Computersimulation manchmal in einer Tabelle oder einer Matrix dargestellt, die zeigte, wie Daten durch zahlreiche Änderungen in der Simulation beeinflusst wurden Parameter. Die Verwendung des Matrixformats bezogen sich auf die traditionelle Verwendung des Matrixkonzepts in Mathematische Modelle. Psychologen und andere stellten jedoch fest, dass Menschen Trends schnell wahrnehmen könnten, indem sie Diagramme oder sogar bewegliche Images oder Bewegungszilder betrachten, die aus den Daten generiert wurden, wie angezeigt von Computer generiertes Bild (CGI) Animation. Obwohl Beobachter nicht unbedingt Zahlen lesen oder mathematische Formeln zitieren konnten, können sie von der Beobachtung eines sich bewegenden Wetterdiagramms möglicherweise Ereignisse vorhersagen (und "sehen, dass Regen ihren Weg ging") viel schneller als durch Scannen von Tischen mit Regenwolken Koordinaten. Solche intensiven grafischen Anzeigen, die die Welt der Zahlen und Formeln überschritten haben, führten manchmal auch zu Ausgabe, der ein Koordinatenraster oder die Zeitstempel weggelassen hatte, als ob sie zu weit von numerischen Daten entfernt waren. Heute, Wettervorhersage Modelle neigen dazu, die Sichtweise von Regen-/Schneewolken gegen eine Karte auszugleichen, die numerische Koordinaten und numerische Zeitstempel von Ereignissen verwendet.

Ebenso CGI -Computersimulationen von Katzenscans kann simulieren, wie a Tumor Kann während einer längeren medizinischen Behandlung schrumpfen oder sich ändern, wobei der Zeitverlauf als drehende Sicht auf den sichtbaren menschlichen Kopf dargestellt wird, wenn sich der Tumor ändert.

Andere Anwendungen von CGI -Computersimulationen werden entwickelt, um große Datenmengen in Bewegung grafisch anzuzeigen, da Änderungen während eines Simulationslaufs auftreten.

Computersimulation in der Wissenschaft

Computersimulation des Prozesses von Osmose

Generische Beispiele für Arten von Computersimulationen in der Wissenschaft, die aus einer zugrunde liegenden mathematischen Beschreibung stammen:

Spezifische Beispiele für Computersimulationen folgen:

  • Statistische Simulationen, die auf einer Agglomeration einer großen Anzahl von Eingabeprofilen basieren, wie z. B. der Vorhersage des Gleichgewichts Temperatur von Gewässern erhalten, die die Bandbreite von erlauben meteorologisch Daten, die für ein bestimmtes Gebietsschema eingegeben werden sollen. Diese Technik wurde für entwickelt für Wärmebelastung Vorhersage.
  • Agentenbasierte Simulation wurde effektiv in verwendet Ökologie, wo es oft als "individuelle Modellierung" bezeichnet wird und in Situationen verwendet wird, für die die individuelle Variabilität in den Agenten nicht vernachlässigt werden kann, wie z. Populationsdynamik von Lachs und Forelle (Die meisten rein mathematischen Modelle gehen davon aus, dass sich alle Forellen identisch verhalten).
  • Dynamisches Modell mit der Zeit. In der Hydrologie gibt es mehrere solche Hydrology Transportmodelle so wie die SWMM und DSSAM -Modelle entwickelt von der US -Umweltschutzbehörde Für Prognose der Flusswasserqualität.
  • Computersimulationen wurden auch verwendet, um theorien der menschlichen Kognition und Leistung formell zu modellieren, z. B.. ACT-R.
  • Computersimulation mit molekulare Modellierung zum Drogenentdeckung.[10]
  • Computersimulation zur Modellierung einer Virusinfektion in Säugetierzellen.[9]
  • Computersimulation zur Untersuchung der selektiven Empfindlichkeit von Bindungen durch Mechanochemie beim Schleifen von organischen Molekülen.[11]
  • Computerflüssigkeitsdynamik Simulationen werden verwendet, um das Verhalten fließender Luft, Wasser und anderer Flüssigkeiten zu simulieren. Ein-, Zwei- und dreidimensionale Modelle werden verwendet. Ein eindimensionales Modell kann die Auswirkungen von simulieren Wasserhammer in einer Pfeife. Ein zweidimensionales Modell könnte verwendet werden, um die Widerstandskräfte beim Querschnitt eines Flugzeugflügels zu simulieren. Eine dreidimensionale Simulation kann die Heiz- und Kühlanforderungen eines großen Gebäudes abschätzen.
  • Ein Verständnis der statistischen thermodynamischen molekularen Theorie ist für die Wertschätzung molekularer Lösungen von grundlegender Bedeutung. Die Entwicklung des potenziellen Verteilungssatzes (PDT) ermöglicht es, dieses komplexe Thema zu vereinfachen, bodenständigen Präsentationen der molekularen Theorie zu vereinfachen.

Zu den in der Wissenschaft verwendeten Computersimulationen und manchmal kontroverse und manchmal kontroverse gehören: Donella Meadows' World3 verwendet in der Wachstumsgrenzen, James Lovelock Daisyworld und Thomas Ray's Tierra.

In den Sozialwissenschaften ist die Computersimulation eine integrale Komponente der fünf Analysewinkel, die durch die Datenperkolationsmethode gefördert werden.[12] Dies umfasst auch qualitative und quantitative Methoden, Überprüfungen der Literatur (einschließlich wissenschaftlich) und Interviews mit Experten und die eine Erweiterung der Datendriangulation bildet. Natürlich ähnlich wie bei jeder anderen wissenschaftlichen Methode, Reproduzieren ist ein wichtiger Teil der Computermodellierung [13]

Computersimulation in praktischen Kontexten

Computersimulationen werden in einer Vielzahl von praktischen Kontexten verwendet, wie z. B.:

Die Zuverlässigkeit und das Vertrauen, die Personen in Computersimulationen einsetzen Gültigkeit der Simulation Modell, deshalb Verifizierung und Validierung sind von entscheidender Bedeutung für die Entwicklung von Computersimulationen. Ein weiterer wichtiger Aspekt von Computersimulationen ist die Reproduzierbarkeit der Ergebnisse, was bedeutet, dass ein Simulationsmodell für jede Ausführung keine andere Antwort geben sollte. Obwohl dies offensichtlich erscheint, ist dies ein besonderer Aufmerksamkeitspunkt in Stochastische Simulationen, wo zufällige Zahlen tatsächlich Halbgitterzahlen sein sollten. Eine Ausnahme zur Reproduzierbarkeit sind Simulationen von Menschen in der Regel in den Schleifen wie Flugsimulationen und Computerspiele. Hier ist ein Mensch Teil der Simulation und beeinflusst so das Ergebnis auf eine Weise, die schwierig, wenn nicht unmöglich ist, sich genau zu reproduzieren.

Fahrzeug Hersteller verwenden Computersimulation, um Sicherheitsfunktionen in neuen Designs zu testen. Durch den Bau einer Kopie des Autos in einer Physik -Simulationsumgebung können sie Hunderttausende von Dollar sparen, die ansonsten einen einzigartigen Prototyp erstellen und testen müssen. Ingenieure können jeweils die Simulations -Millisekunden durchlaufen, um die genauen Spannungen auf jeden Abschnitt des Prototyps zu bestimmen.[15]

Computergrafik Kann verwendet werden, um die Ergebnisse einer Computersimulation anzuzeigen. Animationen kann verwendet werden, um eine Simulation in Echtzeit zu erleben, z. B. in Trainingssimulationen. In einigen Fällen können Animationen auch in Echtzeit oder sogar langsamer als Echtzeitmodi nützlich sein. Zum Beispiel kann schneller als Echtzeitanimationen nützlich sein, um den Aufbau von Warteschlangen bei der Simulation des Menschen zu visualisieren, das ein Gebäude evakuiert. Darüber hinaus werden die Simulationsergebnisse häufig in statische Bilder unter Verwendung verschiedener Arten von aggregiert Wissenschaftliche Visualisierung.

Beim Debuggen kann die Simulation einer zu testenden Programmausführung (anstatt nativ auszuführen) weit mehr Fehler festzustellen, als die Hardware selbst erkennen und gleichzeitig nützliche Debugging -Informationen wie Anweisungsverfolgung, Speicheränderungen und Anweisungszahlen protokollieren kann. Diese Technik kann auch erkennen Pufferüberlauf und ähnliche "schwer zu erkennene" Fehler sowie die Erzeugung von Leistungsinformationen und Stimmung Daten.

Tücken

Obwohl es in Computersimulationen manchmal ignoriert wird, ist es sehr wichtig, eine auszuführen Sensitivitätsanalyse Um sicherzustellen, dass die Genauigkeit der Ergebnisse ordnungsgemäß verstanden wird. Beispielsweise besteht die probabilistische Risikoanalyse von Faktoren, die den Erfolg eines Ölfeld -Explorationsprogramms bestimmen Monte Carlo -Methode. Wenn zum Beispiel einer der Schlüsselparameter (z. B. das Nettoverhältnis von Ölstrauchschichten) nur einer signifikanten Figur bekannt ist, ist das Ergebnis der Simulation möglicherweise nicht präziser als eine signifikante Figur, obwohl dies möglicherweise (könnte ( irreführend) als vier signifikante Zahlen dargestellt werden.

Modellkalibrierungstechniken

Die folgenden drei Schritte sollten verwendet werden, um genaue Simulationsmodelle zu erstellen: Kalibrierung, Überprüfung und Validierung. Computersimulationen sind gut darin, theoretische Szenarien darzustellen und zu vergleichen, aber um tatsächliche Fallstudien genau zu modellieren, müssen sie mit dem übereinstimmen, was heute tatsächlich geschieht. Ein Basismodell sollte erstellt und kalibriert werden, damit es dem untersuchten Bereich entspricht. Das kalibrierte Modell sollte dann verifiziert werden, um sicherzustellen, dass das Modell basierend auf den Eingaben erwartet arbeitet. Sobald das Modell überprüft wurde, besteht der letzte Schritt darin, das Modell zu validieren, indem die Ausgaben mit historischen Daten aus dem Untersuchungsgebiet verglichen werden. Dies kann durch die Verwendung statistischer Techniken und der Gewährleistung eines angemessenen R-Quadratswerts erfolgen. Sofern diese Techniken nicht angewendet werden, erzeugt das erstellte Simulationsmodell ungenaue Ergebnisse und ist kein nützliches Vorhersagewerkzeug.

Die Modellkalibrierung wird erreicht, indem alle verfügbaren Parameter angepasst werden, um die Funktionsweise des Modells anzupassen und den Prozess zu simuliert. In der Verkehrssimulation gehören beispielsweise typische Parameter die Aussichtspflicht, die Empfindlichkeit des Automobils, die Entladung von Fortschritten und die verlorene Zeit. Diese Parameter beeinflussen das Fahrerverhalten wie wann und wie lange ein Fahrer dauert, um die Fahrspuren zu wechseln, wie viel Entfernung ein Fahrer zwischen seinem Auto und dem Auto davor verlässt und wie schnell ein Fahrer durch eine Kreuzung beschleunigt. Die Anpassung dieser Parameter wirkt sich direkt auf die Menge des Verkehrsvolumens aus, die durch das modellierte Fahrbahnnetz durchqueren können, indem die Fahrer mehr oder weniger aggressiv werden. Dies sind Beispiele für Kalibrierungsparameter, die fein abgestimmt werden können, um die im Bereich des Untersuchungsortes beobachteten Eigenschaften zu entsprechen. Die meisten Verkehrsmodelle haben typische Standardwerte, müssen jedoch möglicherweise angepasst werden, um dem Treiberverhalten an der zu untersuchenden Stelle besser übereinstimmen.

Die Modellüberprüfung wird erreicht, indem Ausgangsdaten aus dem Modell erhalten und mit dem verglichen werden, was aus den Eingabedaten erwartet wird. In der Verkehrssimulation kann beispielsweise das Verkehrsvolumen überprüft werden, um sicherzustellen, dass der tatsächliche Volumendurchsatz im Modell einigermaßen nahe dem Verkehrsvolumes in das Modell liegt. Zehn Prozent sind ein typischer Schwellenwert, der in der Verkehrssimulation verwendet wird, um festzustellen, ob die Ausgangsvolumina angemessen an Eingangsvolumina liegen. Simulationsmodelle verarbeiten Modelleingaben auf unterschiedliche Weise, sodass der Datenverkehr, der beispielsweise in das Netzwerk eintritt, sein gewünschtes Ziel erreichen kann oder nicht. Zusätzlich kann der Verkehr, der in das Netzwerk eintreten möchte, möglicherweise nicht in der Lage, wenn eine Überlastung besteht. Aus diesem Grund ist die Modellüberprüfung ein sehr wichtiger Bestandteil des Modellierungsprozesses.

Der letzte Schritt besteht darin, das Modell zu validieren, indem die Ergebnisse mit dem verglichen werden, was auf historischen Daten aus dem Untersuchungsgebiet erwartet wird. Im Idealfall sollte das Modell ähnliche Ergebnisse erzielen wie in der Vergangenheit. Dies wird typischerweise durch nichts anderes überprüft, als die R-Quadrat-Statistik aus der Anpassung zu zitieren. Diese Statistik misst den Variabilitätsanteil, der vom Modell berücksichtigt wird. Ein hoher R-Quadratwert bedeutet nicht unbedingt, dass das Modell gut zu den Daten passt. Ein weiteres Tool zur Validierung von Modellen ist die grafische Restanalyse. Wenn die Modellausgabewerte drastisch von historischen Werten unterscheiden, bedeutet dies wahrscheinlich, dass das Modell einen Fehler gibt. Bevor das Modell als Basis verwendet wird, um zusätzliche Modelle zu erstellen, ist es wichtig, es für verschiedene Szenarien zu überprüfen, um sicherzustellen, dass jeder genaue ist. Wenn die Ausgänge während des Validierungsprozesses nicht angemessen historische Werte übereinstimmen, sollte das Modell überprüft und aktualisiert werden, um Ergebnisse zu erzielen, die den Erwartungen stärker entsprechen. Es ist ein iterativer Prozess, der dazu beiträgt, realistischere Modelle zu produzieren.

Durch die Validierung von Verkehrssimulationsmodellen muss der vom Modell geschätzte Verkehr mit dem beobachteten Verkehr auf der Fahrbahn- und Transitsysteme verglichen werden. Erste Vergleiche sind für Auslöser zwischen Quadranten, Sektoren oder anderen großen Bereichen interessiert. Der nächste Schritt besteht darin, den von den Modellen geschätzten Verkehr mit den Verkehrszählungen zu vergleichen, einschließlich Transitfahrerschaft und überquerenden Barrieren im Untersuchungsgebiet. Diese werden typischerweise Screenlines, Cutlines und Cordonlinien bezeichnet und können imaginäre oder tatsächliche physikalische Barrieren sein. Cordon -Linien umgeben bestimmte Gebiete wie das zentrale Geschäftsviertel einer Stadt oder andere wichtige Aktivitätszentren. Die Schätzungen der Transitreiterschaft werden üblicherweise validiert, indem sie mit den tatsächlichen Schirmherrschaftsübergang Cordon -Linien rund um das zentrale Geschäftsviertel verglichen werden.

Drei Fehlerquellen können während der Kalibrierung eine schwache Korrelation verursachen: Eingabefehler, Modellfehler und Parameterfehler. Im Allgemeinen können Eingabefehler und Parameterfehler vom Benutzer problemlos eingestellt werden. Der Modellfehler wird jedoch durch die im Modell verwendete Methodik verursacht und ist möglicherweise nicht so einfach zu reparieren. Simulationsmodelle werden typischerweise unter Verwendung verschiedener Modellierungstheorien erstellt, die widersprüchliche Ergebnisse erzielen können. Einige Modelle sind verallgemeinerter, während andere detaillierter sind. Wenn ein Modellfehler als Ergebnis auftritt, kann dies erforderlich sein, um die Modellmethode anzupassen, um die Ergebnisse konsistenter zu gestalten.

Um gute Modelle zu erzeugen, mit denen realistische Ergebnisse erzielt werden können, sind dies die erforderlichen Schritte, die unternommen werden müssen, um sicherzustellen, dass Simulationsmodelle ordnungsgemäß funktionieren. Simulationsmodelle können als Werkzeug verwendet werden, um die technischen Theorien zu überprüfen. Sie sind jedoch nur dann gültig, wenn sie ordnungsgemäß kalibriert werden. Sobald zufriedenstellende Schätzungen der Parameter für alle Modelle erhalten wurden, müssen die Modelle überprüft werden, um sicherzustellen, dass sie die beabsichtigten Funktionen angemessen ausführen. Der Validierungsprozess legt die Glaubwürdigkeit des Modells fest, indem er die Fähigkeit demonstriert, die Realität zu replizieren. Die Bedeutung der Modellvalidierung unterstreicht die Notwendigkeit einer sorgfältigen Planung, Gründlichkeit und Genauigkeit des Eingangsdatenerfassungsprogramms, das diesen Zweck hat. Es sollten Anstrengungen unternommen werden, um sicherzustellen, dass gesammelte Daten mit den erwarteten Werten übereinstimmen. In der Verkehrsanalyse ist es beispielsweise typisch, dass ein Verkehrsingenieur einen Standortbesuch durchführt, um die Verkehrszählungen zu überprüfen und mit Verkehrsmustern in der Region vertraut zu werden. Die resultierenden Modelle und Prognosen sind nicht besser als die Daten, die für die Modellschätzung und -validierung verwendet werden.

Siehe auch

Verweise

  1. ^ Strogatz, Steven (2007). "Das Ende der Einsicht". In Brockman, John (Hrsg.). Was ist deine gefährliche Idee?. Harpercollins. ISBN 9780061214950.
  2. ^ " "Forscher stimmen die größte militärische Simulation aller Zeiten" Archiviert 2008-01-22 bei der Wayback -Maschine, Jet Propulsion Laboratory, Caltech, Dezember 1997,
  3. ^ "Molekulare Simulation makroskopischer Phänomene". Archiviert vom Original am 2013-05-22.
  4. ^ "Die größte Simulation der Computerbiologie imitiert das wichtigste Nanomachine des Lebens" (News), Pressemitteilung, Nancy Ambrosiano, Los Alamos Nationales Labor, Los Alamos, NM, Oktober 2005, Webseite: Lanl-fuse-story7428 Archiviert 2007-07-04 bei der Wayback -Maschine.
  5. ^ "Mission zum Aufbau eines simulierten Gehirns beginnt" Archiviert 2015-02-09 bei der Wayback -Maschine, Projekt des Instituts bei der École Polytechnique Fédérale de Lausanne (EPFL), Schweiz, Neuer Wissenschaftler, Juni 2005.
  6. ^ Santner, Thomas J; Williams, Brian J; NOTZ, William I. (2003). Das Design und die Analyse von Computerexperimenten. Springer Verlag.
  7. ^ Bratley, Paul; Fox, Bennet L.; Schrage, Linus E. (2011-06-28). Ein Leitfaden zur Simulation. Springer Science & Business Media. ISBN 9781441987242.
  8. ^ John Robert Taylor (1999). Eine Einführung in die Fehleranalyse: Die Untersuchung von Unsicherheiten bei physikalischen Messungen. Universitätswissenschaftsbücher. S. 128–129. ISBN 978-0-935702-75-0. Archiviert vom Original am 2015-03-16.
  9. ^ a b Gupta, Ankur; Rawlings, James B. (April 2014). "Vergleich der Parameterschätzungsmethoden in stochastischen chemischen kinetischen Modellen: Beispiele in der Systembiologie". Aiche Journal. 60 (4): 1253–1268. doi:10.1002/AIC.14409. ISSN 0001-1541. PMC 4946376. PMID 27429455.
  10. ^ Atanasov, AG; Walttenberger, b; Pferschy-Wenzig, EM; Linder, t; Wawrosch, C; Uhrin, p; Temml, v; Wang, L; Schwaiger, s; Heis, wie; Rollinger, JM; Schuster, D; Breuss, JM; Bochkov, V; Mihovilovic, MD; Kopp, b; Bauer, r; Dirsch, VM; Stuppner, H (2015). "Entdeckung und Nachschub von pharmakologisch aktiven natürlichen Produkten: Eine Übersicht". Biotechnol Adv. 33 (8): 1582–614. doi:10.1016/j.biotechadv.2015.08.001. PMC 4748402. PMID 26281720.
  11. ^ Mizukami, Koichi; Saito, Fumio; Baron, Michel. Studie über das Schleifen von pharmazeutischen Produkten mit Hilfe der Computersimulation Archiviert 2011-07-21 bei der Wayback -Maschine
  12. ^ Mesily, Olivier (2015). Modelle in der psychologischen Forschung erstellen. Vereinigte Staaten: Springer Psychologie: 126 Seiten. ISBN978-3-319-15752-8
  13. ^ Wilensky, Uri; Rand, William (2007). "Modelle übereinstimmen: Replizieren eines agentenbasierten Modells". Journal of Artificial Societies and Social Simulation. 10 (4): 2.
  14. ^ Wescott, Bob (2013). Jedes Computer Performance -Buch, Kapitel 7: Modellierung der Computerleistung. CreateSpace. ISBN 978-1482657753.
  15. ^ Baase, Sara. Ein Geschenk des Feuers: soziale, rechtliche und ethische Fragen für Computer und Internet. 3. Upper Saddle River: Prentice Hall, 2007. Seiten 363–364. ISBN0-13-600848-8.

Weitere Lektüre

Externe Links