Grau -Box -Modell
Im Mathematik, Statistiken, und Computermodellierung, a Grau -Box -Modell[1][2][3][4] Kombiniert eine partielle theoretische Struktur mit Daten, um das Modell zu vervollständigen. Die theoretische Struktur kann sich von Informationen über die Glätte der Ergebnisse bis hin zu Modellen, die nur Parameterwerte aus Daten oder vorhandene Literatur benötigen, variieren.[5] So sind fast alle Modelle Grey Box -Modelle im Gegensatz zu im Gegensatz zu Flugschreiber wo keine Modellform angenommen wird oder weiße Kiste Modelle, die rein theoretisch sind. Einige Modelle nehmen eine spezielle Form wie a an lineare Regression[6][7] oder neurales Netzwerk.[8][9] Diese haben spezielle Analysemethoden. Im Speziellen lineare Regression Techniken[10] sind viel effizienter als die meisten nichtlinearen Techniken.[11][12] Das Modell kann sein deterministisch oder stochastisch (d. H. Enthaltende zufällige Komponenten) abhängig von seiner geplanten Verwendung.
Modellform
Der allgemeine Fall ist a Nichtlineares Modell mit einer partiellen theoretischen Struktur und einigen unbekannten Teilen, die aus Daten abgeleitet sind. Modelle mit anders als theoretischen Strukturen müssen einzeln bewertet werden,[1][13][14] Möglicherweise verwendet simuliertes Glühen oder genetische Algorythmen.
Innerhalb einer bestimmten Modellstruktur, Parameter[14][15] oder variable Parameterbeziehungen[5][16] Möglicherweise muss gefunden werden. Für eine bestimmte Struktur wird willkürlich angenommen, dass die Daten aus Futtervektoren Sätzen bestehen fProduktvektoren p, und Betriebsbedingungen Vektoren c.[5] Normalerweise c enthält Werte aus extrahiert von fsowie andere Werte. In vielen Fällen kann ein Modell in eine Funktion der Form umgewandelt werden:[5][17][18]
- m (f, p, q)
wo die Vektorfunktion m gibt die Fehler zwischen den Daten an pund die Modellvorhersagen. Der Vektor q Gibt einige variable Parameter, die die unbekannten Teile des Modells sind.
Die Parameter q variieren mit den Betriebsbedingungen c auf eine Weise bestimmt werden.[5][17] Diese Beziehung kann als angegeben werden q = AC wo A ist eine Matrix unbekannter Koeffizienten und c wie in lineare Regression[6][7] Enthält einen konstanten Term und möglicherweise transformierte Werte der ursprünglichen Betriebsbedingungen, um nichtlineare Beziehungen zu erhalten[19][20] zwischen den ursprünglichen Betriebsbedingungen und q. Es ist dann eine Frage der Auswahl der Begriffe in A sind ungleich Null und zuweisen ihre Werte. Die Modellvervollständigung wird zu einer Optimierung Problem zur Bestimmung der Werte ungleich Null in A Das minimiert die Fehlerbegriffe m (f, p, ac) über die Daten.[1][16][21][22][23]
Modellabschluss
Sobald eine Auswahl von Werten ungleich Null erstellt wurde, sind die verbleibenden Koeffizienten in A kann durch Minimieren bestimmt werden m(f,p,AC) über die Daten in Bezug auf die Werte ungleich Null in A, normalerweise von Nichtlineare kleinste Quadrate. Die Auswahl der Begriffe ungleich Null können durch Optimierungsmethoden wie z. B. durchgeführt werden simuliertes Glühen und Evolutionsalgorithmen. Auch die Nichtlineare kleinste Quadrate kann Genauigkeitsschätzungen liefern[11][15] für die Elemente von A Dies kann verwendet werden, um festzustellen, ob sie sich erheblich von Null unterscheiden, und liefert somit eine Methode von Termauswahl.[24][25]
Es ist manchmal möglich, Werte von zu berechnen q für jeden Datensatz direkt oder nach Nichtlineare kleinste Quadrate. Dann desto effizienter lineare Regression kann verwendet werden, um vorherzusagen q Verwendung c somit die Auswahl der Werte ungleich Null in A und Schätzung ihrer Werte. Sobald sich die Werte ungleich Null befinden Nichtlineare kleinste Quadrate Kann für das Originalmodell verwendet werden m (f, p, ac) diese Werte zu verfeinern.[16][21][22]
Eine dritte Methode ist Modellinversion,[5][17][18] was den nichtlinearen umwandelt m(f,p,AC) in eine ungefähre lineare Form in den Elementen von ADies kann unter Verwendung einer effizienten Termauswahl untersucht werden[24][25] und Bewertung der linearen Regression.[10] Für den einfachen Fall eines einzigen q Wert (q = aTc) und eine Schätzung q* von q. Puting dq=aTc-q* gibt
- m (f, p, aTc) = m (f, p, q* + dq) ≈ m (f, p.q*) + dq m ’(f, p, q*) = m (f, p.q*) + (aTc - q*) m ’(f, p, q*)
so dass aT ist jetzt in einer linearen Position mit allen anderen Begriffen bekannt und kann daher von analysiert werden lineare Regression Techniken. Für mehr als einen Parameter erstreckt sich die Methode direkt.[5][18][17] Nach der Überprüfung, ob das Modell verbessert wurde, kann dieser Vorgang bis zur Konvergenz wiederholt werden. Dieser Ansatz hat die Vorteile, dass er die Parameter nicht benötigt q Um aus einem einzelnen Datensatz ermittelt werden zu können, und die lineare Regression liegt auf den ursprünglichen Fehlerbegriffen[5]
Modell Bestätigung
Wenn ausreichende Daten verfügbar sind, Teilung der Daten in einen separaten Modellkonstruktionssatz und ein oder zwei Bewertungssätze ist empfohlen. Dies kann unter Verwendung mehrerer Auswahlmöglichkeiten des Konstruktionssatzes und der resultierende Modelle gemittelt oder verwendet, um Vorhersageunterschiede zu bewerten.
Ein statistischer Test wie z. Chi-Quadrat Auf den Residuen ist nicht besonders nützlich.[26] Der Chi Squared -Test erfordert bekannte Standardabweichungen, die selten verfügbar sind, und fehlgeschlagene Tests geben keinen Hinweis darauf, wie das Modell verbessert werden kann.[11] Es gibt eine Reihe von Methoden, um sowohl verschachtelte als auch nicht verschachtelte Modelle zu vergleichen. Dazu gehört der Vergleich von Modellvorhersagen mit wiederholten Daten.
Ein Versuch, die Residuen vorherzusagen m(, ) mit den Betriebsbedingungen c Die Verwendung einer linearen Regression zeigt, ob die Residuen vorhergesagt werden können.[21][22] Residuen, denen nicht vorhergesagt werden kann, bieten wenig Aussicht, das Modell unter Verwendung der aktuellen Betriebsbedingungen zu verbessern.[5] Begriffe, die die Residuen vorhersagen, sind prospektive Begriffe, die in das Modell einbezogen werden, um seine Leistung zu verbessern.[21]
Die obige Modellinversionstechnik kann als Methode zur Bestimmung verwendet werden, ob ein Modell verbessert werden kann. In diesem Fall ist die Auswahl der Begriffe ungleich Null nicht so wichtig und die lineare Vorhersage kann unter Verwendung des signifikanten durchgeführt werden Eigenvektoren des Regressionsmatrix. Die Werte in A Auf diese Weise ermittelt werden in das nichtlineare Modell eingesetzt werden, um Verbesserungen der Modellfehler zu bewerten. Das Fehlen einer signifikanten Verbesserung zeigt an, dass die verfügbaren Daten das aktuelle Modellformular mit den definierten Parametern nicht verbessern können.[5] Zusätzliche Parameter können in das Modell eingefügt werden, um diesen Test umfassender zu gestalten.
Siehe auch
Verweise
- ^ a b c Bohlin, Torsten P. (7. September 2006). Praktische Grey-Box-Prozessidentifizierung: Theorie und Anwendungen. Springer Science & Business Media. ISBN 978-1-84628-403-8.
- ^ "Grey-Box-Modellschätzung". MathWorks 2. 2012.
- ^ Kroll, Andreas (2000). Grey-Box-Modelle: Konzepte und Anwendung. In: Neue Frontiers in Computational Intelligence und seine Anwendungen, Vol.57 der Grenzen in künstlicher Intelligenz und Anwendungen, S. 42-51. IOS Press, Amsterdam.
- ^ Sohlberg, B. und Jacobsen, E. W., 2008. Modellierung von grauen Box - Zweige und Erfahrungen, Proc. 17. Weltkongress, int. Föderation der automatischen Kontrolle, Seoul. S. 11415-11420
- ^ a b c d e f g h i j Whiten, B., 2013. Modellabschluss und Validierung unter Verwendung der Inversion von Grey Box -Modellen, Anziam J., 54 (CTAC 2012) S. C187 - C199.
- ^ a b Draper, Norman R.; Smith, Harry (25. August 2014). Angewandte Regressionsanalyse. John Wiley & Sons. S. 657–. ISBN 978-1-118-62568-2.
- ^ a b Weisberg, Sanford (25. November 2013). Angewandte lineare Regression. Wiley. ISBN 978-1-118-59485-8.
- ^ Heaton, J., 2012. Einführung in die Mathematik der neuronalen Netze, Heaton Research Inc. (Chesterfield, MO), ISBN978-1475190878
- ^ Stergiou, C.; Siganos, D. (2013). "Neuronale Netze". Archiviert von das Original am 2009-12-16. Abgerufen 2013-07-03.
- ^ a b Lawson, Charles L.; J. Hanson, Richard (1. Dezember 1995). Probleme mit der kleinsten Quadrate lösen. SIAM. ISBN 978-0-89871-356-5.
- ^ a b c Press, W.H.; Teukolsky, S.A.; Vetterling, W.T.; Flannery, B.P. (2007). Numerische Rezepte (3. Aufl.). Cambridge University Press. ISBN 978-0-521-88068-8.
- ^ Gelman, Andrew; Carlin, John B.; Stern, Hal S.; Dunson, David B.; Vehtari, Aki; Rubin, Donald B. (1. November 2013). Bayes'sche Datenanalyse, dritte Ausgabe. CRC Press. ISBN 978-1-4398-4095-5.
- ^ MathWorks, 2013. Unterstützte graue Boxmodelle
- ^ a b Sauhs, J. (2008), Grey Box -Modellierung für nichtlineare Systeme (PDF) (Dissertation, KAISERSLAUTERN Universität für Technologie).
- ^ a b Nash, J. C. und Walker-Smith, M. 1987. Nichtlineare Parameterschätzung, Marcel Dekker, Inc. (New York).
- ^ a b c Whiten, W. J., 1971. Modellbuilding -Techniken, die auf Mineralbehandlungsprozesse angewendet werden, Symp. über automatische Steuerungssysteme in Mineralverarbeitungsanlagen (Australas. Inst. Min. Metall., S. Queensland Branch, Brisbane), 129-148.
- ^ a b c d Whiten, W. J., 1994. Bestimmung der Parameterbeziehungen in nichtlinearen Modellen, Signum Newsletter, 29 (3–4,) 2–5. 10.1145/192527.192535.
- ^ a b c Whiten, B., 2014. Bestimmung der Form gewöhnlicher Differentialgleichungen mithilfe der Modellinversion, Anziam J. 55 (EMAC2013) S.C329 - C347.
- ^ Polynom
- ^ Spline (Mathematik)
- ^ a b c d Kojovic, T. und Whiten W. J., 1994. Bewertung der Qualität der Simulationsmodelle, Innovationen in der Mineralverarbeitung (Lauretian University, Sudbury) S. 437–446. ISBN088667025X
- ^ a b c Kojovic, T., 1989. Die Entwicklung und Anwendung von Modell - Ein automatisierter Modellbauer für die Mineralverarbeitung, PhD -These, University of Queensland.
- ^ Xiao, J., 1998. Erweiterungen der Modellbuilding -Techniken und ihre Anwendungen in der Mineralverarbeitung, PhD -These, Universität von Queensland.
- ^ a b Linhart, H.; Zucchini, W. (1986). Modellauswahl. Wiley. ISBN 978-0-471-83722-0.
- ^ a b Miller, Alan (15. April 2002). Subset -Auswahl in der Regression. CRC Press. ISBN 978-1-4200-3593-3.
- ^ Deming, William Edwards (2000). Aus der Krise P272. MIT Press. ISBN 978-0-262-54115-2.