Statistische Inferenz

Statistische Inferenz ist der Prozess der Verwendung Datenanalyse Eigenschaften eines zugrunde liegenden Eigenschaften Wahrscheinlichkeitsverteilung.[1] Inferentielle statistische Analyse färbt Eigenschaften von a Populationzum Beispiel von Hypothesen testen und Ableitungen von Schätzungen. Es wird angenommen, dass der beobachtete Datensatz ist probiert von einer größeren Bevölkerung.

Inferenzstatistik kann im Gegensatz zu im Gegensatz zu werden beschreibende Statistik. Beschreibende Statistiken befassen sich ausschließlich mit den Eigenschaften der beobachteten Daten, und es beruht nicht auf der Annahme, dass die Daten aus einer größeren Bevölkerung stammen. Im maschinelles Lernen, der Begriff Inferenz wird manchmal verwendet, um stattdessen "eine Vorhersage zu machen, indem ein bereits geschultes Modell bewertet wird";[2] In diesem Zusammenhang wird die Schlussfolgerungen des Modells als bezeichnet als Ausbildung oder Lernen (statt Inferenz) und die Verwendung eines Modells zur Vorhersage wird als bezeichnet als Inferenz (Anstatt von Vorhersage); siehe auch prädiktive Inferenz.

Einführung

Statistische Inferenz macht Aussagen über eine Bevölkerung unter Verwendung von Daten aus der Bevölkerung mit irgendeiner Form von Probenahme. Angesichts einer Hypothese über eine Population, für die wir Schlussfolgerungen ziehen möchten, besteht statistischer Inferenz aus (zuerst) Auswahl a Statistisches Modell des Prozesses, der die Daten generiert und (zweite) Abgabe von Aussagen aus dem Modell.

Konishi & Kitagawa Staat "Der Großteil der Probleme in der statistischen Inferenz kann als Probleme im Zusammenhang mit der statistischen Modellierung angesehen werden".[3] In Bezug auf Sir David Cox hat gesagt: "Wie die Übersetzung von Subjekt-Materie-Problem zum statistischen Modell häufig der kritischste Teil einer Analyse ist."[4]

Das Fazit statistischer Inferenz ist statistisch Vorschlag.[5] Einige gemeinsame Formen statistischer Sätze sind die folgenden:

Modelle und Annahmen

Jede statistische Inferenz erfordert einige Annahmen. EIN Statistisches Modell ist eine Reihe von Annahmen über die Erzeugung der beobachteten Daten und ähnlichen Daten. Beschreibungen statistischer Modelle betonen normalerweise die Rolle von Interessensmengen, über die wir Schluss ziehen möchten.[6] Beschreibende Statistiken werden typischerweise als vorläufiger Schritt verwendet, bevor formalere Schlussfolgerungen gezogen werden.[7]

Grad der Modelle/Annahmen

Statistiker unterscheiden zwischen drei Ebenen der Modellierungsannahmen;

  • Vollständig parametrisch: Es wird angenommen, dass die Wahrscheinlichkeitsverteilungen, die den Datengenerationsprozess beschreiben, durch eine Familie von Wahrscheinlichkeitsverteilungen, die nur eine endliche Anzahl unbekannter Parameter umfassen, vollständig beschrieben werden.[6] Zum Beispiel kann man davon ausgehen, dass die Verteilung der Bevölkerungswerte wirklich normal ist, mit unbekanntem Mittelwert und Varianz, und dass Datensätze von generiert werden durch 'einfache' zufällige Stichprobe. Die Familie von Verallgemeinerte lineare Modelle ist eine weit verbreitete und flexible Klasse parametrischer Modelle.
  • Nicht parametrisch: Die Annahmen über den Prozess, der die Daten generiert, sind viel geringer als in parametrischen Statistiken und können minimal sein.[8] Zum Beispiel hat jede kontinuierliche Wahrscheinlichkeitsverteilung einen Median, der unter Verwendung des Probenmedianes oder der Schätzung geschätzt werden kann Hodges -Lehmann -Sen -Schätzer, was gute Eigenschaften hat, wenn die Daten aus einer einfachen zufälligen Stichprobe ergeben.
  • Halbparametrisch: Dieser Begriff impliziert typischerweise Annahmen "zwischen" vollständig und nicht parametrischen Ansätzen ". Zum Beispiel kann man davon ausgehen, dass eine Bevölkerungsverteilung ein begrenztes Mittel hat. Darüber hinaus kann man davon ausgehen, dass das mittlere Antwortniveau in der Population in einer wirklich linearen Weise von einer Kovariaten abhängt (eine parametrische Annahme), jedoch keine parametrische Annahme, die die Varianz um diesen Mittelwert beschreibt (d. H. Um die Vorhandensein oder mögliche Form eines beliebigen Heteroskedastizität). Allgemeiner können semi-parametrische Modelle häufig in "strukturelle" und "zufällige Variations" -Komponenten unterteilt werden. Eine Komponente wird parametrisch behandelt und die andere nicht parametrisch. Die gut bekannten Cox -Modell ist eine Reihe semi-parametrischer Annahmen.

Bedeutung gültiger Modelle/Annahmen

Das obige Bild zeigt ein Histogramm, das die Annahme der Normalität bewertet, das durch die gleichmäßige Ausbreitung unter der Glockenkurve dargestellt werden kann.

Unabhängig von der Annahme, dass die Annahme erfolgt, erfordert die korrekt kalibrierte Inferenz im Allgemeinen, dass diese Annahmen korrekt sind. d.h., dass die datengenerierenden Mechanismen wirklich korrekt angegeben wurden.

Falsche Annahmen von 'einfache' zufällige Stichprobe kann statistische Schlussfolgerung ungültig machen.[9] Komplexere semi- und vollständig parametrische Annahmen sind ebenfalls Anlass zur Sorge. Beispielsweise kann die fälschliche Annahme, dass das COX -Modell in einigen Fällen zu fehlerhaften Schlussfolgerungen führen.[10] Falsche Normalitätsannten in der Bevölkerung macht auch einige Formen von Regressionsbasis ungültig.[11] Die Verwendung von irgendein Das parametrische Modell wird von den meisten Experten in der Stichprobe menschlicher Populationen skeptisch angesehen: "Die meisten Stichprobenstatistiker beschränken sich, wenn sie sich überhaupt mit Konfidenzintervallen befassen Schätzer] werden fast normale Verteilungen haben. "[12] Insbesondere eine Normalverteilung "wäre eine völlig unrealistische und katastrophale Annahme, wenn wir uns mit einer Wirtschaftsbevölkerung befassen".[12] Hier stellt der zentrale Grenzwertsatz fest, dass die Verteilung des Stichprobenmittelwerts "für sehr große Proben" ungefähr normal verteilt ist, wenn die Verteilung nicht schwer ist.

Ungefähre Verteilungen

Angesichts der Schwierigkeit bei der Angabe der genauen Verteilungen von Stichprobenstatistiken wurden viele Methoden entwickelt, um diese zu nähern.

Mit endlichen Proben, Approximationsergebnisse Messen Sie, wie eng eine begrenzende Verteilung der Statistik nähert Probenverteilung: Zum Beispiel mit 10.000 unabhängigen Proben die Normalverteilung nähert sich (bis zwei Ziffern der Genauigkeit) der Verteilung der Probenmittelwert für viele Bevölkerungsverteilungen von der Berry -Fessel -Theorem.[13] Für viele praktische Zwecke bietet die normale Annäherung jedoch eine gute Annäherung an die Verteilung des Stichproben-Means, wenn 10 (oder mehr) unabhängige Proben laut Simulationsstudien und der Erfahrung der Statistiker vorhanden sind.[13] Nach Kolmogorovs Arbeit in den 1950er Jahren verwendet Advanced Statistics Approximationstheorie und Funktionsanalyse So quantifizieren Sie den Annäherungsfehler. In diesem Ansatz die Metrische Geometrie von Wahrscheinlichkeitsverteilungen wird untersucht; Dieser Ansatz quantifiziert den Näherungsfehler beispielsweise mit dem Kullback -Leibler -Divergenz, Bregman Divergence, und die Hellinger Distanz.[14][15][16]

Mit unendlich großen Proben,, Ergebnisse einschränken wie Zentralgrenze Theorem Beschreiben Sie die einschränkende Verteilung der Stichprobenstatistik, wenn eine existiert. Begrenzende Ergebnisse sind keine Aussagen zu endlichen Stichproben und sind in der Tat für endliche Stichproben irrelevant.[17][18][19] Die asymptotische Theorie der Begrenzung von Verteilungen wird jedoch häufig für die Arbeit mit endlichen Proben aufgerufen. Zum Beispiel werden häufig einschränkende Ergebnisse angerufen, um die zu rechtfertigen Verallgemeinerte Methode der Momente und die Verwendung von Verallgemeinerte Schätzgleichungen, die in beliebt sind in Ökonometrie und Bio-Statistiken. Die Größe der Differenz zwischen der Grenzverteilung und der wahren Verteilung (formell der 'Fehler' der Approximation) kann unter Verwendung von Simulation bewertet werden.[20] Die heuristische Anwendung von begrenzenden Ergebnissen auf endliche Proben ist in vielen Anwendungen üblich, insbesondere bei niedrigdimensionaler Modelle mit Protokollkonkav Wahrscheinlichkeiten (wie mit einem Parameter Exponentiale Familien).

Randomisierungsbasierte Modelle

Für einen bestimmten Datensatz, der durch ein Randomisierungsdesign erzeugt wurde, wird die Randomisierungsverteilung einer Statistik (unter der Null-Hypothese) definiert, indem die Teststatistik für alle Pläne bewertet wird, die durch das Randomisierungsdesign hätte generiert werden können. Bei der häufigen Inferenz ermöglicht die Randomisierung die Randomisierungsverteilung und nicht auf einem subjektiven Modell, was insbesondere für die Abtastung und das Design von Experimenten wichtig ist.[21][22] Die statistische Inferenz aus randomisierten Studien ist ebenfalls einfacher als in vielen anderen Situationen.[23][24][25] Im Bayes'sche Inferenz, Randomisierung ist auch von Bedeutung: in Vermessungstichprobe, Gebrauch von Probenahme ohne Ersatz sorgt für Austauschbarkeit der Stichprobe mit der Bevölkerung; In randomisierten Experimenten garantiert die Randomisierung a zufällig fehlen Annahme für kovariate Information.[26]

Die objektive Randomisierung ermöglicht ordnungsgemäß induktive Verfahren.[27][28][29][30][31] Viele Statistiker bevorzugen eine randomisierungsbasierte Analyse von Daten, die durch gut definierte Randomisierungsverfahren generiert wurden.[32] (Es ist jedoch wahr, dass in Bereichen der Wissenschaft mit entwickeltem theoretischen Wissen und experimenteller Kontrolle randomisierte Experimente die Kosten des Experimentierens erhöhen können, ohne die Qualität der Schlussfolgerungen zu verbessern.[33][34]) In ähnlicher Weise Ergebnisse von Randomisierte Experimente werden von führenden statistischen Behörden empfohlen, um Schlussfolgerungen mit größerer Zuverlässigkeit zu ermöglichen als Beobachtungsstudien derselben Phänomene.[35] Eine gute Beobachtungsstudie kann jedoch besser sein als ein schlechtes randomisiertes Experiment.

Die statistische Analyse eines randomisierten Experiments kann auf dem im experimentellen Protokoll angegebenen Randomisierungsschema basieren und benötigt kein subjektives Modell.[36][37]

Zu irgendeinem Zeitpunkt können einige Hypothesen jedoch nicht mit objektiven statistischen Modellen getestet werden, die randomisierte Experimente oder zufällige Proben genau beschreiben. In einigen Fällen sind solche randomisierten Studien unwirtschaftlich oder unethisch.

Modellbasierte Analyse randomisierter Experimente

Es ist eine Standardpraxis, sich auf ein statistisches Modell zu beziehen, z. B. bei der Analyse von Daten aus randomisierten Experimenten.[38] Das Randomisierungsschema leitet jedoch die Wahl eines statistischen Modells. Es ist nicht möglich, ein geeignetes Modell auszuwählen, ohne das Randomisierungsschema zu kennen.[22] Es können ernsthaft irreführende Ergebnisse erzielt werden, um Daten aus randomisierten Experimenten zu analysieren und gleichzeitig das experimentelle Protokoll zu ignorieren. Zu den häufigen Fehlern gehört das Vergessen der in einem Experiment verwendeten Blockierung und verwirrende wiederholte Messungen an derselben experimentellen Einheit mit unabhängigen Replikaten der Behandlung, die auf verschiedene experimentelle Einheiten angewendet wird.[39]

Modellfreie Randomisierungsinferenz

Modellfreie Techniken bieten eine Ergänzung zu modellbasierten Methoden, bei denen reduktionistische Strategien der Realitätsdiplimierung angewendet werden. Ersteres Kombinieren, Evolve, Ensemble und Train Algorithmen, die sich dynamisch an die kontextuellen Affinitäten eines Prozesses anpassen und die intrinsischen Eigenschaften der Beobachtungen lernen.[38][40]

Zum Beispiel basiert modellfreie einfache lineare Regression entweder auf

  • a Zufälliges Design, wo die Beobachtungspaare sind unabhängig und identisch verteilt (IID) oder
  • a deterministisches Design, wo die Variablen sind deterministisch, aber die entsprechenden Antwortvariablen sind zufällig und unabhängig mit einer gemeinsamen bedingten Verteilung, d. H., , was unabhängig vom Index ist .

In beiden Fällen die modellfreie Randomisierungsschließung für Merkmale der gemeinsamen bedingten Verteilung stützt sich auf einige Regelmäßigkeitsbedingungen, z. funktionelle Glätte. Zum Beispiel modellfreie Randomisierungsinferenz für die Bevölkerungsfunktion bedingter Mittelwert, kann durch konsistent über lokale Mittelung oder lokale Polynomanpassung geschätzt werden, unter der Annahme, dass ist glatt. Wenn wir uns auch auf asymptotische Normalität oder Resampling verlassen, können wir Konfidenzintervalle für das Bevölkerungsmerkmal konstruieren, in diesem Fall die bedingter Mittelwert, .[41]

Paradigmen für Inferenz

Verschiedene Schulen statistischer Inferenz haben sich etabliert. Diese Schulen - oder "Paradigmen" - sind nicht gegenseitig ausschließt, und Methoden, die unter einem Paradigma gut funktionieren, haben häufig attraktive Interpretationen unter anderen Paradigmen.

Bandyopadhyay & Forster beschreiben vier Paradigmen: das Klassik (oder Häufigkeit) Paradigma, die Bayesian Paradigma, die Wahrscheinlichkeitist Paradigma und die Akaikean-Informationskriterium-Basis Paradigma.[42]

Häufige Inferenz

Dieses Paradigma kalibriert die Plausibilität von Vorschlägen, indem (fiktive) wiederholte Stichproben einer Populationsverteilung in Betracht gezogen werden, um Datensätze zu erzeugen, die dem jeweiligen ähnlich sind. Unter Berücksichtigung der Eigenschaften des Datensatzes unter wiederholten Stichproben können die häufigsten Eigenschaften eines statistischen Satzes quantifiziert werden - obwohl diese Quantifizierung in der Praxis schwierig sein kann.

Beispiele für häufige Inferenz

Häufige Inferenz, Objektivität und Entscheidungstheorie

Eine Interpretation von Häufige Inferenz (oder klassische Inferenz) ist, dass es nur in Bezug auf anwendbar ist Frequenzwahrscheinlichkeit; Das heißt, in Bezug auf wiederholte Stichproben aus einer Bevölkerung. Der Ansatz von Neyman[43] Entwickelt diese Verfahren in Bezug auf die Wahrscheinlichkeiten vor dem Experiment. Das heißt, vor dem Durchführung eines Experiments entscheidet man eine Regel für die Schlussfolgerung, dass die Wahrscheinlichkeit, korrekt zu sein, auf eine geeignete Weise gesteuert wird: Eine solche Wahrscheinlichkeit muss keine Frequentist oder wiederholte Abtastinterpretation haben. Im Gegensatz dazu wirkt die Bayes'sche Inferenz in Bezug auf bedingte Wahrscheinlichkeiten (d. H. Wahrscheinlichkeit, die auf die beobachteten Daten bedingt) im Vergleich zum marginalen (aber auf unbekannten Parametern konditionierten) Wahrscheinlichkeiten, die im Frequentistenansatz verwendet wurden, im Vergleich zu den marginalen (aber auf unbekannten Parametern konditionierten).

Die häufigsten Verfahren von Signifikanztests und Konfidenzintervallen können ohne Berücksichtigung der Dienstprogrammfunktionen. Einige Elemente der Frequenzstatistik, wie z. Statistische Entscheidungstheorie, integrieren Dienstprogrammfunktionen. Insbesondere häufige Entwicklungen optimaler Inferenz (wie z. Mindestvarianz unvoreingenommene Schätzer, oder einheitlich leistungsstärkste Tests) Gebrauch machen von Verlustfunktionen, die die Rolle der (negativen) Nutzfunktionen spielen. Verlustfunktionen müssen für statistische Theoretiker nicht explizit angegeben werden, um zu beweisen, dass ein statistisches Verfahren eine optimale Eigenschaft aufweist.[44] Verlustfunktionen sind jedoch häufig nützlich, um Optimalitätseigenschaften anzugeben absoluter Wert Verlustfunktionen, indem sie den erwarteten Verlust minimieren, und kleinsten Quadrate Schätzer sind unter quadratischen Fehlerverlustfunktionen optimal, da sie den erwarteten Verlust minimieren.

Während Statistiker, die Frequentistische Inferenz verwenden Schätzer/Teststatistik Um verwendet zu werden, hat das Fehlen offensichtlich expliziter Versorgungsunternehmen und früheren Verteilungen häufig dazu beigetragen, dass häufig als „objektiv“ angesehen wird.[45]

Bayes'sche Inferenz

Der Bayes'sche Kalkül beschreibt Glaubensgrade mithilfe der „Sprache“ der Wahrscheinlichkeit; Überzeugungen sind positiv, in einen integriert und gehorchen Wahrscheinlichkeits -Axiomen. Bayes'sche Inferenz verwendet die verfügbaren hinteren Überzeugungen als Grundlage für statistische Aussagen.[46] Es gibt verschiedene Rechtfertigungen Für die Verwendung des Bayes'schen Ansatzes.

Beispiele für Bayes'sche Inferenz

Bayes'sche Inferenz, Subjektivität und Entscheidungstheorie

Viele informelle Bayes'sche Schlussfolgerungen basieren auf "intuitiv vernünftigen" Zusammenfassungen des hinteren. Zum Beispiel können die posterioren Mittelwert, Median und Modus, die höchsten posterioren Dichteintervalle und Bayes -Faktoren auf diese Weise motiviert werden. Während ein Benutzer Nützlichkeitsfunktion Für diese Art von Inferenz müssen diese Zusammenfassungen nicht (in gewissem Maße) von früheren Überzeugungen abhängen und werden allgemein als subjektive Schlussfolgerungen angesehen. (Methoden der früheren Konstruktion, die keine externe Eingabe erfordern, waren vorgeschlagen aber noch nicht voll entwickelt.)

Formal wird die Bayes'sche Inferenz unter Bezugnahme auf einen explizit angegebenen Nutzen oder Verlustfunktion kalibriert. Die 'Bayes -Regel' ist diejenige, die den erwarteten Nutzen maximiert, gemittelt über die hintere Unsicherheit. Die formale Bayes'sche Inferenz liefert daher automatisch automatisch optimale Entscheidungen in einem Entscheidungstheoretik Sinn. Angesichts der Annahmen, Daten und Nutzen kann Bayes'sche Inferenz für im Wesentlichen ein Problem erfolgen, obwohl nicht jede statistische Inferenz eine Bayes'sche Interpretation hat. Analysen, die nicht formell Bayes'sche sind, kann (logischerweise) sein inkohärent; Ein Merkmal von Bayesian -Verfahren, bei denen die richtigen Priors verwendet werden (d. H. Diejenigen, die integrierbar sind), ist, dass sie garantiert sind kohärent. Einige Befürworter von Bayes'sche Inferenz behaupten diese Schlussfolgerung muss findet in diesem entscheidungstheoretischen Rahmen statt, und das Bayes'sche Inferenz sollte nicht mit der Bewertung und Zusammenfassung der posterioren Überzeugungen schließen.

Wahrscheinlichkeitsbasierte Inferenz

Wahrscheinlichkeit nähert Statistiken mit der Verwendung der Wahrscheinlichkeitsfunktion. Einige Likelihoodisten lehnen die Inferenz ab und betrachten Statistiken als nur Berechnung von Beweisen. Andere schlagen jedoch eine Inferenz vor, die auf der Wahrscheinlichkeitsfunktion basieren, von denen das bekannteste ist Maximum-Likelihood-Schätzung.

AIC-basierte Inferenz

Das Akaike Information Criterion (AIC) ist ein Schätzer der relativen Qualität von Statistische Modelle für einen bestimmten Datensatz. Bei einer Sammlung von Modellen für die Daten schätzt AIC die Qualität jedes Modells relativ zu jedem der anderen Modelle. Somit bietet AIC ein Mittel für Modellauswahl.

AIC basiert auf Informationstheorie: Es bietet eine Schätzung der relativen Informationen, die verloren gegangen sind, wenn ein bestimmtes Modell verwendet wird, um den Prozess darzustellen, der die Daten generiert. (Dabei geht es mit dem Kompromiss zwischen den zu Güte der Anpassung des Modells und der Einfachheit des Modells.)

Andere Paradigmen für Inferenz

Mindestbeschreibungslänge

Das Prinzip der Mindestbeschreibungslänge (MDL) wurde aus Ideen in entwickelt Informationstheorie[47] und die Theorie von Kolmogorov -Komplexität.[48] Das (MDL) -Prinzip wählt statistische Modelle aus, die die Daten maximal komprimieren; Die Inferenz erfolgt ohne Annahme kontrafaktischer oder nicht falfierbarer "Datengenerierungsmechanismen" oder Wahrscheinlichkeitsmodelle für die Daten, wie es möglicherweise bei häufigsten oder bayes'schen Ansätzen erfolgt.

Wenn jedoch in der Realität ein "Datenerzeugermechanismus" vorhanden ist, dann lautet dies nach Shannon's Quellcodierungssatz Es liefert die MDL -Beschreibung der Daten im Durchschnitt und asymptotisch.[49] Bei der Minimierung der Beschreibung der Länge (oder der deskriptiven Komplexität) ist die MDL -Schätzung ähnlich wie Maximum-Likelihood-Schätzung und maximal eine posteriorische Schätzung (Verwendung Maximale Entropie Bayes'sche Priors). MDL vermeidet jedoch die Annahme, dass das zugrunde liegende Wahrscheinlichkeitsmodell bekannt ist. Das MDL -Prinzip kann auch ohne Annahmen angewendet werden, die z. Die Daten entstanden aus einer unabhängigen Stichprobe.[49][50]

Das MDL-Prinzip wurde in der Kommunikation angewendet.Codierungstheorie in Informationstheorie, in lineare Regression,[50] und in Data Mining.[48]

Die Bewertung von MDL-basierten Inferenzverfahren verwendet häufig Techniken oder Kriterien von Computerkomplexitätstheorie.[51]

Genießen

Genießen war ein Ansatz zur statistischen Inferenz basierend auf Genusswahrscheinlichkeit, auch als "Herstellerverteilung" bekannt. In der späteren Arbeit wurde dieser Ansatz als schlecht definiert, äußerst begrenzt in Bezug auf Anwendbarkeit und sogar trügerisch.[52][53] Dieses Argument ist jedoch das gleiche wie das, was zeigt[54] das ist sogenannt Vertrauensverteilung ist nicht gültig Wahrscheinlichkeitsverteilung und da dies die Anwendung von nicht ungültig gemacht hat VertrauensintervalleEs wird nicht unbedingt die Schlussfolgerungen ungültig, die sich aus professionellen Argumenten stammen. Es wurde versucht, die frühe Arbeit von Fisher neu zu interpretieren Genauigkeitsargument Als Sonderfall einer Inferenztheorie verwendet Ober- und untere Wahrscheinlichkeit.[55]

Strukturelle Inferenz

Entwicklungsideen von Fisher und Pitman von 1938 bis 1939,[56] George A. Barnard entwickelte "strukturelle Inferenz" oder "zentrale Inferenz",[57] Ein Ansatz invariante Wahrscheinlichkeiten an Gruppenfamilien. Barnard formulierte die Argumente hinter der Herstellung einer eingeschränkten Modelle, über die "herrliche" Verfahren gut definiert und nützlich wären, um die Argumente neu formulierte. Donald A. S. Fraser entwickelte eine allgemeine Theorie für strukturelle Inferenz[58] bezogen auf Gruppentheorie und wendete dies auf lineare Modelle an.[59] Die von Fraser formulierte Theorie hat enge Verbindungen zur Entscheidungstheorie und zur Bayes'schen Statistik und kann, falls vorhanden, optimale häufige Entscheidungsregeln liefern.[60]

Inferenzthemen

Die folgenden Themen sind normalerweise im Bereich von enthalten statistische Inferenz.

  1. Statistische Annahmen
  2. Statistische Entscheidungstheorie
  3. Schätztheorie
  4. Statistische Hypothesentests
  5. Überarbeitung der Meinungen in Statistiken
  6. Versuchsplanung, das Varianzanalyse, und Regression
  7. Vermessungstichprobe
  8. Zusammenfassung statistischer Daten

Prädiktive Inferenz

Prädiktive Inferenz ist ein Ansatz zur statistischen Inferenz, der die betont Vorhersage zukünftiger Beobachtungen, die auf früheren Beobachtungen beruhen.

Anfangs basierte die prädiktive Inferenz auf beobachtbar Parameter und es war der Hauptzweck des Studiums Wahrscheinlichkeit, aber es fiel im 20. Jahrhundert aufgrund eines neuen parametrischen Ansatzes in Ungnade zu Bruno de Finetti. Der Ansatz modellierte Phänomene als ein physikalisches System, das mit einem Fehler beobachtet wurde (z. B.,, Himmelsmechanik). De Finettis Idee von Austauschbarkeit-Die zukünftigen Beobachtungen sollten sich wie frühere Beobachtungen verhalten-auf die englischsprachige Welt mit der Übersetzung von 1974 aus dem Französischen seiner Zeitung von 1937 aufmerksam.[61] und wurde seitdem von solchen Statistikern wie vorgeschlagen Seymour Geisser.[62]

Siehe auch

Anmerkungen

  1. ^ Laut Peirce bedeutet Akzeptanz, dass die Untersuchung dieser Frage vorerst aufhört. In der Wissenschaft sind alle wissenschaftlichen Theorien überarbeitet.

Verweise

Zitate

  1. ^ Upton, G., Cook, I. (2008) Oxford Dictionary of Statistics, OUP. ISBN978-0-19-954145-4.
  2. ^ "Tensorflow lite Inferenz". Der Begriff Inferenz Bezieht sich auf den Prozess der Ausführung eines TensorFlow-Lite-Modells On-Device, um Vorhersagen basierend auf Eingabedaten zu treffen.
  3. ^ Konishi & Kitagawa (2008), p. 75.
  4. ^ Cox (2006), p. 197.
  5. ^ "Statistische Inferenz - Enzyklopädie der Mathematik". www.encyclopediaofmath.org. Abgerufen 2019-01-23.
  6. ^ a b Cox (2006) Seite 2
  7. ^ Evans, Michael; et al. (2004). Wahrscheinlichkeit und Statistik: Die Wissenschaft der Unsicherheit. Freeman und Gesellschaft. p. 267. ISBN 9780716747420.
  8. ^ Van der Vaart, A.W. (1998) Asymptotische Statistik Cambridge University Press. ISBN0-521-78450-6 (Seite 341)
  9. ^ Kruskal 1988
  10. ^ Freedman, D.A. (2008) "Überlebensanalyse: Eine epidemiologische Gefahr?". Der amerikanische Statistiker (2008) 62: 110-119. (Nachdruck als Kapitel 11 (Seiten 169–192) von Freedman (2010)).
  11. ^ Berk, R. (2003) Regressionsanalyse: Eine konstruktive Kritik (erweiterte quantitative Techniken in den Sozialwissenschaften) (Vers 11) Sage Publications. ISBN0-7619-2904-5
  12. ^ a b Brewer, Ken (2002). Kombinierte Untersuchungstichproben -Inferenz: Abwägung der Elefanten von Basu. Hodder Arnold. p. 6. ISBN 978-0340692295.
  13. ^ a b Jörgen Hoffman-Jörgensens Wahrscheinlichkeit mit Blick auf Statistiken, Band I. Seite 399[Vollständiges Zitat benötigt]
  14. ^ Le Cam (1986)[Seite benötigt]
  15. ^ Erik Torgerson (1991) Vergleich statistischer Experimente, Band 36 der Enzyklopädie der Mathematik. Cambridge University Press.[Vollständiges Zitat benötigt]
  16. ^ Liese, Friedrich & Miescke, Klaus-J. (2008). Statistische Entscheidungstheorie: Schätzung, Test und Auswahl. Springer. ISBN 978-0-387-73193-3.
  17. ^ Kolmogorov (1963, S. 369): "Das Frequenzkonzept, basierend auf dem Begriff der Begrenzung der Häufigkeit mit zunehmender Anzahl von Versuchen, trägt nichts dazu bei haben immer mit einer begrenzten Anzahl von Versuchen umzugehen. "
  18. ^ "In der Tat beschränken Sie Theoreme als Tendenziell neigen dazu, unendlich zu sein, sind logisch nicht inhalt darüber, was zu einem bestimmten Fall passiert. Sie können nur bestimmte Ansätze vorschlagen, deren Leistung dann auf den vorliegenden Fall überprüft werden muss. " - Le Cam (1986) (Seite XIV).
  19. ^ Pfanzagl (1994): "Der entscheidende Nachteil der asymptotischen Theorie: Was wir von der asymptotischen Theorie erwarten, sind Ergebnisse, die ungefähr ... die asymptotischen Theorie zu bieten haben." , keine Grenzen. " (Seite 188)
  20. ^ Pfanzagl (1994): "Indem wir für große Stichproben einen Limit -Theorem als annähernd zutreffen, begehen wir einen Fehler, dessen Größe unbekannt ist. [.] Realistische Informationen über die verbleibenden Fehler können durch Simulationen erhalten werden." (Seite IX)
  21. ^ Neyman, J.(1934) "Zu den beiden verschiedenen Aspekten der repräsentativen Methode: die Methode der geschichteten Probenahme und die Methode der zielgerichteten Selektion", Zeitschrift der Royal Statistical Society, 97 (4), 557–625 JStor 2342192
  22. ^ a b Hinkelmann und Kemphorne (2008)[Seite benötigt]
  23. ^ ASA-Richtlinien für den ersten Kurs in Statistik für Nicht-Statistiker. (erhältlich auf der ASA -Website)
  24. ^ David A. Freedman et alia Statistiken.
  25. ^ Moore et al. (2015).
  26. ^ Gelman A. et al. (2013). Bayes'sche Datenanalyse (Chapman & Hall).
  27. ^ Peirce (1877-1878)
  28. ^ Peirce (1883)
  29. ^ Freedman, Pisani & Purves 1978.
  30. ^ David A. Freedman Statistische Modelle.
  31. ^ Rao, C.R. (1997) Statistik und Wahrheit: Chance zu arbeiten, Welt wissenschaftlich. ISBN981-02-3111-3
  32. ^ Peirce; Freedman; Moore et al. (2015).
  33. ^ Box, G.E.P. und Freunde (2006) Verbesserung fast alles: Ideen und Essays, überarbeitete Ausgabe, Wiley. ISBN978-0-471-72755-2
  34. ^ Cox (2006), p. 196.
  35. ^ ASA-Richtlinien für den ersten Kurs in Statistik für Nicht-Statistiker. (erhältlich auf der ASA -Website)
    • David A. Freedman et alias Statistiken.
    • Moore et al. (2015).
  36. ^ Neyman, Jerzy. 1923 [1990]. "Über die Anwendung der Wahrscheinlichkeitstheorie auf Agriculturalexperimente. Essay über Prinzipien. Abschnitt 9." Statistische Wissenschaft 5 (4): 465–472. Trans. Dorota M. Dabrowska und Terence P. Geschwindigkeit.
  37. ^ Hinkelmann & Kemphorne (2008)[Seite benötigt]
  38. ^ a b Dinov, Ivo; Palanimalai, Selvam; Khare, Ashwini; Christou, Nicolas (2018). "Randomisierungsbasierte statistische Inferenz: Eine Resampling- und Simulationsinfrastruktur". Lehrstatistik. 40 (2): 64–73. doi:10.1111/test.12156. PMC 6155997. PMID 30270947.
  39. ^ Hinkelmann und Kemphorne (2008) Kapitel 6.
  40. ^ Tang, Ming; Gao, Chao; GOUTMAN, Stephen; Kalinin, Alexandr; Mukherjee, Bhramar; Guan, Yuanfang; Dinov, Ivo (2019). "Modellbasierte und modellfreie Techniken für die amyotrophe laterale Sklerose-Diagnosevorhersage und das Clustering von Patienten". Neuroinformatik. 17 (3): 407–421. doi:10.1007/s12021-018-9406-9. PMC 6527505. PMID 30460455.
  41. ^ Politis, D.N. (2019). "Modellfreie Inferenz in Statistik: Wie und warum". IMS Bulletin. 48.
  42. ^ Bandyopadhyay & Forster (2011). Siehe die Einführung des Buches (S.3) und "Abschnitt III: Vier Paradigmen der Statistik".
  43. ^ Neyman, J. (1937). "Umriss einer Theorie der statistischen Schätzung basierend auf der klassischen Wahrscheinlichkeitstheorie". Philosophische Transaktionen der Royal Society of London a. 236 (767): 333–380. Bibcode:1937RSPTA.236..333n. doi:10.1098/rsta.1937.0005. JStor 91337.
  44. ^ Vorwort zu Pfanzagl.
  45. ^ Little, Roderick J. (2006). "Kalibriertes Bayes: eine Bayes/Frequentist -Roadmap". Der amerikanische Statistiker. 60 (3): 213–223. doi:10.1198/000313006X117837. ISSN 0003-1305. JStor 27643780. S2CID 53505632.
  46. ^ Lee, Se Yoon (2021). "Gibbs-Sampler und Koordinatenabsteiger Variationsinferenz: Eine set-theoretische Überprüfung". Kommunikation in Statistik - Theorie und Methoden. 51 (6): 1549–1568. Arxiv:2008.01006. doi:10.1080/03610926.2021.1921214. S2CID 220935477.
  47. ^ Soofi (2000)
  48. ^ a b Hansen & Yu (2001)
  49. ^ a b Hansen und Yu (2001), Seite 747.
  50. ^ a b Rissanen (1989), Seite 84
  51. ^ Joseph F. Traub, G. W. Wasilkowski und H. Wozniakowski. (1988)[Seite benötigt]
  52. ^ Neyman (1956)
  53. ^ Zabell (1992)
  54. ^ Cox (2006) Seite 66
  55. ^ Hampel 2003.
  56. ^ Davison, Seite 12.[Vollständiges Zitat benötigt]
  57. ^ Barnard, G.A. (1995) "Pivotal Modelle und das Fitucial Argument", International Statistical Review, 63 (3), 309–323. JStor 1403482
  58. ^ Fraser, D. A. S. (1968). Die Struktur der Inferenz. New York: Wiley. ISBN 0-471-27548-4. OCLC 440926.
  59. ^ Fraser, D. A. S. (1979). Inferenz- und lineare Modelle. London: McGraw-Hill. ISBN 0-07-021910-9. OCLC 3559629.
  60. ^ Taraldsen, Gunnar; Lindqvist, Bo Henry (2013-02-01). "Genauigkeitstheorie und optimale Inferenz". Die Annalen der Statistik. 41 (1). Arxiv:1301.1717. doi:10.1214/13-AOS1083. ISSN 0090-5364. S2CID 88520957.
  61. ^ De Finetti, Bruno (1937). "La Prévision: Ses Lois Logiques, SES Quellen Subjektive". Annales de l'institut Henri Poincaré. 7 (1): 1–68. ISSN 0365-320x. Übersetzt in De Finetti, Bruno (1992). "Voraussicht: seine logischen Gesetze, seine subjektiven Quellen". Durchbrüche in Statistiken. Springer -Serie in Statistik. S. 134–174. doi:10.1007/978-1-4612-0919-5_10. ISBN 978-0-387-94037-3.
  62. ^ Geisser, Seymour (1993) Prädiktive Inferenz: Eine Einführung, CRC Press. ISBN0-412-03471-9

Quellen

Weitere Lektüre

Externe Links