Wahrscheinlichkeit
Wahrscheinlichkeit ist der Zweig von Mathematik in Bezug auf numerische Beschreibungen, wie wahrscheinlich es ist Veranstaltung ist auftreten oder wie wahrscheinlich es ist, dass ein Satz wahr ist. Die Wahrscheinlichkeit eines Ereignisses beträgt eine Zahl zwischen 0 und 1, wobei ungefähr 0 eine Unmöglichkeit des Ereignisses angibt und 1 Gewissheit anzeigt.[Anmerkung 1][1][2] Je höher die Wahrscheinlichkeit eines Ereignisses ist, desto wahrscheinlicher ist es, dass das Ereignis auftritt. Ein einfaches Beispiel ist das Werfen einer fairen (unvoreingenommenen) Münze. Da die Münze fair ist, sind die beiden Ergebnisse ("Köpfe" und "Schwänze") beide gleich wahrscheinlich; Die Wahrscheinlichkeit von "Köpfen" entspricht der Wahrscheinlichkeit von "Schwänzen"; Und da keine anderen Ergebnisse möglich sind, beträgt die Wahrscheinlichkeit von "Köpfen" oder "Schwänzen" 1/2 (was auch mit 0,5 oder 50%geschrieben werden kann).
Diese Konzepte wurden an gegeben axiomatisch Mathematische Formalisierung in Wahrscheinlichkeitstheorie, was weit verbreitet ist in Studienbereiche wie zum Beispiel Statistiken, Mathematik, Wissenschaft, Finanzen, Glücksspiel, künstliche Intelligenz, maschinelles Lernen, Informatik, Spieltheorie, und Philosophie Zum Beispiel Schlussfolgerungen über die erwartete Häufigkeit von Ereignissen ziehen. Wahrscheinlichkeitstheorie wird auch verwendet, um die zugrunde liegenden Mechanik und Regelmäßigkeiten von zu beschreiben Komplexe Systeme.[3]
Interpretationen
Beim Umgang mit Experimente das sind zufällig und gut definiert In einer rein theoretischen Umgebung (wie das Werfen einer Münze) können Wahrscheinlichkeiten numerisch durch die Anzahl der gewünschten Ergebnisse beschrieben werden, geteilt durch die Gesamtzahl aller Ergebnisse. Zum Beispiel wird das Zweimal einer Münze "Head Head", "Head-Tail", "Tail Head" und "Tail-Tail" -Entepunkte ergeben. Die Wahrscheinlichkeit, ein Ergebnis von "Kopfkopf" zu erzielen, beträgt 1 von 4 Ergebnissen oder in numerischen Begriffen 1/4, 0,25 oder 25%. Bei der praktischen Anwendung gibt es jedoch zwei wichtige konkurrierende Kategorien von Wahrscheinlichkeitsinterpretationen, deren Anhänger unterschiedliche Ansichten über die grundlegende Natur der Wahrscheinlichkeit haben:
- Objektivisten Weisen Sie Zahlen zu, um einen objektiven oder physischen Zustand zu beschreiben. Die beliebteste Version der objektiven Wahrscheinlichkeit ist Häufige Wahrscheinlichkeit, was behauptet, dass die Wahrscheinlichkeit eines zufälligen Ereignisses die bezeichnet relative Häufigkeit des Auftretens des Ergebnisses eines Experiments, wenn das Experiment auf unbestimmte Zeit wiederholt wird. Diese Interpretation betrachtet die Wahrscheinlichkeit als relative Frequenz "auf lange Sicht" der Ergebnisse.[4] Eine Änderung davon ist Neigungswahrscheinlichkeit, die die Wahrscheinlichkeit als die Tendenz eines Experiments interpretiert, ein bestimmtes Ergebnis zu erzielen, auch wenn es nur einmal durchgeführt wird.
- Subjektivisten Zahlen Sie Zahlen pro subjektiver Wahrscheinlichkeit zu, dh als ein gewisses Maß an Glauben.[5] Der Grad des Glaubens wurde als "der Preis, zu dem Sie eine Wette kaufen oder verkaufen, die 1 Einheit Nützlichkeit bezahlt, wenn e, wenn nicht E", gekauft oder verkaufen. "[6] Obwohl diese Interpretation nicht allgemein vereinbart ist.[7] Die beliebteste Version der subjektiven Wahrscheinlichkeit ist Bayesianische Wahrscheinlichkeit, einschließlich Expertenkenntnissen sowie experimentellen Daten zur Erzeugung von Wahrscheinlichkeiten. Das Expertenwissen wird von einigen dargestellt (subjektiv) vorherige Wahrscheinlichkeitsverteilung. Diese Daten sind in a enthalten Wahrscheinlichkeitsfunktion. Das Produkt des Priors und der Wahrscheinlichkeit, wenn sie normalisiert ist, führt zu a hintere Wahrscheinlichkeitsverteilung Das enthält alle bisher bekannten Informationen.[8] Durch Aumanns VereinbarungstheoremBayes'sche Agenten, deren frühere Überzeugungen ähnlich sind, werden ähnliche posterioren Überzeugungen haben. Ausreichend unterschiedliche Priors können jedoch zu unterschiedlichen Schlussfolgerungen führen, unabhängig davon, wie viele Informationen die Agenten teilen.[9]
Etymologie
Das Wort Wahrscheinlichkeit abgeleitet Aus dem Latein Probabilitas, was auch "Wahrscheinlichkeit" bedeuten kann, ein Maß der Behörde von a Zeuge in einem Rechtsfall in Europaund oft mit dem Zeugen korreliert Adel. In gewissem Sinne unterscheidet sich dies sehr von der modernen Bedeutung von Wahrscheinlichkeit, was dagegen ein Maß für das Gewicht von ist empirische Evidenzund ist von angekommen aus Induktiver Argumentation und statistische Inferenz.[10]
Geschichte
Die wissenschaftliche Untersuchung der Wahrscheinlichkeit ist eine moderne Entwicklung von Mathematik. Glücksspiel zeigt, dass es ein Interesse an der Quantifizierung der Ideen der Wahrscheinlichkeit von Jahrtausenden gab, aber genaue mathematische Beschreibungen entstanden viel später. Es gibt Gründe für die langsame Entwicklung der Mathematik der Wahrscheinlichkeit. Während der Zufallsspiele den Impuls für die mathematische Untersuchung der Wahrscheinlichkeit, grundlegende Probleme darstellten [Anmerkung 2] werden immer noch durch den Aberglauben der Spieler verdeckt.[11]
Entsprechend Richard Jeffrey, "Vor der Mitte des 17. Jahrhunderts, der Begriff" wahrscheinlich "(lateinisch" probabilis) gemeint zustimmbarund wurde in diesem Sinne univokal, auf die Meinung und auf Handlung angewendet. Eine wahrscheinliche Handlung oder Meinung war unter den Umständen eine, wie ein vernünftiges Volk ausführen oder halten würde. "[12] Insbesondere in rechtlichen Kontexten könnte jedoch auch "wahrscheinliche" für Vorschläge gelten, für die es gute Beweise gab.[13]
Das 16. Jahrhundert Italienisch Polymath Gerolamo Cardano zeigte die Wirksamkeit der Definition Chancen als das Verhältnis von günstig zu ungünstigen Ergebnissen (was bedeutet, dass die Wahrscheinlichkeit eines Ereignisses durch das Verhältnis der günstigen Ergebnisse zur Gesamtzahl der möglichen Ergebnisse angegeben ist[14]). Abgesehen von der elementaren Arbeit von Cardano stammt die Lehre der Wahrscheinlichkeiten für die Korrespondenz von Pierre de Fermat und Blaise Pascal (1654). Christiaan Huygens (1657) gaben die früheste bekannte wissenschaftliche Behandlung des Subjekts.[15] Jakob Bernoulli's Ars Conjectandi (posthum, 1713) und Abraham de Moivre's Chancenlehre (1718) behandelten das Thema als Zweig der Mathematik.[16] Sehen Ian Hacking's Das Aufkommen der Wahrscheinlichkeit[10] und James Franklins Die Wissenschaft der Vermutung[17] Für die Geschichte der frühen Entwicklung des Konzepts der mathematischen Wahrscheinlichkeit.
Das Fehlertheorie kann zurückverfolgt werden Roger Cotes's Opera Miscellanea (posthum, 1722), aber ein Memoir Thomas Simpson 1755 (gedruckt 1756) wandte die Theorie zunächst auf die Diskussion über Beobachtungsfehler an.[18] Der Nachdruck (1757) dieser Memoiren legt die Axiome fest, dass positive und negative Fehler gleichermaßen wahrscheinlich sind und dass bestimmte zuweisbare Grenzwerte den Bereich aller Fehler definieren. Simpson diskutiert auch kontinuierliche Fehler und beschreibt eine Wahrscheinlichkeitskurve.
Die ersten beiden Fehlergesetze, von denen beide vorgeschlagen wurden, stammten aus Pierre-Simon Laplace. Das erste Gesetz wurde 1774 veröffentlicht und erklärte, dass die Häufigkeit eines Fehlers als exponentielle Funktion der numerischen Größe des Fehlers ausgedrückt werden könnte - das Unterscheidungszeichen. Das zweite Fehler des Fehlers wurde 1778 von Laplace vorgeschlagen und erklärte, dass die Häufigkeit des Fehlers eine exponentielle Funktion des Quadrats des Fehlers ist.[19] Das zweite Fehler des Fehlers wird als Normalverteilung oder das Gauß -Gesetz bezeichnet. "Es ist historisch schwierig, dieses Gesetz Gauß zuzuschreiben, das trotz seiner bekannten Präkizität diese Entdeckung wahrscheinlich nicht vor seinem zweijährigen Lebensjahr gemacht hat."[19]
Daniel Bernoulli (1778) führten das Prinzip des maximalen Produkts der Wahrscheinlichkeiten eines Systems gleichzeitiger Fehler ein.
Adrien-Marie Legendre (1805) entwickelten die Methode der kleinsten Quadrateund stellte es in seine vor Nouvelles Méthodes Posen (Neue Methoden zur Bestimmung der Umlaufbahnen von Kometen).[20] In der Unkenntnis des Beitrags von Legendre, einem irisch-amerikanischen Schriftsteller, Robert Adrain, Herausgeber von "The Analyst" (1808), leitete zunächst das Gesetz der Fehlereinrichtung ab,
wo ist eine Konstante, abhängig von der Präzision der Beobachtung, und ist ein Skalierungsfaktor, der sicherstellt, dass die Fläche unter der Kurve 1 entspricht. John Herschel's (1850). Gauß gab den ersten Beweis, der in Europa (der dritte nach Adrain's) im Jahr 1809 bekannt gewesen zu sein scheint. Weitere Beweise wurden von Laplace (1810, 1812), Gauß (1823), gegeben. James Ivory (1825, 1826), Hagen (1837), Friedrich Bessel (1838), W.F. Donkin (1844, 1856) und Morgan Crofton (1870). Andere Mitwirkende waren Ellis (1844), De Morgan (1864), Glaisher (1872) und Giovanni Schiparelli (1875). Peters's (1856) Formel[Klarstellung erforderlich] zum r, das Wahrscheinlicher Fehler einer einzigen Beobachtung ist bekannt.
Im neunzehnten Jahrhundert umfasste Autoren über die allgemeine Theorie Laplace, Sylvestre Lacroix (1816), Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion und Karl Pearson. Augustus de Morgan und George Boole verbesserte die Darstellung der Theorie.
Im Jahr 1906, Andrey Markov eingeführt[21] der Begriff von Markov -Ketten, was eine wichtige Rolle in der stochastische Prozesse Theorie und ihre Anwendungen. Die moderne Wahrscheinlichkeitstheorie basiert auf dem Theorie messen wurde entwickelt von Andrey Kolmogorov 1931.[22]
Auf der geometrischen Seite, Mitwirkende zu Die Bildungszeiten waren einflussreich (Miller, Crofton, McColl, Wolstenholme, Watson und Artemas Martin).[23] Sehen Integrale Geometrie Für mehr Information.
Theorie
Wie andere Theorien, das Wahrscheinlichkeitstheorie ist eine Darstellung seiner Konzepte in formalen Begriffen - dh in Begriffen, die getrennt von ihrer Bedeutung berücksichtigt werden können. Diese formalen Begriffe werden durch die Regeln der Mathematik und Logik manipuliert, und alle Ergebnisse werden interpretiert oder wieder in die Problemdomäne übersetzt.
Es gab mindestens zwei erfolgreiche Versuche, die Wahrscheinlichkeit zu formalisieren, nämlich die Kolmogorov Formulierung und die Cox Formulierung. In Kolmogorovs Formulierung (siehe auch Wahrscheinlichkeitsraum), Sets werden als interpretiert wie Veranstaltungen und Wahrscheinlichkeit als messen auf einer Klasse von Sets. Im Coxs TheoremDie Wahrscheinlichkeit wird als primitiv (d. H. Nicht weiter analysiert) angesehen, und der Schwerpunkt liegt auf der Konstruktion einer konsistenten Zuordnung von Wahrscheinlichkeitswerten zu Propositionen. In beiden Fällen die Wahrscheinlichkeitsgesetze sind die gleichen, außer technischen Details.
Es gibt andere Methoden zur Quantifizierung der Unsicherheit, wie die Dempster -Shafer -Theorie oder Möglichkeitstheorie, aber diese sind im Wesentlichen unterschiedlich und nicht mit den normalerweise verstärkten Wahrscheinlichkeitsgesetzen kompatibel.
Anwendungen
Wahrscheinlichkeitstheorie wird im Alltag angewendet Risiko Bewertung und Modellieren. Die Versicherungsbranche und Märkte verwenden Versicherungsmathematik Preisgestaltung zu bestimmen und Handelsentscheidungen zu treffen. Regierungen wenden probabilistische Methoden an Umweltregulation, Anspruchsanalyse und finanzielle Regulation.
Ein Beispiel für die Verwendung der Wahrscheinlichkeitstheorie im Aktienhandel ist die Auswirkung der wahrgenommenen Wahrscheinlichkeit eines weit verbreiteten Konflikts im Nahen Osten auf die Ölpreise, die in der gesamten Wirtschaft auswirken. Eine Einschätzung eines Rohstoffhändlers, dass ein Krieg eher die Preise dieser Ware nach oben oder gesenkt hat und andere Händler dieser Meinung signalisiert. Dementsprechend werden die Wahrscheinlichkeiten weder unabhängig noch unbedingt rational bewertet. Die Theorie von Verhaltensfinanzierung tauchte auf, um die Wirkung solcher zu beschreiben Groupthink zu Preisgestaltung, über Politik und zu Frieden und Konflikt.[24]
Zusätzlich zur finanziellen Bewertung kann die Wahrscheinlichkeit verwendet werden, um Trends in der Biologie (z. B. Krankheitsverbreitung) sowie Ökologie (z. B. biologische Punnett -Quadrate) zu analysieren. Wie bei der Finanzierung kann die Risikobewertung als statistisches Instrument zur Berechnung der Wahrscheinlichkeit von unerwünschten Ereignissen verwendet werden, die auftreten, und kann bei der Implementierung von Protokollen helfen, um zu vermeiden, dass solche Umstände auftreten. Wahrscheinlichkeit wird zum Entwerfen verwendet Glücksspiele Damit Casinos einen garantierten Gewinn erzielen können, aber Spielern, die häufig genug sind, um das fortgesetzte Spiel zu fördern.[25]
Eine weitere signifikante Anwendung der Wahrscheinlichkeitstheorie im Alltag ist Verlässlichkeit. Viele Konsumgüterprodukte, wie z. Automobile und Unterhaltungselektronik, verwenden Sie die Zuverlässigkeitstheorie im Produktdesign, um die Ausfallwahrscheinlichkeit zu verringern. Die Ausfallwahrscheinlichkeit kann die Entscheidungen eines Herstellers auf dem Produkt beeinflussen Garantie.[26]
Das Cache -Sprachmodell und andere Statistische Sprachmodelle das werden in verwendet Verarbeitung natürlicher Sprache sind auch Beispiele für Anwendungen der Wahrscheinlichkeitstheorie.
Mathematische Behandlung
Betrachten Sie ein Experiment, das eine Reihe von Ergebnissen erzielen kann. Die Sammlung aller möglichen Ergebnisse heißt die Probenraum des Experiments, manchmal als bezeichnet als . Das Leistungssatz des Stichprobenraums werden durch Berücksichtigung aller verschiedenen Sammlungen möglicher Ergebnisse gebildet. Zum Beispiel kann das Rollen eines Würfels sechs mögliche Ergebnisse erzielen. Eine Sammlung möglicher Ergebnisse ergibt eine ungerade Zahl auf dem Würfel. Somit ist die Teilmenge {1,3,5} ein Element der Leistungssatz des Probenraums der Würfelrollen. Diese Sammlungen werden als "Ereignisse" bezeichnet. In diesem Fall ist {1,3,5} das Ereignis, dass der Diesträger auf eine ungerade Zahl fällt. Wenn die Ergebnisse, die tatsächlich auftreten, in einem bestimmten Ereignis fallen, soll das Ereignis aufgetreten sein.
Eine Wahrscheinlichkeit ist a Zuordnungsweise Jedes Ereignis ein Wert zwischen Null und eins, mit der Anforderung, dass das Ereignis aus allen möglichen Ergebnissen (in unserem Beispiel dem Ereignis {1,2,3,4,5,6}) ein Wert von einem zugewiesen wird. Um als Wahrscheinlichkeit zu qualifizieren, muss die Zuordnung von Werten die Anforderung erfüllen, dass für jede Sammlung von gegenseitig ausschließlichen Ereignissen (Ereignisse ohne gemeinsame Ergebnisse, wie die Ereignisse {1,6}, {3} und {2,4}) Die Wahrscheinlichkeit, dass mindestens eines der Ereignisse auftreten, erfolgt durch die Summe der Wahrscheinlichkeiten aller einzelnen Ereignisse.[27]
Die Wahrscheinlichkeit eines Veranstaltung A ist geschrieben als ,[28] , oder .[29] Diese mathematische Definition der Wahrscheinlichkeit kann sich auf unendliche Stichprobenräume und sogar unzählige Probenräume unter Verwendung des Konzepts eines Maßes erstrecken.
Das Gegenteil oder ergänzen einer Veranstaltung A ist die Veranstaltung [nicht A] (das heißt, das Ereignis von A nicht auftreten), oft als bezeichnet als , , oder ; seine Wahrscheinlichkeit ist gegeben durch P(nicht A) = 1 - P(A).[30] Beispiel 1 - (Chance, sechs zu rollen) . Für eine umfassendere Behandlung siehe Komplementäres Ereignis.
Wenn zwei Ereignisse A und B auf einer einzigen Leistung eines Experiments auftreten, dies wird als Kreuzung oder als Kreuzung bezeichnet oder Gelenkwahrscheinlichkeit von A und B, bezeichnet als .
Unabhängige Ereignisse
Wenn zwei Ereignisse, A und B sind unabhängig Dann ist die Gelenkwahrscheinlichkeit[28]
Wenn zum Beispiel zwei Münzen umgedreht werden, besteht die Wahrscheinlichkeit, dass beide Köpfe sind .[31]
Gegenseitig ausschließende Ereignisse
Wenn beide Ereignisse A oder Veranstaltung B kann auftreten, aber niemals beide gleichzeitig, dann werden sie als gegenseitig ausschließliche Ereignisse bezeichnet.
Wenn zwei Ereignisse sind gegenseitig exklusivdann die Wahrscheinlichkeit von beide Auftreten wird als bezeichnet als als und
Wenn zwei Ereignisse sind gegenseitig exklusivdann die Wahrscheinlichkeit von entweder Auftreten wird als bezeichnet als als und
Zum Beispiel die Wahrscheinlichkeit, 1 oder 2 auf einen sechsseitigen Rollen zu rollen sterben ist
Keine gegenseitig ausschließlichen Ereignisse
Wenn sich die Ereignisse nicht gegenseitig ausschließen, dann dann
Zum Beispiel ist beim Zeichnen einer Karte aus einem Kartenspiel, die Wahrscheinlichkeit, ein Herz oder eine Gesichtskarte (j, q, k) (oder beides) zu bekommen Da unter den 52 Karten eines Decks 13 Herzen sind, sind 12 Gesichtskarten und 3: Hier sind die Möglichkeiten in den "3, die beide" in jedem der "13 Herzen" und in den "12 enthalten sind Gesichtskarten ", sollte aber nur einmal gezählt werden.
Bedingte Wahrscheinlichkeit
Bedingte Wahrscheinlichkeit ist die Wahrscheinlichkeit eines Ereignisses A, angesichts des Auftretens eines anderen Ereignisses B. Die bedingte Wahrscheinlichkeit wird geschrieben und wird gelesen "die Wahrscheinlichkeit von A, gegeben B". Es ist definiert von[32]
Wenn dann ist formell nicht definiert durch diesen Ausdruck. In diesem Fall und sind unabhängig, seitdem . Es ist jedoch möglich, eine bedingte Wahrscheinlichkeit für einige Null-Wahrnehmungs-Ereignisse mit a zu definieren σ-Algebra solcher Ereignisse (z. B. solche, die aus a entstehen kontinuierliche Zufallsvariable).[33]
Zum Beispiel ist in einer Tasche mit 2 roten Kugeln und 2 blauen Bällen (insgesamt 4 Kugeln) die Wahrscheinlichkeit, einen roten Ball zu nehmen ; Bei einer zweiten Kugel hängt die Wahrscheinlichkeit jedoch entweder ein roter Ball oder ein blauer Ball von dem zuvor genommenen Ball ab. Wenn zum Beispiel ein roter Ball genommen würde, wäre die Wahrscheinlichkeit, einen roten Ball erneut auszuwählen , da nur 1 rote und 2 blaue Bälle übrig gewesen wären. Und wenn zuvor ein blauer Ball eingenommen wurde, ist die Wahrscheinlichkeit, einen roten Ball zu nehmen .
Umgekehrte Wahrscheinlichkeit
Im Wahrscheinlichkeitstheorie und Anwendungen, Bayes 'Regel bezeichnet die Chancen der Veranstaltung zu ereignen vor (vor) und nach (posterior zu) Konditionierung auf einer anderen Veranstaltung . Die Chancen auf zu ereignen ist einfach das Verhältnis der Wahrscheinlichkeiten der beiden Ereignisse. Wenn willkürlich viele Ereignisse sind von Interesse, nicht nur zwei, die Regel kann als umformuliert werden hinter sich ist proportional zur Vorlieben der vorherigen Zeiten, wobei das Verhältnismäßigkeitsymbol bedeutet, dass die linke Seite proportional zu (d. H. entspricht einer konstanten Zeiten) der rechten Seite als variiert für fest oder gegeben (Lee, 2012; Bertsch McGrayne, 2012). In dieser Form geht es zurück zu Laplace (1774) und zu Cournot (1843); Siehe Fienberg (2005). Sehen Umgekehrte Wahrscheinlichkeit und Bayes 'Regel.
Zusammenfassung der Wahrscheinlichkeiten
Vorfall | Wahrscheinlichkeit |
---|---|
A | |
kein | |
A oder B | |
A und B | |
A gegeben b |
Beziehung zur Zufälligkeit und Wahrscheinlichkeit in der Quantenmechanik
In einem deterministisch Universum basierend auf Newtonian Konzepte würden keine Wahrscheinlichkeit geben, wenn alle Bedingungen bekannt wären (Laplaces Dämon), (aber es gibt Situationen, in denen Empfindlichkeit gegenüber Anfangsbedingungen überschreitet unsere Fähigkeit, sie zu messen, d. H. Sie zu kennen). Im Fall von a Roulette Rad, wenn die Handkraft der Hand und die Periode dieser Kraft bekannt wäre, wäre die Zahl, auf die der Ball stoppt genau geebnet - als Thomas A. Bass ' Newtonian Casino aufgedeckt). Dies setzt auch die Kenntnis der Trägheit und Reibung des Rades, des Gewichts, der Glättung und der Rundheit des Balls, der Variationen der Handgeschwindigkeit während der Drehung und so weiter voraus. Eine probabilistische Beschreibung kann somit nützlicher sein als die Newtonsche Mechanik zur Analyse des Ergebnisses der Ergebnisse wiederholter Rollen eines Roulette -Rades. Physiker sind in der gleichen Situation ausgesetzt kinetische Gasentheorie, wo das System deterministisch ist allgemein gesagt, ist so komplex (mit der Anzahl der Moleküle typischerweise die Größenordnung der Größenordnung Avogadro konstant 6.02×1023) dass nur eine statistische Beschreibung seiner Eigenschaften machbar ist.
Wahrscheinlichkeitstheorie ist erforderlich, um Quantenphänomene zu beschreiben.[34] Eine revolutionäre Entdeckung des frühen 20. Jahrhunderts Physik war der zufällige Charakter aller physikalischen Prozesse, die auf subatomarer Ebene auftreten und durch die Gesetze von bestimmt werden Quantenmechanik. Das Ziel Wellenfunktion entwickelt deterministisch, aber nach dem Kopenhagen -InterpretationEs handelt sich um Wahrscheinlichkeiten der Beobachtung, wobei das Ergebnis durch a erklärt wird Wellenfunktion bricht Wenn eine Beobachtung gemacht wird. Der Verlust von jedoch Determinismus um ... Willen Instrumentalismus Treffe nicht mit universeller Zustimmung. Albert Einstein berühmt in einem Brief an bemerkt Max geboren: "Ich bin überzeugt, dass Gott keine Würfel spielt".[35] Wie Einstein, Erwin Schrödinger, wer entdeckt Die Wellenfunktion glaubte die Quantenmechanik a statistisch Annäherung einer zugrunde liegenden deterministisch Wirklichkeit.[36] In einigen modernen Interpretationen der statistischen Messmechanik,, Quantenentkohlenhärtung wird angerufen, um das Erscheinen subjektiv probabilistischer experimenteller Ergebnisse zu berücksichtigen.
Siehe auch
- Zufall (Disambiguierung)
- Klassenmitgliedschaftswahrscheinlichkeiten
- Kontingenz
- Equiprobability
- Heuristiken in Bezug auf Urteilsvermögen und Entscheidungsfindung
- Wahrscheinlichkeitstheorie
- Zufälligkeit
- Statistiken
- Schätzer
- Schätztheorie
- Wahrscheinlichkeitsdichtefunktion
- Paarweise Unabhängigkeit
- Vor dem Gesetz
Anmerkungen
- ^ Streng genommen zeigt eine Wahrscheinlichkeit von 0 ein Ereignis fast noch nie findet statt, während eine Wahrscheinlichkeit von 1 angibt als ein Ereignis fast sicherlich stattfinden. Dies ist eine wichtige Unterscheidung, wenn die Probenraum ist unendlich. Zum Beispiel für die kontinuierliche einheitliche Verteilung auf der real Intervall [5, 10], es gibt eine unendliche Anzahl möglicher Ergebnisse, und die Wahrscheinlichkeit, dass ein bestimmtes Ergebnis beobachtet wird - zum Beispiel genau 7 - ist 0. Dies bedeutet, dass dies, wenn wir eine Beobachtung machen, dies wird fast sicher nicht Seien Sie genau 7. jedoch, es tut es jedoch nicht bedeutet, dass genau 7 ist unmöglich. Letztendlich werden ein spezifisches Ergebnis (mit Wahrscheinlichkeit 0) beobachtet, und eine Möglichkeit für dieses spezifische Ergebnis beträgt genau 7.
- ^ Im Kontext des Buches, aus dem dies zitiert wird, ist es die Wahrscheinlichkeitstheorie und die Logik dahinter, die die Phänomene solcher Dinge im Vergleich zu Hautvorhersagen regelt, die auf reinem Glück oder mythologischen Argumenten wie Götter des Glücks hilft, dem Gewinner zu helfen, des Spiels.
Verweise
- ^ "Kendalls fortgeschrittene Theorie der Statistik, Band 1: Verteilungstheorie", Alan Stuart und Keith Ord, 6. ED, (2009), ISBN978-0-534-24312-8.
- ^ William Feller, Eine Einführung in die Wahrscheinlichkeitstheorie und ihre Anwendungen, (Band 1), 3. ED, (1968), Wiley, ISBN0-471-25708-7.
- ^ Wahrscheinlichkeitstheorie Die Britannica -Website
- ^ Hacking, Ian (1965). Die Logik der statistischen Schlussfolgerung. Cambridge University Press. ISBN 978-0-521-05165-1.[Seite benötigt]
- ^ Finetti, Bruno de (1970). "Logische Grundlagen und Messung der subjektiven Wahrscheinlichkeit". Acta Psychologica. 34: 129–145. doi:10.1016/0001-6918 (70) 90012-0.
- ^ Hájek, Alan (21. Oktober 2002). Edward N. Zalta (Hrsg.). "Interpretationen der Wahrscheinlichkeit". Die Stanford -Enzyklopädie der Philosophie (Winter 2012 ed.). Abgerufen 22. April 2013.
- ^ Jaynes, E.T. (2003). "Abschnitt A.2 Das De -Finetti -System der Wahrscheinlichkeit". In Bretthorst, G. Larry (Hrsg.). Wahrscheinlichkeitstheorie: Die Logik der Wissenschaft (1 ed.). Cambridge University Press. ISBN 978-0-521-59271-0.
- ^ Hogg, Robert V.; Craig, Allen; McKean, Joseph W. (2004). Einführung in die mathematische Statistik (6. Aufl.). Upper Saddle River: Pearson. ISBN 978-0-13-008507-8.[Seite benötigt]
- ^ Jaynes, E.T. (2003). "Abschnitt 5.3 Konvergierende und divergierende Ansichten". In Bretthorst, G. Larry (Hrsg.). Wahrscheinlichkeitstheorie: Die Logik der Wissenschaft (1 ed.). Cambridge University Press. ISBN 978-0-521-59271-0.
- ^ a b Hacking, I. (2006) Das Auftreten der Wahrscheinlichkeit: Eine philosophische Studie zu frühen Vorstellungen von Wahrscheinlichkeit, Induktion und statistischer Inferenz, Cambridge University Press, ISBN978-0-521-68557-3[Seite benötigt]
- ^ Freund, John. (1973) Einführung in die Wahrscheinlichkeit. Dickenson ISBN978-0-8221-0078-2 (S. 1)
- ^ Jeffrey, R.C., Wahrscheinlichkeit und Kunst des Urteils, Cambridge University Press. (1992). S. 54–55. ISBN0-521-39459-7
- ^ Franklin, J. (2001) Die Wissenschaft der Vermutung: Beweise und Wahrscheinlichkeit vor Pascal, Johns Hopkins University Press. (S. 22, 113, 127)
- ^ "Einige Gesetze und Probleme in der klassischen Wahrscheinlichkeit und wie Cardano sie vorhersehte Gorrochum, P. Chance Magazin 2012 " (PDF).
- ^ Abrams, William, Eine kurze Geschichte der Wahrscheinlichkeit, Zweiter Moment, abgerufen 23. Mai 2008
- ^ Ivancevic, Vladimir G.; Ivancevic, Tijana T. (2008). Quantensprung: Von Dirac und Feynman über das Universum bis hin zu menschlichem Körper und Geist. Singapur; Hackensack, NJ: World Scientific. p. 16. ISBN 978-981-281-927-7.
- ^ Franklin, James (2001). Die Wissenschaft der Vermutung: Beweise und Wahrscheinlichkeit vor Pascal. Johns Hopkins University Press. ISBN 978-0-8018-6569-5.
- ^ Schuheschmied, Eddie (November 1985). "Thomas Simpson und das arithmetische Mittel". Historia Mathematica. 12 (4): 352–355. doi:10.1016/0315-0860 (85) 90044-8.
- ^ a b Wilson EB (1923) "Erste und zweite Fehlergesetze". Zeitschrift der American Statistical Association, 18, 143
- ^ Seneta, Eugene William. ""Adrien-Marie Legendre" (Version 9) ". STATPROB: Die von Statistik und Wahrscheinlichkeitsgesellschaften gesponserte Enzyklopädie. Archiviert von das Original am 3. Februar 2016. Abgerufen 27. Januar 2016.
- ^ Weber, Richard. "Markov -Ketten" (PDF). Statistisches Labor. Universität von Cambridge.
- ^ Vitanyi, Paul M.B. (1988). "Andrei Nikolaevich Kolmogorov". CWI vierteljährlich (1): 3–18. Abgerufen 27. Januar 2016.
- ^ Wilcox, Rand R. (10. Mai 2016). Grundlegende statistische Methoden mit R verstehen und anwenden. Hoboken, New Jersey. ISBN 978-1-119-06140-3. OCLC 949759319.
- ^ Singh, Laurie (2010) "Wohin effiziente Märkte? Effiziente Markttheorie und Verhaltensfinanzierung". Die Finanzprofis -Post, 2010.
- ^ Gao, J.Z.; Fong, D.; Liu, X. (April 2011). "Mathematische Analysen von Casino -Rabattsystemen für VIP -Glücksspiel". Internationale Glücksspielstudien. 11 (1): 93–106. doi:10.1080/14459795.2011.552575. S2CID 144540412.
- ^ Gorman, Michael F. (2010). "Management Insights". Managementwissenschaft. 56: IV - VII. doi:10.1287/mnsc.1090.1132.
- ^ Ross, Sheldon M. (2010). Ein erster Kurs in Wahrscheinlichkeit (8. Aufl.). Pearson Prentice Hall. S. 26–27. ISBN 9780136033134.
- ^ a b Weisstein, Eric W. "Wahrscheinlichkeit". mathworld.wolfram.com. Abgerufen 10. September 2020.
- ^ Olofsson (2005) p. 8.
- ^ Olofsson (2005), p. 9
- ^ Olofsson (2005) p. 35.
- ^ Olofsson (2005) p. 29.
- ^ "Bedingte Wahrscheinlichkeit in Bezug auf eine Sigma-Algebra". www.statlect.com. Abgerufen 4. Juli 2022.
- ^ Burgin, Mark (2010). "Interpretationen negativer Wahrscheinlichkeiten". p. 1. Arxiv:1008.1287v1 [Physik.dataan].
- ^ JedenFalls bin iCh überzaugt, Daß der Alte Nick Würfelt. Brief an Max geboren, 4. Dezember 1926, in: Einstein/geboren Briefwechsel 1916–1955.
- ^ Moore, W. J. (1992). Schrödinger: Leben und Denken. Cambridge University Press. p. 479. ISBN 978-0-521-43767-7.
Literaturverzeichnis
- Kallenberg, O. (2005) Probabilistische Symmetrien und Invarianzprinzipien. Springer-Verlag, New York. 510 pp. ISBN0-387-25115-4
- Kallenberg, O. (2002) Grundlagen der modernen Wahrscheinlichkeit, 2. Aufl. Springer -Serie in Statistik. 650 pp. ISBN0-387-95313-2
- Olofsson, Peter (2005) Wahrscheinlichkeit, Statistik und stochastische Prozesse, Wiley-Interscience. 504 pp ISBN0-471-67969-0.
Externe Links
- Virtuelle Laboratorien in Wahrscheinlichkeit und Statistik (Univ. Von Ala.-Huntsville)
- Wahrscheinlichkeit an In unserer Zeit Bei der BBC
- Wahrscheinlichkeit und Statistik eBook
- Edwin Thompson Jaynes. Wahrscheinlichkeitstheorie: Die Logik der Wissenschaft. Preprint: Washington University, (1996). - HTML -Index mit Links zu PostScript -Dateien und PDF (erste drei Kapitel)
- Menschen aus der Geschichte der Wahrscheinlichkeit und der Statistik (Univ. Of Southampton)
- Wahrscheinlichkeit und Statistiken zum frühesten Gebrauchseiten (Univ. Of Southampton)
- Früheste Verwendung von Symbolen in Wahrscheinlichkeit und Statistik an Früheste Verwendung verschiedener mathematischer Symbole
- Ein Tutorial über Wahrscheinlichkeit und Bayes 'Theorem wurde für Studenten der Oxford University im ersten Jahr entwickelt
- [1] PDF -Datei von Eine Anthologie der zufälligen Operationen (1963) bei Ubuweb
- Einführung in die Wahrscheinlichkeit - eBookvon Charles Grinstead, Laurie Snell Quelle Archiviert 25. März 2012 bei der Wayback -Maschine (GNU kostenlose Dokumentationslizenz)
- (in Englisch und Italienisch) Bruno de Finetti, Probabilità e Induzione, Bologna, Clueb, 1993. ISBN88-8091-176-7 (digitale Version)
- Richard Feynmans Vortrag über die Wahrscheinlichkeit.