Bayes' theorem

Im Wahrscheinlichkeitstheorie und Statistiken, Bayes 'Theorem (Alternative Bayes 'Gesetz oder Bayes 'Regel; in letzter Zeit Bayes -Price -Theorem[1]: 44–46, 67), benannt nach Thomas Bayes, beschreibt die Wahrscheinlichkeit von einem Veranstaltung, basierend auf Vorkenntnissen über Bedingungen, die mit dem Ereignis zusammenhängen könnten.[2] Wenn das Risiko, Gesundheitsprobleme zu entwickeln Typisch für die gesamte Bevölkerung.
Eine der vielen Anwendungen des Bayes -Theorems ist Bayes'sche Inferenz, ein besonderer Ansatz zu statistische Inferenz. Bei der Anwendung können die im Theorem verbundenen Wahrscheinlichkeiten unterschiedlich sein Wahrscheinlichkeitsinterpretationen. Mit Bayesianische Wahrscheinlichkeit Interpretation drückt der Satz aus, wie sich ein Grad an Glauben, der als Wahrscheinlichkeit ausgedrückt wird, rational ändern sollte, um die Verfügbarkeit verwandter Beweise zu berücksichtigen. Bayes'sche Inferenz ist von grundlegender Bedeutung für Bayes'sche Statistik, betrachtet "für die Wahrscheinlichkeitstheorie, was Pythagoras 'Theorem für die Geometrie ist".[3]
Aussage des Satzes
Bayes 'Theorem wird mathematisch als folgende Gleichung angegeben:[4]
wo und sind Veranstaltungen und .
- ist ein bedingte Wahrscheinlichkeit: Die Wahrscheinlichkeit des Ereignisses auftreten, wenn dies vorkommt ist wahr. Es wird auch das genannt hintere Wahrscheinlichkeit von gegeben .
- ist auch eine bedingte Wahrscheinlichkeit: die Wahrscheinlichkeit des Ereignisses auftreten, wenn dies vorkommt ist wahr. Es kann auch als die interpretiert werden Wahrscheinlichkeit von bei einem festen Weil .
- und sind die Wahrscheinlichkeiten der Beobachtung und jeweils ohne bestimmte Bedingungen; Sie sind als die bekannt Grenzwahrscheinlichkeit oder vorherige Wahrscheinlichkeit.
Nachweisen
Für Ereignisse
Bayes 'Theorem kann aus der Definition von abgeleitet werden bedingte Wahrscheinlichkeit:
wo ist die Wahrscheinlichkeit, dass A und B wahr ist. Ähnlich,
Lösung für und in den obigen Ausdruck einsetzen Ergibt Bayes 'Theorem:
Für kontinuierliche Zufallsvariablen
Für zwei kontinuierlich zufällige Variablen X und Y, Bayes 'Theorem kann analog aus der Definition von abgeleitet werden bedingte Dichte:
Deswegen,
Allgemeiner Fall
Lassen die bedingte Verteilung von sein gegeben und lass die Verteilung von sein . Die gemeinsame Verteilung ist dann . Die bedingte Verteilung von gegeben wird dann durch bestimmt von
Existenz und Einzigartigkeit der Notwendigkeit Bedingte Erwartung ist eine Folge der Radon-Nikody-Theorem. Dies wurde durch formuliert Kolmogorov In seinem berühmten Buch aus dem Jahr 1933 unterstreicht Kolmogorov die Bedeutung der bedingten Wahrscheinlichkeit, indem ich schreibe: Ich möchte auf ... und insbesondere die Theorie der bedingten Wahrscheinlichkeiten und bedingten Erwartungen aufmerksam machen ... 'im Vorwort.[5] Der Bayes -Theorem bestimmt die hintere Verteilung aus der vorherigen Verteilung. Das Bayes -Theorem kann verallgemeinert werden, um unsachgemäße frühere Verteilungen wie die einheitliche Verteilung auf der realen Linie einzuschließen.[6] Die modernen Markov -Kette Monte Carlo -Methoden haben die Bedeutung des Bayes -Theorems, einschließlich Fällen mit unsachgemäßen Priors, erhöht.[7]
Beispiele
Freizeitmathematik
Bayes 'Regel und Computing bedingte Wahrscheinlichkeiten Bieten Sie eine Lösungsmethode für eine Reihe beliebter Rätsel, wie die Drei Gefangenenprobleme, das Monty Hall Problem, das Zwei Kinderprobleme und die Zwei Umschläge.
Drogentest

Angenommen, ein bestimmter Test dafür, ob jemand Cannabis verwendet hat, beträgt 90% empfindlich, bedeutet die wahre positive Rate (TPR) = 0,90. Daher führt dies zu 90% echten positiven Ergebnissen (korrekte Identifizierung des Drogenkonsums) für Cannabiennutzer.
Der Test beträgt auch 80% Spezifisch, Bedeutung wahre negative Rate (TNR) = 0,80. Daher identifiziert der Test korrekt 80% der Nichtverwendungen für Nicht-Benutzer, erzeugt aber auch 20% falsch positive Ergebnisse, oder Falsche positive Rate (FPR) = 0,20, für Nichtbenutzer.
Angenommen 0,05 Häufigkeit, was bedeutet, dass 5% der Menschen Cannabis verwenden, was ist die Wahrscheinlichkeit Dass eine zufällige Person, die positiv testet, wirklich ein Cannabis -Benutzer ist?
Das Positiv vorhergesagter Wert (PPV) eines Tests ist der Anteil der Personen, die tatsächlich positiv positiv sind und aus einer Stichprobe berechnet werden können:
- Ppv = wahres positiv / getestet positiv
Wenn Empfindlichkeit, Spezifität und Prävalenz bekannt sind, kann PPV unter Verwendung von Bayes Theorem berechnet werden. Lassen bedeuten "die Wahrscheinlichkeit, dass jemand ein Cannabisbenutzer ist, da er positiv testet", was unter PPV zu verstehen ist. Wir können schreiben:
Die Tatsache, dass ist eine direkte Anwendung der Gesetz der Gesamtwahrscheinlichkeit. In diesem Fall heißt es, dass die Wahrscheinlichkeit, dass jemand positiv testet . Dies gilt, weil der Benutzer- und Nichtbenutzer-Klassifizierungen a Aufteilung eines Satzes, nämlich die Leute, die den Drogentest machen. Dies kombiniert mit der Definition von bedingte Wahrscheinlichkeit führt in der obigen Anweisung.
Mit anderen Worten, selbst wenn jemand positiv testet, beträgt die Wahrscheinlichkeit, dass er ein Cannabis -Benutzer ist, nur 19%. Dies liegt daran .
Wenn 1.000 Menschen getestet wurden:
- 950 sind Nichtbenutzer und 190 von ihnen geben falsch positiv (0,20 × 950).
- 50 von ihnen sind Benutzer und 45 von ihnen geben wahres Positiv (0,90 × 50)
Die 1.000 Menschen liefern somit 235 positive Tests, von denen nur 45 echte Drogenkonsumenten sind, etwa 19%. Siehe Abbildung 1 für eine Abbildung unter Verwendung eines Frequenzboxs und beachten Sie, wie klein der rosa Bereich wahrer positiver Vergleich mit dem blauen Bereich der falsch positiven Ergebnisse ist.
Empfindlichkeit oder Spezifität
Die Wichtigkeit von Spezifität kann durch zeigen, dass selbst wenn die Empfindlichkeit auf 100% erhöht wird und die Spezifität bei 80% bestehen bleibt, die Wahrscheinlichkeit, dass jemand positiv ein Cannabi -Benutzer testet und die Spezifität wird auf 95%erhöht, die Wahrscheinlichkeit steigt auf 49%.
Prüfen Tatsächlich | Positiv | Negativ | Gesamt | |
---|---|---|---|---|
Benutzer | 45 | 5 | 50 | |
Nichtbenutzer | 190 | 760 | 950 | |
Gesamt | 235 | 765 | 1000 | |
90% empfindlich, 80% spezifisch, PPV = 45/235 ≈ 19% |
Prüfen Tatsächlich | Positiv | Negativ | Gesamt | |
---|---|---|---|---|
Benutzer | 50 | 0 | 50 | |
Nichtbenutzer | 190 | 760 | 950 | |
Gesamt | 240 | 760 | 1000 | |
100% empfindlich, 80% spezifisch, PPV = 50/2000 ≈ 21% |
Prüfen Tatsächlich | Positiv | Negativ | Gesamt | |
---|---|---|---|---|
Benutzer | 45 | 5 | 50 | |
Nichtbenutzer | 47 | 903 | 950 | |
Gesamt | 92 | 908 | 1000 | |
90% empfindlich, 95% spezifisch, ppv = 45/92 ≈ 49% |
Krebsrate
Selbst wenn 100% der Patienten mit Bauchspeicheldrüsenkrebs ein gewisses Symptom haben, bedeutet dies nicht, dass diese Person eine 100% ige Chance hat, Bauchspeicheldrüsenkrebs zu erleiden. Unter der Annahme, dass die Inzidenzrate von Bauchspeicheldrüsenkrebs 1/100000 beträgt, während 10/99999 gesunde Personen weltweit die gleichen Symptome aufweisen, beträgt die Wahrscheinlichkeit, Bauchspeicheldrüsenkrebs zu haben, angesichts der Symptome nur 9,1%, und die anderen 90,9% könnten "falsch positive" sein (falsch positive "(falsch positive" (falsch positive "(falsch positive" (falsch -positive "(falsche positive" (falsche positive "(falsch -positives" (falsche positive "(falsch -positives" (falsch -positives "(falsch -positives" (falsch -positives "(falsche positive" (falsch -positives "(falsche positive“ (falsch “(falsche positive" (falsche positive) das heißt fälschlicherweise Krebs zu haben; "positiv" ist ein verwirrender Begriff, wenn wie hier der Test schlechte Nachrichten gibt).
Basierend auf der Inzidenzrate zeigt die folgende Tabelle die entsprechenden Zahlen pro 100.000 Menschen.
Symptom Krebs | Ja | Nein | Gesamt | |
---|---|---|---|---|
Ja | 1 | 0 | 1 | |
Nein | 10 | 99989 | 99999 | |
Gesamt | 11 | 99989 | 100000 |
Dies kann dann verwendet werden, um die Wahrscheinlichkeit von Krebs zu berechnen, wenn Sie die Symptome haben:
Defekte Artikelrate
Bedingung Maschine | Defekt | Einwandfrei | Gesamt | |
---|---|---|---|---|
EIN | 10 | 190 | 200 | |
B | 9 | 291 | 300 | |
C | 5 | 495 | 500 | |
Gesamt | 24 | 976 | 1000 |
Eine Fabrik produziert einen Artikel mit drei Maschinen - A, B und C -, was 20%, 30%bzw. 50%seines Ausgangs ausmacht. Von den von Maschine A erzeugten Gegenstände sind 5% defekt; In ähnlicher Weise sind 3% der Artikel von Maschinen B und 1% der Maschinen C von mangelhaft. Wenn ein zufällig ausgewählter Element defekt ist, wie hoch ist die Wahrscheinlichkeit, dass es von Maschine C erzeugt wurde?
Noch einmal kann die Antwort ohne Verwendung der Formel erreicht werden, indem die Bedingungen auf eine hypothetische Anzahl von Fällen angewendet werden. Wenn die Fabrik beispielsweise 1.000 Elemente erzeugt, werden 200 von Maschine A, 300 von Maschine B und 500 von Maschine C hergestellt. Machine A produziert 5% × 200 = 10 defekte Elemente, Maschine B 3% × 300 = 9 und Maschine C 1% × 500 = 5 für insgesamt 24. Die Wahrscheinlichkeit, dass ein zufällig ausgewählter defekter Element von Maschine C produziert wurde, beträgt 5/24 (~ 20,83%).
Dieses Problem kann auch mit Bayes 'Theorem gelöst werden: let Xi bezeichnen das Ereignis, dass ein zufällig ausgewählter Artikel von der gemacht wurde i th Maschine (für i= A, b, c). Lassen Y Bezeichnen Sie das Ereignis, dass ein zufällig ausgewählter Artikel defekt ist. Dann erhalten wir die folgenden Informationen:
Wenn der Artikel von der ersten Maschine hergestellt wurde, beträgt die Wahrscheinlichkeit, dass es defekt ist, 0,05; das ist, P(Y|XA) = 0,05. Insgesamt haben wir
Um die ursprüngliche Frage zu beantworten, finden wir zuerst P(Y). Dies kann auf folgende Weise erfolgen:
Daher sind 2,4% der Gesamtleistung defekt.
Das bekommen uns das Y ist aufgetreten, und wir möchten die bedingte Wahrscheinlichkeit von berechnen XC. Von Bayes 'Theorem,
Angesichts der Tatsache, dass der Gegenstand defekt ist, beträgt die Wahrscheinlichkeit, dass es von Maschine C gemacht wurde, 5/24. Obwohl die Maschine C die Hälfte der Gesamtleistung erzeugt, erzeugt sie einen viel kleineren Teil der defekten Elemente. Daher ermöglicht das Wissen, dass das ausgewählte Element defekt war P(XC) = 1/2 nach der kleineren hinteren Wahrscheinlichkeit P(XC|Y) = 5/24.
Interpretationen

Die Interpretation der Regel von Bayes hängt von der ab Interpretation der Wahrscheinlichkeit auf die Begriffe zugeschrieben. Die beiden Hauptinterpretationen werden nachstehend beschrieben. Abbildung 2 zeigt eine geometrische Visualisierung ähnlich wie Abbildung 1. GERD Gigerenzer und Co-Autoren haben sich auf diese Weise bemüht, Bayes-Herrschaft zu unterrichten, mit besonderem Schwerpunkt darauf, sie den Ärzten beizubringen.[8] Ein Beispiel ist Will Kurts Webseite, "Bayes" Theorem mit Lego ", später in das Buch. Bayes'sche Statistiken Der unterhaltsame Weg: Statistik und Wahrscheinlichkeit mit Star Wars, Lego und Gummi Enten verstehen. Zhu und Gigerenzer haben 2006 festgestellt, dass 0% der 4., 5. und 6. Klässler Wortprobleme lösen konnten war entweder gründlich oder Null.[9]
Bayes'sche Interpretation
In dem Bayesische (oder erkenntnistheoretische) Interpretation, Wahrscheinlichkeit misst einen "Glaubensgrad". Bayes 'Theorem verbindet den Grad des Glaubens an einen Satz vor und nach Beweismittel. Angenommen, es wird angenommen, dass es mit 50% Gewissheit angenommen wird, dass eine Münze doppelt so wahrscheinlich ist, dass sie Köpfe landet wie Schwänze. Wenn die Münze mehrmals umgedreht wird und die beobachteten Ergebnisse, wird dieser Glaubensgrad wahrscheinlich steigen oder sinken, aber möglicherweise sogar je nach den Ergebnissen gleich bleiben. Für Vorschlag A und Beweise BAnwesend
- P(A), das frühere, ist der anfängliche Grad des Glaubens an A.
- P(A|B), das hintere, ist der Grad des Glaubens, nachdem sie Nachrichten integriert haben, das B ist wahr.
- der Quotient P(B|A)/P(B) repräsentiert die Unterstützung B sorgt für A.
Weitere Informationen zur Anwendung des Bayes 'Theorems unter der Bayes'schen Interpretation der Wahrscheinlichkeit finden Sie unter Bayes'sche Inferenz.
Häufige Interpretation

In dem Häufige Interpretation, Wahrscheinlichkeit misst einen "Anteil der Ergebnisse". Angenommen, ein Experiment wird mehrmals durchgeführt. P(A) ist der Anteil der Ergebnisse mit Eigentum A (der Prior) und P(B) ist der Verhältnis zur Eigenschaft B. P(B|A) ist der Anteil der Ergebnisse mit Eigentum B aus Ergebnisse mit Eigentum A, und P(A|B) ist der Anteil derjenigen mit A aus diese mitB (das hintere).
Die Rolle des Bayes -Theorems wird am besten mit Baumdiagrammen wie Abbildung 3. die beiden Diagramme die gleichen Ergebnisse verteilt A und B in entgegengesetzten Ordnungen, um die umgekehrten Wahrscheinlichkeiten zu erhalten. Bayes 'Theorem verbindet die verschiedenen Partitionierungen.
Beispiel

Ein Entomologe entdeckt, was aufgrund des Musters auf dem Rücken eine seltene sein könnte Unterart von Käfer. Volle 98% der Mitglieder der seltenen Unterart haben das Muster so P(Muster | selten) = 98%. Nur 5% der Mitglieder der gemeinsamen Unterart haben das Muster. Die seltenen Unterarten beträgt 0,1% der Gesamtbevölkerung. Wie wahrscheinlich ist der Käfer das Muster, um selten zu sein: Was ist P(Seltenes | Muster)?
Aus der erweiterten Form des Bayes 'Theorems (da jeder Käfer entweder selten oder häufig ist),
Formen
Veranstaltungen
Einfache Form
Für Ereignisse A und B, unter der Vorraussetzung, dass P(B) ≠ 0,
In vielen Anwendungen zum Beispiel in Bayes'sche Inferenz, das Ereignis B ist in der Diskussion festgelegt, und wir möchten die Auswirkungen ihrer Überzeugung an verschiedene mögliche Ereignisse berücksichtigen, wenn sie beobachtet wurden A. In einer solchen Situation der Nenner des letzten Ausdrucks, die Wahrscheinlichkeit der angegebenen Beweise B, Ist repariert; Was wir variieren wollen, ist A. Bayes 'Theorem zeigt dann, dass die hinteren Wahrscheinlichkeiten sind proportional Zum Zähler, so wird die letzte Gleichung:
In Worten ist der Hintergrund proportional zu den früheren Zeiten der Wahrscheinlichkeit.[10]
Wenn Ereignisse A1, A2, ..., sind gegenseitig ausschließend und erschöpfend, d. H. Eine davon ist mit Sicherheit auftreten, aber keine zwei können zusammen auftreten. Wir können die Verhältnismäßigkeitskonstante bestimmen, indem sie die Tatsache verwenden, dass ihre Wahrscheinlichkeiten zu einem addieren müssen. Zum Beispiel für eine bestimmte Veranstaltung A, das Ereignis A selbst und seine KomplementA sind exklusiv und erschöpfend. Bezeichnung der Konstante der Verhältnismäßigkeit durch c wir haben
Wenn wir diese beiden Formeln hinzufügen
oder
Alternative Form
Hintergrund Vorschlag | B | ¬b (nicht B) | Gesamt | |
---|---|---|---|---|
EIN | P (b | a) · p (a) = P (a | b) · p (b) | P (¬b | a) · p (a) = P (a | ¬b) · p (¬b) | P (a) | |
¬A (kein) | P (b | ¬a) · p (¬a) = P (¬a | b) · p (b) | P (¬b | ¬a) · p (¬a) = P (¬a | ¬b) · p (¬b) | P (¬a) = 1 - p (a) | |
Gesamt | P (b) | P (¬b) = 1 - p (b) | 1 |
Eine andere Form von Bayes 'Theorem für zwei konkurrierende Aussagen oder Hypothesen ist:
Für eine erkenntnistheoretische Interpretation:
Für Vorschlag A und Beweise oder Hintergrund B,[11]
- ist der vorherige Wahrscheinlichkeit, der anfängliche Grad des Glaubens an A.
- ist der entsprechende anfängliche Grad des Glaubens an kein, das A ist falsch, wo
- ist der bedingte Wahrscheinlichkeit oder Wahrscheinlichkeit, den Grad des Glaubens an B Angesichts dieses Vorschlags A ist wahr.
- ist der bedingte Wahrscheinlichkeit oder Wahrscheinlichkeit, den Grad des Glaubens an B Angesichts dieses Vorschlags A ist falsch.
- ist der hintere Wahrscheinlichkeitdie Wahrscheinlichkeit von A Nach Berücksichtigung B.
Erweiterte Form
Oft für einige Trennwand {Aj} des Probenraum, das Veranstaltungsfläche wird in Bezug auf gegeben P(Aj) und P(B|Aj). Es ist dann nützlich zu berechnen P(B) Verwendung der Gesetz der Gesamtwahrscheinlichkeit:
Im Sonderfall wo A ist ein Binärvariable:
Zufällige Variablen

Betrachten Sie a Probenraum Ω erzeugt von zwei zufällige Variablen X und Y. Grundsätzlich gilt Bayes 'Theorem für die Ereignisse A= {{X=x} und B= {{Y=y}.
Die Begriffe werden jedoch an Punkten 0, an denen eine Variable endlich ist Wahrscheinlichkeitsdichte. Um nützlich zu bleiben, muss Bayes 'Theorem in Bezug auf die relevanten Dichten formuliert werden (siehe Ableitung).
Einfache Form
Wenn X ist kontinuierlich und Y ist diskret,
wo jeweils ist eine Dichtefunktion.
Wenn X ist diskret und Y ist kontinuierlich,
Wenn beides X und Y sind kontinuierlich,
Erweiterte Form

Ein kontinuierlicher Ereignisraum wird häufig in Bezug auf die Zählerbegriffe konzipiert. Es ist dann nützlich, den Nenner mit dem zu beseitigen Gesetz der Gesamtwahrscheinlichkeit. Zum fY(y), Dies wird zu einem Integral:
Bayes 'Regel in Gewinnchancen
Bayes 'Theorem in Chancenform ist:
wo
wird genannt Bayes -Faktor oder Wahrscheinlichkeitsverhältnis. Die Chancen zwischen zwei Ereignissen sind einfach das Verhältnis der Wahrscheinlichkeiten der beiden Ereignisse. Daher
Die Regel besagt daher, dass die hinteren Gewinnchancen die vorherigen Gewinnchancen sind Bayes -Faktoroder mit anderen Worten, der hintere Überblick ist proportional zu den früheren Zeiten der Wahrscheinlichkeit.
Im Sonderfall, dass und , schreibt man und verwendet eine ähnliche Abkürzung für den Bayes -Faktor und für die bedingten Gewinnchancen. Die Chancen auf ist per Definition die Chancen für und gegen . Bayes 'Regel kann dann in der abgekürzten Form geschrieben werden
oder in Worten die hinteren Chancen auf entspricht den vorherigen Chancen auf mal das Wahrscheinlichkeitsverhältnis für gegebene Informationen . Zusamenfassend, Die hinteren Gewinnchancen entsprechen den vorherigen Gewinnchancen für die Wahrscheinlichkeit des Wahrscheinlichkeitsverhältnisses.
Zum Beispiel, wenn ein medizinischer Test a hat Empfindlichkeit von 90% und a Spezifität Von 91%ist der positive Bayes -Faktor dann der positive Bayes -Faktor . Nun, wenn die Häufigkeit Von dieser Krankheit beträgt 9,09%, und wenn wir dies als vorherige Wahrscheinlichkeit betrachten, beträgt die vorherigen Gewinnchancen bei 1:10. Nach dem Erhalt eines positiven Testergebnisses wird die hintere Wahrscheinlichkeit, dass die Krankheit tatsächlich zu haben, 1: 1; Mit anderen Worten, die hintere Wahrscheinlichkeit, die Krankheit tatsächlich zu haben, beträgt 50%. Wenn ein zweiter Test bei seriellen Tests durchgeführt wird und sich auch als positiv herausstellt, wird die hintere Wahrscheinlichkeit, dass die Krankheit tatsächlich zu haben, zu 10: 1, was eine hintere Wahrscheinlichkeit von etwa 90,91%bedeutet. Der negative Bayes-Faktor kann mit 91%/(100%-90%) = 9,1 berechnet werden. Wenn sich der zweite Test als negativ herausstellt, beträgt die posterioren Wahrscheinlichkeit, die Krankheit tatsächlich zu haben, 1: 9,1, was bedeutet a hintere Wahrscheinlichkeit von etwa 9,9%.
Das obige Beispiel kann auch mit soliden Zahlen verstanden werden: Angenommen, der Patient, der den Test abhält, stammt aus einer Gruppe von 1000 Personen, bei denen 91 von ihnen tatsächlich die Krankheit haben (Prävalenz von 9,1%). Wenn all diese 1000 Menschen den medizinischen Test absolvieren, erhalten 82 derjenigen mit der Krankheit ein echtes positives Ergebnis (Empfindlichkeit von 90,1%), 9 derjenigen mit der Krankheit werden ein falsches negatives Ergebnis erzielt (Falsche negative Rate Von 9,9%) wird 827 von Personen ohne Krankheit ein echtes negatives Ergebnis (Spezifität von 91,0%) und 82 von Personen ohne Krankheit erhalten ein falsch positives Ergebnis (falsch positive Rate von 9,0%). Vor der Prüfung beträgt die Wahrscheinlichkeit des Patienten, die Krankheit zu haben, 91: 909. Nachdem ein positives Ergebnis erhalten wurde, ist die Chancen des Patienten, die Krankheit zu haben
Dies steht im Einklang mit der Tatsache, dass es 82 wahre Positive und 82 falsch positive Aspekte in der Gruppe von 1000 Personen gibt.
Korrespondenz mit anderen mathematischen Rahmenbedingungen
Aussagelogik
Verwendung Zweimal kann man Bayes 'Theorem auch verwenden, um auch auszudrücken bezüglich und ohne Negationen:
- ,
Wenn . Daraus können wir die Schlussfolgerung ablesen
- .
In Worten: wenn auch sicherlich impliziert schließen wir das sicherlich ab impliziert . Wo Die beiden Auswirkungen sind sicher, dass sie gleichwertige Aussagen sind. In den Wahrscheinlichkeitsformeln die bedingte Wahrscheinlichkeit verallgemeinert die logische Implikation Wenn wir jetzt über die Zuweisung von True oder False hinausgehen, weisen wir Anweisungen Wahrscheinlichkeitswerte zu. Die Behauptung von wird mit Sicherheit der bedingten, der Behauptung von erfasst . Bayes 'Theorem in Bezug auf die Anweisungen der Implikation ist eine Verallgemeinerung der Schaffung Gesetz, das klassisch Aussagelogik kann ausgedrückt werden als:
- .
Beachten Sie, dass in dieser Beziehung zwischen den Implikationen die Positionen von bzw. lass dich umgedreht.
Die entsprechende Formel in Bezug auf Wahrscheinlichkeitsrechnung ist Bayes 'Theorem, der in ihrer erweiterten Form mit dem vorherige Wahrscheinlichkeit/Grundtarif nur von , wird ausgedrückt als:[12]
- .
Subjektive Logik
Bayes 'Theorem ist ein Sonderfall der Ableitung invertierter bedingter Meinungen in Subjektive Logik ausgedrückt als:
wo bezeichnet den Bediener für die Umkehrung der bedingten Meinungen. Das Argument bezeichnet ein Paar von Binomialbedingung durch Quelle und das Argument bezeichnet die vorherige Wahrscheinlichkeit (AKA. Die Grundtarif) von . Das Paar der umgekehrten bedingten Meinungen wird bezeichnet . Die bedingte Meinung verallgemeinert die probabilistische Bedingung , d.h. zusätzlich zur Zuweisung einer Wahrscheinlichkeit der Quelle kann der bedingten Erklärung eine subjektive Meinung zuweisen . Eine binomiale subjektive Meinung ist der Glaube an die Wahrheit der Aussage mit Grad der epistemischen Unsicherheit, wie durch Quelle ausgedrückt . Jede subjektive Meinung hat eine entsprechende projizierte Wahrscheinlichkeit . Die Anwendung des Bayes 'Satzes auf die prognostizierten Meinungswahrscheinlichkeiten ist a Homomorphismus, was bedeutet, dass Bayes 'Theorem in Bezug auf die projizierten Meinungswahrscheinlichkeiten ausgedrückt werden kann:
Daher repräsentiert der Theorem des subjektiven Bayes 'Theorem eine Generalisierung des Bayes' Theorems.[13]
Verallgemeinerungen
Konditionierte Version
Eine konditionierte Version des Bayes -Theorems[14] Ergebnisse aus der Hinzufügung eines dritten Ereignisses auf die alle Wahrscheinlichkeiten konditioniert sind:
Ableitung
Verwendung der Kettenregel
Und andererseits
Das gewünschte Ergebnis wird erhalten, indem sowohl Ausdrücke identifiziert als auch Lösung für .
Bayes 'Regel mit 3 Ereignissen
Bei 3 Ereignissen - a, b und c - kann gezeigt werden, dass:
Geschichte
Bayes 'Theorem ist nach dem Reverend benannt Thomas Bayes (/beɪz/; c. 1701 - 1761), der zuerst die bedingte Wahrscheinlichkeit zur Bereitstellung eines Algorithmus (sein Satz 9) verwendete, der Beweise verwendet, um Grenzen eines unbekannten Parameters zu berechnen, der als veröffentlicht wurde Ein Aufsatz zur Lösung eines Problems in der Lehre von Chancen (1763). Er untersuchte, wie eine Verteilung für den Wahrscheinlichkeitsparameter von a berechnet wird binomiale Verteilung (in der modernen Terminologie). Bei Bayes 'Tod übertrug seine Familie seine Papiere auf seinen alten Freund, Richard Preis (1723–1791), der über einen Zeitraum von zwei Jahren das unveröffentlichte Manuskript erheblich bearbeitete, bevor er es an einen Freund schickte, der es laut vorlesen königliche Gesellschaft am 23. Dezember 1763.[1][Seite benötigt] Preis bearbeitet[16] Bayes 'Hauptwerk "Ein Aufsatz zur Lösung eines Problems in der Lehre der Chancen" (1763), die in erschien Philosophische Transaktionen,[17] und enthält Bayes 'Theorem. Price schrieb eine Einführung in das Papier, das einige der philosophischen Grundlagen für Bayes'sche Statistik und wählte eine der beiden von Bayes angebotenen Lösungen. 1765 wurde Price zum Stipendiaten der Royal Society gewählt, um seine Arbeit über das Erbe von Bayes zu erkennen.[18][19] Am 27. April ein Brief an seinen Freund gesendet Benjamin Franklin wurde in der Royal Society vorgelesen und später veröffentlicht, wo Price diese Arbeit auf die Bevölkerung und die Berechnung von „Lebensanneigern“ anwendet.[20]
Unabhängig von Bayes, Pierre-Simon Laplace 1774 und später in seinem 1812 Théorie Analytique des Probabilités, verwendete bedingte Wahrscheinlichkeit, um die Beziehung eines aktualisierten Verhältnisses zu formulieren hintere Wahrscheinlichkeit Aus einer früheren Wahrscheinlichkeit, gegebenermaßen Beweise. Er reproduzierte und erweiterte Bayes 'Ergebnisse 1774, offenbar nicht der Arbeit von Bayes.[Anmerkung 1][21] Das Bayes'sche Interpretation Wahrscheinlichkeit wurde hauptsächlich durch Laplace entwickelt.[22]
Sir Harold Jeffreys Setzen Sie den Algorithmus von Bayes und die Formulierung von Laplace auf eine axiomatisch Basis, das Schreiben von Bayes 'Theorem "ist zur Wahrscheinlichkeitstheorie, was die Satz des Pythagoras ist zur Geometrie ".[23]
Stephen Stigler verwendete ein Bayes'sche Argument, um zu dem Schluss zu kommen, dass Bayes 'Theorem von entdeckt wurde Nicholas Saunderson, ein blinder englischer Mathematiker, einige Zeit vor Bayes;[24][25] Diese Interpretation wurde jedoch umstritten.[26] Martyn Hooper[27] und Sharon McGrayne[28] habe das argumentiert Richard PreisDer Beitrag war erheblich:
Nach modernen Maßstäben sollten wir uns auf die Bayes -Price -Regel beziehen. Price entdeckte Bayes 'Arbeit, erkannte seine Bedeutung, korrigierte sie, trug zum Artikel bei und fand eine Verwendung dafür. Die moderne Konvention, Bayes 'Namen allein zu verwenden, ist unfair, aber so verankert, dass alles andere wenig Sinn macht.[28]
Verwendung in Genetik
In der Genetik kann Bayes 'Theorem verwendet werden, um die Wahrscheinlichkeit einer Person mit einem spezifischen Genotyp zu berechnen. Viele Menschen versuchen, ihre Chancen zu approximieren, von einer genetischen Krankheit oder ihrer Wahrscheinlichkeit betroffen zu sein, ein Träger für ein rezessives Gen von Interesse zu sein. Eine Bayes'sche Analyse kann auf der Grundlage der Familiengeschichte oder der Gentests durchgeführt werden, um vorherzusagen, ob eine Person eine Krankheit entwickelt oder an ihre Kinder weitergeht. Gentests und Vorhersage sind eine häufige Praxis bei Paaren, die Kinder haben möchten, sind jedoch besorgt, dass sie beide Träger für eine Krankheit sein können, insbesondere innerhalb von Gemeinschaften mit geringer genetischer Varianz.[29]
Der erste Schritt in der Bayes'schen Analyse für die Genetik besteht darin, sich gegenseitig ausschließende Hypothesen vorzuschlagen: Für ein bestimmtes Allel ist oder ist ein Individuum entweder ein Träger oder kein Träger. Als nächstes werden vier Wahrscheinlichkeiten berechnet: vorherige Wahrscheinlichkeit (die Wahrscheinlichkeit jeder Hypothese unter Berücksichtigung von Informationen wie Familienanamnese oder Vorhersagen auf der Grundlage von Mendelianerbanz), bedingte Wahrscheinlichkeit (eines bestimmten Ergebnisses), gemeinsame Wahrscheinlichkeit (Produkt der ersten beiden) und posterior Wahrscheinlichkeit (ein gewichtetes Produkt, berechnet durch Teilen der Gelenkwahrscheinlichkeit für jede Hypothese durch die Summe beider Gelenkwahrscheinlichkeiten). Diese Art der Analyse kann ausschließlich auf der Familiengeschichte einer Erkrankung oder im Zusammenhang mit Gentests beruhen.
Verwenden von Stammbaum zur Berechnung der Wahrscheinlichkeiten
Hypothese | Hypothese 1: Patient ist ein Träger | Hypothese 2: Patient ist kein Träger |
---|---|---|
Vorherige Wahrscheinlichkeit | 1/2 | 1/2 |
Bedingte Wahrscheinlichkeit, dass alle vier Nachkommen nicht betroffen sind | (1/2) · (1/2) · (1/2) · (1/2) = 1/16 | Ungefähr 1 |
Gelenkwahrscheinlichkeit | (1/2) · (1/16) = 1/32 | (1/2) · 1 = 1/2 |
Hintere Wahrscheinlichkeit | (1/32)/(1/32 + 1/2) = 1/17 | (1/2)/(1/32 + 1/2) = 16/17 |
Beispiel für eine Bayes'sche Analyse -Tabelle für das Risiko eines weiblichen Individuums für eine Krankheit, die auf dem Wissen beruht, dass die Krankheit in ihren Geschwistern vorhanden ist, jedoch nicht in ihren Eltern oder einem ihrer vier Kinder. Sie basiert ausschließlich auf den Status der Geschwister und Eltern des Subjekts, ist sie ebenso wahrscheinlich eine Trägerin, die eine Nichtträgerin ist (diese Wahrscheinlichkeit wird durch die vorherige Hypothese bezeichnet). Die Wahrscheinlichkeit, dass die vier Söhne des Subjekts alle nicht betroffen sind, beträgt 1/16 (1⁄2·1⁄2·1⁄2·1⁄2) Wenn sie eine Trägerin ist, ungefähr 1, wenn sie eine Nichtträgerin ist (dies ist die bedingte Wahrscheinlichkeit). Die gemeinsame Wahrscheinlichkeit versöhnt diese beiden Vorhersagen, indem sie sie miteinander multiplizieren. Die letzte Linie (die hintere Wahrscheinlichkeit) wird berechnet, indem die Gelenkwahrscheinlichkeit für jede Hypothese durch die Summe beider Gelenkwahrscheinlichkeiten geteilt wird.[30]
Unter Verwendung genetischer Testergebnisse
Genetische Elterntests können bei Eltern rund 90% der bekannten Krankheits -Allele nachweisen, die zu einem Träger oder einem betroffenen Status bei ihrem Kind führen können. Mukoviszidose ist eine vererbbare Krankheit, die durch eine autosomal rezessive Mutation am CFTR -Gen verursacht wird.[31] befindet sich am Q -Arm von Chromosom 7.[32]
Bayes'sche Analyse einer weiblichen Patientin mit Familiengeschichte von Mukoviszidose (CF), die negativ auf CF getestet wurde, und zeigt, wie diese Methode verwendet wurde, um ihr Risiko zu bestimmen, dass ein Kind mit CF geboren wurde:
Da die Patientin nicht betroffen ist, ist sie entweder homozygot für das Wildtyp-Allel oder heterozygot. Um frühere Wahrscheinlichkeiten festzulegen, wird ein Punnett -Platz verwendet, basierend auf dem Wissen, dass keiner der Eltern von der Krankheit betroffen war, beides jedoch Träger gewesen sein könnten:
Mutter Vater | W Homozygot für die Wildheit- | M Heterozygot |
---|---|---|
W Homozygot für die Wildheit- | Ww | MW |
M Heterozygot (ein CF -Träger) | MW | Mm (von Mukoviszidose betroffen) |
Da der Patient nicht betroffen ist, gibt es nur drei Möglichkeiten. Innerhalb dieser drei gibt es zwei Szenarien, in denen der Patient das mutierte Allel trägt. Somit sind die vorherigen Wahrscheinlichkeiten 2⁄3 und 1⁄3.
Als nächstes wird der Patient Gentests unterzogen und testet negativ auf Mukoviszidose. Dieser Test hat eine Erkennungsrate von 90%, sodass die bedingten Wahrscheinlichkeiten eines negativen Tests 1/10 und 1. Schließlich werden die Verbindungs- und hinteren Wahrscheinlichkeiten wie zuvor berechnet.
Hypothese | Hypothese 1: Patient ist ein Träger | Hypothese 2: Patient ist kein Träger |
---|---|---|
Vorherige Wahrscheinlichkeit | 2/3 | 1/3 |
Bedingte Wahrscheinlichkeit eines negativen Tests | 1/10 | 1 |
Gelenkwahrscheinlichkeit | 1/15 | 1/3 |
Hintere Wahrscheinlichkeit | 1/6 | 5/6 |
Nachdem die gleiche Analyse des männlichen Partners des Patienten (mit einem negativen Testergebnis) durchgeführt wurde, entspricht die Chancen, dass ihr Kind betroffen ist betroffene Nachkommen (1⁄4).
Gentests parallel zur anderen Risikofaktoridentifikation.
Die Bayes'sche Analyse kann unter Verwendung von phänotypischen Informationen durchgeführt werden, die mit einem genetischen Zustand verbunden sind, und in Kombination mit Gentests wird diese Analyse viel komplizierter. Beispielsweise kann Mukoviszidose durch einen Ultraschall nach einem echogenen Darm in einem Fötus identifiziert werden, was bedeutet, dass ein scan2 heller als normal erscheint. Dies ist kein narrensicherer Test, da ein echogener Darm in einem vollkommen gesunden Fötus vorhanden sein kann. In diesem Fall ist die Genetische der Eltern sehr einflussreich, bei der eine phänotypische Facette die Wahrscheinlichkeitsberechnung übermäßig einflussreich sein kann. Im Falle eines Fötus mit einem echogenen Darm mit einer Mutter, die getestet wurde und als CF -Träger bekannt ist, ist die hintere Wahrscheinlichkeit, dass der Fötus tatsächlich die Krankheit hat (0,64). Sobald der Vater jedoch negativ auf CF getestet wurde, sinkt die hintere Wahrscheinlichkeit signifikant (auf 0,16).[30]
Die Berechnung der Risikofaktor ist ein leistungsstarkes Instrument in der genetischen Beratung und der Fortpflanzungsplanung, kann jedoch nicht als der einzig wichtige Faktor behandelt werden, der berücksichtigt werden muss. Wie oben können unvollständige Tests fälschlicherweise eine hohe Wahrscheinlichkeit des Trägerstatus ergeben, und Tests können finanziell unzugänglich oder unabdingbar sein, wenn ein Elternteil nicht vorhanden ist.
Siehe auch
- Bayes'sche Erkenntnistheorie
- Induktive Wahrscheinlichkeit
- Quantenbayesanismus
- Warum die meisten veröffentlichten Forschungsergebnisse falsch sind, ein Aufsatz von 2005 in Metasz von John Ioannidis
Anmerkungen
- ^ Laplace raffinierte Bayes 'Theorem über einen Zeitraum von Jahrzehnten:
- Laplace kündigte seine unabhängige Entdeckung von Bayes 'Theorem in: Laplace (1774) "Mémoire sur la probabilité des Ursachen für Parlungen Événements", "Mémoires de l'Académie Royale des Sciences de Mi (Savants Étrangers),", ",", ",", ",", ",", " 4: 621–656. Nachdruck in: Laplace, "Oeuvres complètes" (Paris, Frankreich: Gauthier-Villars et Fils, 1841), vol. 8, S. 27–65. Online verfügbar unter: Gallica. Bayes 'Theorem erscheint auf p. 29.
- Laplace präsentierte eine Verfeinerung des Bayes 'Theorems in: Laplace (Read: 1783 / Veröffentlicht: 1785) "Mémoire sur les näher wieder –467. Nachdruck in: Laplace, "Oeuvres complètes" (Paris, Frankreich: Gauthier-Villars et Fils, 1844), vol. 10, S. 295–338. Online verfügbar unter: Gallica. Bayes 'Theorem ist auf Seite 301 angegeben.
- Siehe auch: Laplace, "Essai Philosophique sur les probabilités" (Paris, Frankreich: Mme. Ve. Courcier [Madame Veuve (d. H. Witwe) Courcier], 1814), Seite 10. Englische Übersetzung: Pierre Simon, Marquis de Laplace mit F. W. Truscott und F. L. Emory, Trans., "Ein philosophischer Aufsatz über Wahrscheinlichkeiten" (New York, New York: John Wiley & Sons, 1902), Seite 15.
Verweise
- ^ a b Frame, Paul (2015). Libertys Apostel. Wales: University of Wales Press. ISBN 978-1-78316-216-1. Abgerufen 23. Februar 2021.
- ^ Joyce, James (2003), "Bayes 'Theorem"in Zalta, Edward N. (Hrsg.), Die Stanford -Enzyklopädie der Philosophie (Frühjahr 2019 Hrsg.), Metaphysics Research Lab, Stanford University, abgerufen 2020-01-17
- ^ Jeffreys, Sir Harold (1973). Wissenschaftliche Inferenz. Cambridge: an der University Press. OCLC 764571529.
- ^ Stuart, A.; Ord, K. (1994), Kendalls fortgeschrittene Theorie der Statistik: Band I - Verteilungstheorie, Edward Arnold§8.7
- ^ Kolmogorov, A.N. (1933). Grundlagen der Wahrscheinlichkeitstheorie. Chelsea Publishing Company (1956 ED).
- ^ Taraldsen, Gunnar; Tuffto, Jarle; Lindqvist, Bo H. (2021-07-24). "Unsachliche Priors und unangemessene Posteriors". Skandinavisches Journal of Statistics: sjos.12550. doi:10.1111/sjos.12550. ISSN 0303-6898. S2CID 237736986.
- ^ Robert, Christian P.; Casella, George (2004). Statistische Monte -Carlo -Methoden. Springer. ISBN 978-1-4757-4145-2. OCLC 1159112760.
- ^ Gigerenzer, Gerd; Hoffrage, Ulrich (1995). "Wie man Bayes'sche Argumentation ohne Anweisung verbessert: Frequenzformate". Psychologische Überprüfung. 102 (4): 684–704. Citeseerx 10.1.1.128.3201. doi:10.1037/0033-295x.102.4.684.
- ^ Zhu, liqi; Gigerenzer, GERD (Januar 2006). "Kinder können Bayes'sche Probleme lösen: die Rolle der Repräsentation in der mentalen Berechnung". Erkenntnis. 98 (3): 287–308. doi:10.1016/j.cognition.2004.12.003. HDL:11858/00-001M-0000-0024-FEFD-A. PMID 16399266. S2CID 1451338.
- ^ Lee, Peter M. (2012). "Kapitel 1". Bayes'sche Statistik. Wiley. ISBN 978-1-1183-3257-3.
- ^ "Bayes 'Theorem: Einführung". Trinity University. Archiviert von das Original am 21. August 2004. Abgerufen 5. August 2014.
- ^ Audun Jøsang, 2016, Subjektive Logik; Ein Formalismus zur Argumentation unter Unsicherheit. Springer, Cham, Cham, ISBN978-3-319-42337-1
- ^ Audun Jøsang, 2016, Verallgemeinerte Bayes 'Theorem in subjektiver Logik. IEEE Internationale Konferenz über Multisensor-Fusion und Integration für intelligente Systeme (MFI 2016), Baden-Baden, September 2016
- ^ Koller, D.; Friedman, N. (2009). Probabilistische grafische Modelle. Massachusetts: MIT Press. p. 1208. ISBN 978-0-262-01319-2. Archiviert von das Original Am 2014-04-27.
- ^ Graham Kemp (https://math.stackexchange.com/users/135106/graham-kemp), Bayes 'Regel mit 3 Variablen, URL (Version: 2015-05-14): https://math.stackexchange.com/q/1281558
- ^ Allen, Richard (1999). David Hartley über die menschliche Natur. Suny Press. S. 243–4. ISBN 978-0-7914-9451-6. Abgerufen 16. Juni 2013.
- ^ Bayes, Thomas & Price, Richard (1763). "Ein Aufsatz zur Lösung eines Problems in der Chance -Doktrin. Durch den verstorbenen Rev. Mr. Bayes, der von Herrn Price mitgeteilt wurde, in einem Brief an John Canton, A. M. F. R. S." Philosophische Transaktionen der Royal Society of London. 53: 370–418. doi:10.1098/rstl.1763.0053.
- ^ Holland, S. 46–7.
- ^ Price, Richard (1991). Preis: Politische Schriften. Cambridge University Press. p. xxiii. ISBN 978-0-521-40969-8. Abgerufen 16. Juni 2013.
- ^ Mitchell 1911, p. 314.
- ^ Daston, Lorraine (1988). Klassische Wahrscheinlichkeit in der Erleuchtung. Princeton Univ Press. p. 268. ISBN 0-691-08497-1.
- ^ Stigler, Stephen M. (1986). "Inverse Wahrscheinlichkeit". Die Geschichte der Statistik: Die Messung der Unsicherheit vor 1900. Harvard University Press. S. 99–138. ISBN 978-0-674-40341-3.
- ^ Jeffreys, Harold (1973). Wissenschaftliche Inferenz (3. Aufl.). Cambridge University Press. p.31. ISBN 978-0-521-18078-8.
- ^ Stigler, Stephen M. (1983). "Wer hat Bayes 'Theorem entdeckt?". Der amerikanische Statistiker. 37 (4): 290–296. doi:10.1080/00031305.1983.10483122.
- ^ de Vaux, Richard; Junger, Paul; Bock, David (2016). Statistiken, Daten und Modelle (4. Aufl.). Pearson. S. 380–381. ISBN 978-0-321-98649-8.
- ^ Edwards, A. W. F. (1986). "Ist die Referenz in Hartley (1749) auf Bayes'sche Inferenz?" Der amerikanische Statistiker. 40 (2): 109–110. doi:10.1080/00031305.1986.10475370.
- ^ Hooper, Martyn (2013). "Richard Price, Bayes 'Theorem und Gott". Bedeutung. 10 (1): 36–39. doi:10.1111/j.1740-9713.2013.00638.x. S2CID 153704746.
- ^ a b McGrayne, S. B. (2011). Die Theorie, die nicht sterben würde: Wie Bayes 'Regel den Enigma -Code geknackt, russische U -Boote niedergeschlagen und aus zwei Jahrhunderten von Kontroversen triumphiert wurde. Yale University Press. ISBN 978-0-300-18822-6.
- ^ Kraft, Stephanie A; Duenas, Devan; Wilfond, Benjamin S; Goddard, Katrina AB (24. September 2018). "Die sich entwickelnde Landschaft des erweiterten Carrier -Screenings: Herausforderungen und Chancen". Genetik in der Medizin. 21 (4): 790–797. doi:10.1038/s41436-018-0273-4. PMC 6752283. PMID 30245516.
- ^ a b Ogino, Shuji; Wilson, Robert B; Gold, Bert; Hawley, Pamela; Grody, Wayne W (Oktober 2004). "Bayes'sche Analyse für Mukoviszidoserisiken beim vorgeburtlichen und Träger -Screening". Genetik in der Medizin. 6 (5): 439–449. doi:10.1097/01.gim.0000139511.83336.8f. PMID 15371910.
- ^ "Arten von CFTR -Mutationen". Cystic Fibrosis Foundation, www.cff.org/what-is-cf/genetics/types-of-cftr-mutations/.
- ^ "CFTR -Gen - Genetics Home Reference". US National Library of Medicine, National Institutes of Health, Ghr.nlm.nih.gov/gene/cftr#location.
Literaturverzeichnis
- öffentlich zugänglich: Mitchell, John Malcolm (1911). "Preis, Richard". In Chisholm, Hugh (Hrsg.). Encyclopædia Britannica. Vol. 22 (11. Aufl.). Cambridge University Press. S. 314–315. Dieser Artikel enthält Text aus einer Veröffentlichung, die jetzt in der ist
Weitere Lektüre
- Grunau, Hans-Christoph (24. Januar 2014). "Vorwort Ausgabe 3/4-2013". Jahresbericht der Deutschen Mathematiker-Vereinigung. 115 (3–4): 127–128. doi:10.1365/S13291-013-0077-Z.
- Gelman, A, Carlin, JB, Stern, HS und Rubin, DB (2003), "Bayesian Data Analysis", Second Edition, CRC Press.
- Grinstead, CM und Snell, JL (1997), "Einführung in die Wahrscheinlichkeit (2. Ausgabe)", American Mathematical Society (kostenlose PDF verfügbar) [1].
- "Bayes -Formel", Enzyklopädie der Mathematik, EMS Press, 2001 [1994]
- McGrayne, SB (2011). Die Theorie, die nicht sterben würde: Wie Bayes 'Regel den Enigma -Code geknackt, russische U -Boote niedergeschlagen und aus zwei Jahrhunderten von Kontroversen triumphiert wurde. Yale University Press. ISBN 978-0-300-18822-6.
- Laplace, Pierre Simon (1986). "Memoiren zur Wahrscheinlichkeit der Ursachen von Ereignissen". Statistische Wissenschaft. 1 (3): 364–378. doi:10.1214/ss/1177013621. JStor 2245476.
- Lee, Peter M (2012), "Bayesian Statistics: Eine Einführung", 4. Auflage. Wiley. ISBN978-1-118-33257-3.
- Puga JL, Krzywinski M, Altman N (31. März 2015). "Bayes 'Theorem". Naturmethoden. 12 (4): 277–278. doi:10.1038/nmeth.3335. PMID 26005726.
- Rosenthal, Jeffrey S (2005), "beeindruckt von Blitz: Die merkwürdige Welt der Wahrscheinlichkeiten". Harpercollins. (Granta, 2008. ISBN9781862079960).
- Stigler, Stephen M. (August 1986). "Laplaces Memoiren von 1774 zur inversen Wahrscheinlichkeit". Statistische Wissenschaft. 1 (3): 359–363. doi:10.1214/ss/1177013620.
- Stone, JV (2013), Download Kapitel 1 von "Bayes 'Regel: Eine Tutorial -Einführung in die Bayes'sche Analyse", Sbtel Press, England.
- Bayes'sche Argumentation für intelligente Menschen, Eine Einführung und ein Tutorial zur Verwendung des Bayes -Theorems in Statistik und kognitiven Wissenschaft.
- Morris, Dan (2016), las First 6 Kapitel kostenlos von "Bayes 'Theorem Beispiele: Eine visuelle Einführung für Anfänger"Blaue Windmühle ISBN978-1549761744. Ein kurzes Tutorial zum Verständnis von Problemszenarien und zum Finden von P (B), P (A) und P (B | A).
Externe Links
- Visuelle Erklärung von Bayes mit Bäumen an Youtube
- Die häufige Interpretation von Bayes erklärte visuell an Youtube
- Früheste bekannte Verwendungen einiger der Wörter der Mathematik (b). Enthält Ursprünge von "Bayesian", "Bayes" Theorem "," Bayes Estaug/Risiko/Lösung "," Empirical Bayes "und" Bayes Factor ".
- Ein Tutorial über Wahrscheinlichkeit und Bayes 'Theorem wurde für Psychologiestudenten der Oxford University entwickelt
- Eine intuitive Erklärung des Bayes -Theorems von Eliezer S. Yudkowsky
- Bayesianische klinische Diagnosemodell