Erwarteter Wert

Im Wahrscheinlichkeitstheorie, das erwarteter Wert (auch genannt Erwartung, Erwartung, Mathematische Erwartung, bedeuten, Durchschnitt, oder Erster Moment) ist eine Verallgemeinerung der gewichteter Durchschnitt. Informell ist der erwartete Wert der arithmetisches Mittel von einer großen Anzahl von unabhängig ausgewählt Ergebnisse von a zufällige Variable.

Der erwartete Wert von a zufällige Variable Mit einer begrenzten Anzahl von Ergebnissen ist a gewichteter Durchschnitt aller möglichen Ergebnisse. Im Falle eines Kontinuums möglicher Ergebnisse wird die Erwartung durch definiert durch Integration. In der axiomatischen Grundlage für die Wahrscheinlichkeit, die von bereitgestellt wurde durch Theorie messen, Die Erwartung wird gegeben Lebesgue integration.

Der erwartete Wert einer zufälligen Variablen X wird oft mit bezeichnet durch E (X), E [X], oder EX, mit E auch oft stilisiert als E oder [1][2][3]

Geschichte

Die Idee des erwarteten Wertes entstand in der Mitte des 17. Jahrhunderts aus der Untersuchung der sogenannten Punktproblem, was versucht, den Einsatz zu teilen fairer Weise Zwischen zwei Spielern, die ihr Spiel beenden müssen, bevor es richtig fertig ist.[4] Dieses Problem war seit Jahrhunderten diskutiert worden. Viele widersprüchliche Vorschläge und Lösungen wurden im Laufe der Jahre vorgeschlagen, als es sich versammelte Blaise Pascal vom französischen Schriftsteller und Amateurmathematiker Chevalier de Méré 1654. Méré behauptete, dass dieses Problem nicht gelöst werden könne und dass es zeigte, wie fehlerhaft die Mathematik war, als es um ihre Bewerbung auf die reale Welt ging. Als Mathematiker war Pascal provoziert und entschlossen, das Problem ein für alle Mal zu lösen.

Er begann das Problem in der berühmten Reihe von Briefen zu besprechen Pierre de Fermat. Bald genug kamen beide unabhängig eine Lösung. Sie lösten das Problem auf unterschiedliche rechnerische Weise, ihre Ergebnisse waren jedoch identisch, da ihre Berechnungen auf demselben Grundprinzip beruhten. Das Prinzip ist, dass der Wert eines zukünftigen Gewinns direkt proportional zu der Wahrscheinlichkeit sein sollte, ihn zu bekommen. Dieses Prinzip schien für beide natürlich gekommen zu sein. Sie waren sehr erfreut über die Tatsache, dass sie im Wesentlichen die gleiche Lösung gefunden hatten, und dies machte sie wiederum absolut überzeugt, dass sie das Problem endgültig gelöst hatten. Sie haben ihre Ergebnisse jedoch nicht veröffentlicht. Sie informierten nur einen kleinen Kreis gegenseitiger wissenschaftlicher Freunde in Paris darüber.[5]

Im niederländischen Mathematiker Christiaan Huygens ' Buch betrachtete das Problem der Punkte und präsentierte eine Lösung, die auf demselben Prinzip wie die Lösungen von Pascal und Fermat basiert. Huygens veröffentlichte seine Abhandlung im Jahr 1657 (siehe Huygens (1657)) "De Ratiociniis in Ludo Aleæ"Über die Wahrscheinlichkeitstheorie kurz nach dem Besuch von Paris. Das Buch erweiterte das Erwartungskonzept, indem sie Regeln für die Berechnung der Erwartungen in komplizierteren Situationen als das ursprüngliche Problem (z. B. für drei oder mehr Spieler) hinzufügen und als erster erfolgreich angesehen werden können Versuch, die Grundlagen des Wahrscheinlichkeitstheorie.

Im Vorwort seiner Abhandlung schrieb Huygens:

Es sollte auch gesagt werden, dass sich einige der besten Mathematiker Frankreichs mit dieser Art von Kalkül beschäftigt haben, damit mich niemand die Ehre der ersten Erfindung zuschreiben sollte. Das gehört mir nicht. Aber diese Gelehrten, obwohl sie sich gegenseitig auf die Probe stellen, indem sie sich gegenseitig viele Fragen vorschlagen, haben ihre Methoden verborgen. Ich hatte daher, mich zu untersuchen und mich tief in diese Angelegenheit einzusprechen, indem ich mit den Elementen begann, und es ist für mich aus diesem Grund unmöglich, zu bestätigen, dass ich überhaupt vom gleichen Prinzip gestartet habe. Aber schließlich habe ich festgestellt, dass meine Antworten in vielen Fällen nicht von ihren unterscheiden.

-Edwards (2002)

Während seines Besuchs in Frankreich im Jahr 1655 lernte Huygens über De Mérés Problem. Aus seiner Korrespondenz mit Karzavin ein Jahr später (1656) stellte er fest, dass seine Methode im Wesentlichen die gleiche war wie die von Pascal. Daher wusste er von Pascals Priorität in diesem Thema, bevor sein Buch 1657 zum Presse ging.[6]

Mitte des neunzehnten Jahrhunderts, Pafnuty Chebyshev wurde die erste Person, die in Bezug auf die Erwartungen von systematisch dachte zufällige Variablen.[7]

Etymologie

Weder Pascal noch Huygens verwendeten den Begriff "Erwartung" in seinem modernen Sinne. Insbesondere Huygens schreibt:[8]

Dass eine Chance oder Erwartung, etwas zu gewinnen, so eine Summe wert ist, wie es sich in der gleichen Chance und Erwartung auf eine faire Laie beziehen würde. ... Wenn ich A oder B erwarte und die gleiche Chance habe, sie zu gewinnen, ist meine Erwartung wert (a+b)/2.

Mehr als hundert Jahre später, 1814,, Pierre-Simon Laplace veröffentlichte sein Traktat "Théorie Analytique des Probabilités", wo das Konzept des erwarteten Wertes explizit definiert wurde:[9]

… Dieser Vorteil in der Zufallstheorie ist das Produkt der Summe, die durch die Wahrscheinlichkeit, sie zu erhalten, erhofft; Es ist die teilweise Summe, die sich ergeben sollte, wenn wir die Risiken des Ereignisses nicht ausführen möchten, um anzunehmen, dass die Teilung proportional zu den Wahrscheinlichkeiten hergestellt wird. Diese Aufteilung ist die einzig gerechte, wenn alle seltsamen Umstände beseitigt werden. Weil ein gleicher Maß an Wahrscheinlichkeit ein gleiches Recht für die hoffnungsgemäße Summe ergibt. Wir werden diesen Vorteil nennen Mathematische Hoffnung.

Notationen

Die Verwendung des Briefes E Um den erwarteten Wert zu bezeichnen, geht zurück auf W. A. ​​Whitworth im Jahr 1901.[10] Das Symbol ist seitdem für englische Schriftsteller populär geworden. Auf Deutsch, E steht für "ErwartungsWert", auf Spanisch für "Esperanza Matemática" und in Französisch für "Espérance Mathématique".[11]

Wenn "E" verwendet wird, um den erwarteten Wert zu kennzeichnen, verwenden Autoren eine Vielzahl von Stylisation: Der Erwartungsbetreiber kann als stilisiert werden E (aufrecht), E (kursiv) oder (in Blackboard fett), während eine Vielzahl von Klammernotationen (wie z. E (X), E [X], und EX) werden alle verwendet.

Eine andere beliebte Notation ist μX, wohingegen X, Xein V, und werden häufig in der Physik verwendet,[12] und M(X) In der russischsprachigen Literatur.

Definition

Wie nachstehend erläutert, gibt es mehrere kontextabhängige Möglichkeiten, den erwarteten Wert zu definieren. Die einfachste und ursprüngliche Definition befasst sich mit dem Fall endlich vieler möglicher Ergebnisse, wie z. B. im Flip einer Münze. Mit der Theorie der Infinite -Serie kann dies auf den Fall zäher möglicher Ergebnisse erweitert werden. Es ist auch sehr häufig, den unterschiedlichen Fall von Zufallsvariablen zu betrachten, die durch (stückweise) kontinuierlich diktiert sind Wahrscheinlichkeitsdichtefunktionenwie diese in vielen natürlichen Kontexten entstehen. Alle diese spezifischen Definitionen können als besondere Fälle der allgemeinen Definition angesehen werden, die auf den mathematischen Instrumenten von basieren Theorie messen und Lebesgue integration, die diese unterschiedlichen Kontexte mit einer axiomatischen Grundlage und einer gemeinsamen Sprache liefern.

Jede Definition des erwarteten Wertes kann erweitert werden, um einen erwarteten Wert einer mehrdimensionalen Zufallsvariablen zu definieren, d. H. A. zufälliger Vektor X. Es wird von Komponenten als Komponente definiert, als E [X]i = E [Xi]. In ähnlicher Weise kann man den erwarteten Wert von a definieren Zufällige Matrix X mit Komponenten Xij durch E [X]ij = E [Xij].

Zufällige Variablen mit endlich vielen Ergebnissen

Betrachten Sie eine zufällige Variable X mit einer endlich aufführen x1, ..., xk mögliche Ergebnisse, von denen jeweils (jeweils) Wahrscheinlichkeit hat p1, ..., pk auftreten. Das Erwartung von X ist definiert als[13]

Da müssen die Wahrscheinlichkeiten erfüllen p1 + ⋅ebook + pk = 1Es ist natürlich zu interpretieren E [X] Als ein gewichteter Durchschnitt des xi Werte mit Gewichten, die durch ihre Wahrscheinlichkeiten angegeben sind pi.

In dem Sonderfall, dass alle möglichen Ergebnisse sind EquiproBable (das ist, p1 = · · = pk) Der gewichtete Durchschnitt wird durch den Standard gegeben Durchschnitt. Im allgemeinen Fall berücksichtigt der erwartete Wert die Tatsache, dass einige Ergebnisse häufiger als andere sind.

Eine Darstellung der Konvergenz der Sequenz -Durchschnittswerte von Rollen von a sterben zum erwarteten Wert von 3,5 mit zunehmender Anzahl der Rollen (Versuche).

Beispiele

  • Lassen das Ergebnis einer Rolle einer fairen sechsseitigen darstellen sterben. Genauer, wird die Anzahl von sein Pips zeigen auf der oberen Seite der sterben Nach dem Wurf. Die möglichen Werte für sind 1, 2, 3, 4, 5 und 6, die alle gleich wahrscheinlich mit einer Wahrscheinlichkeit von sind 1/6. Die Erwartung von ist
Wenn man die rollt sterben Zeiten und berechnet den Durchschnitt (arithmetisches Mittel) der Ergebnisse, dann als wächst, der Durchschnitt wird Fast sicher konvergieren zum erwarteten Wert eine Tatsache, die als die bekannt ist starkes Gesetz großer Anzahl.
  • Das Roulette Das Spiel besteht aus einem kleinen Ball und einem Rad mit 38 nummerierten Taschen am Rand. Während das Rad gedreht wird, springt der Ball zufällig herum, bis es sich in einer der Taschen absetzt. Angenommen, eine zufällige Variable repräsentiert das (Geld-) Ergebnis einer 1 -Dollar -Wette auf eine einzelne Zahl ("geradlinig"). Wenn die Wette gewinnt (was mit Wahrscheinlichkeit passiert 1/38 In American Roulette) beträgt die Auszahlung 35 US -Dollar; Ansonsten verliert der Spieler die Wette. Der erwartete Gewinn aus einer solchen Wette wird sein
Das heißt, der erwartete Wert, der aus einer Wette von 1 USD gewonnen wird, beträgt - $ - $ 1/19. 190 Wetten wird der Nettoverlust wahrscheinlich etwa 10 US -Dollar betragen.

Zufällige Variablen mit zählich vielen Ergebnissen

Informell die Erwartung einer zufälligen Variablen mit a Zählbar mögliche Ergebnisse werden analog als der gewichtete Durchschnitt aller möglichen Ergebnisse definiert, bei denen die Gewichte durch die Wahrscheinlichkeit der Realisierung jedes gegebenen Wertes angegeben sind. Das heißt das

wo x1, x2, ... sind die möglichen Ergebnisse der zufälligen Variablen X und p1, p2, ... sind ihre entsprechenden Wahrscheinlichkeiten. In vielen nichtmathematischen Lehrbüchern wird dies als vollständige Definition der erwarteten Werte in diesem Zusammenhang dargestellt.[14]

Es gibt jedoch einige Feinheiten mit unendlicher Summation, sodass die obige Formel nicht als mathematische Definition geeignet ist. Insbesondere die Riemann Series Theorem von Mathematische Analyse zeigt, dass der Wert bestimmter unendlicher Summen mit positiven und negativen Summen von der Reihenfolge abhängt, in der die Summanden angegeben sind. Da die Ergebnisse einer zufälligen Variablen keine natürliche Reihenfolge haben, ist dies zu einer Schwierigkeit, den erwarteten Wert genau zu definieren.

Aus diesem Grund betrachten viele mathematische Lehrbücher nur den Fall, dass die oben angegebene unendliche Summe Konvergiert absolut, was impliziert, dass die unendliche Summe eine endliche Zahl unabhängig von der Reihenfolge von Summen ist.[15] In dem alternativen Fall, dass die unendliche Summe nicht absolut konvergiert, sagt man die zufällige Variable hat keine begrenzte Erwartungen.[15]

Beispiele

  • Vermuten und zum wo ist der Skalierungsfaktor, der die Wahrscheinlichkeiten auf 1. summiert. Dann haben wir die direkte Definition für nicht negative Zufallsvariablen

Zufallsvariablen mit Dichte

Betrachten Sie nun eine zufällige Variable X was hat a Wahrscheinlichkeitsdichtefunktion durch eine Funktion gegeben f auf der reelle Zahlenzeile. Dies bedeutet, dass die Wahrscheinlichkeit von X einen Wert in einem bestimmten Wert nehmen Offenes Intervall wird von der gegeben Integral- von f in diesem Intervall. Das Erwartung von X wird dann durch das Integral gegeben[16]

Eine allgemeine und mathematisch präzise Formulierung dieser Definition verwendet Theorie messen und Lebesgue integrationund die entsprechende Theorie von absolut kontinuierliche Zufallsvariablen wird im nächsten Abschnitt beschrieben. Die Dichtefunktionen vieler gemeinsamer Verteilungen sind stückweise kontinuierlichund als solche wird die Theorie in dieser eingeschränkten Umgebung oft entwickelt.[17] Für solche Funktionen reicht es aus, nur den Standard zu berücksichtigen Riemann -Integration. Manchmal kontinuierliche Zufallsvariablen werden definiert als diejenigen, die dieser speziellen Klasse von Dichten entsprechen, obwohl der Begriff von vielen verschiedenen Autoren unterschiedlich verwendet wird.

Analog zum oben genannten Fall mit Zähnen, die oben genannt werden, gibt es aufgrund der unendlichen Integrationsregion Feinheiten mit dieser Expression. Solche Feinheiten können konkret gesehen werden, wenn die Verteilung von X wird von der gegeben Cauchy -Verteilung Cauchy (0, π), so dass f(x) = ((x2 + π2)–1. In diesem Fall ist es unkompliziert zu berechnen

Die Grenze dieses Ausdrucks als a → −∞ und b → ∞ existiert nicht: Wenn die Grenzen so genommen werden a = -bdann ist die Grenze Null, während die Einschränkung bei der Einschränkung 2a = -b wird genommen, dann ist die Grenze ln (2).

Um solche Unklarheiten zu vermeiden, ist es in mathematischen Lehrbüchern üblich, dass das gegebene Integral erforderlich ist Konvergiert absolut, mit E [X] sonst undefiniert gelassen.[18] Messentheoretische Begriffe, wie unten angegeben E [X] Für allgemeinere Zufallsvariablen X.

Willkürliche realbewertete Zufallsvariablen

Alle Definitionen des erwarteten Wertes können in der Sprache von ausgedrückt werden Theorie messen. Im Allgemeinen, wenn X ist ein echtes Wert zufällige Variable definiert auf a Wahrscheinlichkeitsraum (Ω, σ, p)dann der erwartete Wert von X, bezeichnet durch E [X], ist definiert als die Lebesgue Integral[19]

Trotz der neu abstrakten Situation ist diese Definition von der Natur der oben genannten Definition der oben angegebenen Definition der erwarteten Werte als bestimmte gewichtete Durchschnittswerte sehr ähnlich. Dies liegt daran, dass in der Messentheorie der Wert des Lebesgue -Integrals von X wird über gewichtete Durchschnittswerte von definiert Annäherungen von X die endlich viele Werte annehmen.[20] Wenn eine zufällige Variable mit endlich oder zäher möglichen möglichen Werten gegeben wird, ist die Erwartungstheorie der Lebesgue mit den oben angegebenen Summierungsformeln identisch. Die Lebesgue -Theorie verdeutlicht jedoch den Umfang der Theorie der Wahrscheinlichkeitsdichtefunktionen. Eine zufällige Variable X wird gesagt, dass absolut kontinuierlich Wenn eine der folgenden Bedingungen erfüllt ist:

für jeden Borel -Set A, in dem das Integral Lebesgue ist.
  • das Verteilungsfunktion von X ist absolut kontinuierlich.
  • Für jedes Borel -Set A realer Zahlen mit Lebesgue -Maßnahme gleich Null, die Wahrscheinlichkeit von X bewertet werden A ist auch gleich Null
  • für jede positive Zahl ε Es gibt eine positive Zahl δ so dass: wenn A ist ein Borel -Set mit Lebesgue -Maßstab weniger als δdann die Wahrscheinlichkeit von X bewertet werden A ist weniger als ε.

Diese Bedingungen sind alle gleichwertig, obwohl dies nicht trivial ist.[21] In dieser Definition, f wird genannt Wahrscheinlichkeitsdichtefunktion von X (relativ zur Lebesgue -Maßnahme). Gemäß der Formel für Variablen für die Lebesgue-Integration,,[22] kombiniert mit dem Gesetz des unbewussten Statistikers,[23] es folgt dem

Für jede absolut kontinuierliche Zufallsvariable X. Die obige Diskussion kontinuierlicher Zufallsvariablen ist daher ein Sonderfall der allgemeinen Lebesgue-Theorie, da jede stückweise kontinuierliche Funktion messbar ist.

Unendliche erwartete Werte

Die oben definierten erwarteten Werte sind automatisch endliche Zahlen. In vielen Fällen ist es jedoch von grundlegender Bedeutung, die erwarteten Werte von berücksichtigen zu können ± ∞. Dies ist zum Beispiel intuitiv im Fall der St. Petersburg Paradox, in dem man eine zufällige Variable mit möglichen Ergebnissen betrachtet xi = 2imit den damit verbundenen Wahrscheinlichkeiten pi = 2i, zum i über alle positiven Ganzzahlen reichen. Nach der Summierungsformel bei zufälligen Variablen mit zähnen Ergebnissen hat man

Es ist natürlich zu sagen, dass der erwartete Wert gleich +∞.

Es gibt eine strenge mathematische Theorie, die solchen Ideen zugrunde liegt, die oft als Teil der Definition des Lebesgue -Integrals genommen wird.[20] Die erste grundlegende Beobachtung ist, dass je nachdem, welcher der oben genannten Definitionen befolgt wird, jeder nicht negativ Zufallsvariable kann ein eindeutiger erwarteter Wert erhalten; Wenn die absolute Konvergenz fehlschlägt, kann der erwartete Wert definiert werden als +∞. Die zweite grundlegende Beobachtung ist, dass jede zufällige Variable als Differenz von zwei nichtnegativen Zufallsvariablen geschrieben werden kann. Bei einer zufälligen Variablen Xman definiert die positive und negative Teile durch X + = max (X, 0) und X = −min (X, 0). Dies sind nicht negative Zufallsvariablen, und es kann direkt überprüft werden X = X +X. Seit E [X +] und E [X] werden beide dann entweder als nichtnegative Zahlen definiert oder +∞Es ist dann natürlich zu definieren:

Nach dieser Definition,, E [X] existiert und ist endlich, wenn und nur wenn E [X +] und E [X] sind beide endlich. Aufgrund der Formel |X| = X + + XDies ist der Fall, wenn und nur wenn E |X| ist endlich und dies entspricht den absoluten Konvergenzbedingungen in den obigen Definitionen. Daher definieren die vorliegenden Überlegungen in keiner zuvor nicht berücksichtigten Fälle endliche erwartete Werte. Sie sind nur für unendliche Erwartungen nützlich.
  • Im Fall des St. Petersburg -Paradoxons hat man X = 0 und so E [X] = +∞ wie gewünscht.
  • Angenommen die zufällige Variable X Nimmt Werte 1, –2,3, –4, ... mit jeweiligen Wahrscheinlichkeiten –2, 6 (2π)–2, 6 (3π)–2, 6 (4π)–2, .... Dann folgt das X + Wert nimmt Wert 2k–1 mit Wahrscheinlichkeit 6 (2k−1) π)–2 Für jede positive Ganzzahl k, und nimmt Wert auf 0 mit verbleibender Wahrscheinlichkeit. Ähnlich, X Wert nimmt Wert 2k mit Wahrscheinlichkeit 6 (2kπ)–2 Für jede positive Ganzzahl k und nimmt Wert an 0 mit verbleibender Wahrscheinlichkeit. Mit der Definition für nicht negative Zufallsvariablen kann man zeigen, dass beide E [X +] = ∞ und E [X] = −∞ (sehen Harmonische Serie). Daher in diesem Fall die Erwartung von X ist nicht definiert.
  • In ähnlicher Weise hat die Cauchy -Verteilung, wie oben erläutert, undefinierte Erwartungen.

Erwartete Werte gemeinsamer Verteilungen

Die folgende Tabelle gibt die erwarteten Werte einiger häufig vorkommender Wahrscheinlichkeitsverteilungen an. Die dritte Spalte ergibt die erwarteten Werte sowohl in der Form, die sofort durch die Definition angegeben ist, als auch in der durch Berechnung erhaltenen vereinfachten Form. Die Details dieser Berechnungen, die nicht immer einfach sind, finden Sie in den angegebenen Referenzen.

Verteilung Notation Mean e (x)
Bernoulli[24]
Binomial[25]
Poisson[26]
Geometrisch[27]
Uniform[28]
Exponentiell[29]
Normal[30]
Standardnormal[31]
Pareto[32]
Cauchy[33] ist nicht definiert

Eigenschaften

Die grundlegenden Eigenschaften unten (und deren Namen in Fettdruck) replizieren oder folgen sofort von denen von Lebesgue Integral. Beachten Sie, dass die Buchstaben "A.S." stehen für "Fast sicher" - eine zentrale Eigenschaft des Lebesgue -Integrals. Grundsätzlich sagt man, dass eine Ungleichheit wie ist fast sicher, wenn die Wahrscheinlichkeitsmaßnahme Null-Masse auf das komplementäre Ereignis zurückzuführen ist .

  • Nicht-Negativität: Wenn (wie früher .
  • Linearität der Erwartung:[34] Der erwartete Wertbetreiber (oder Erwartungsbetreiber) ist linear in dem Sinne, dass für alle zufälligen Variablen und und eine Konstante ,
Immer wenn die rechte Seite gut definiert ist. Dies bedeutet, dass der erwartete Wert der Summe einer endlichen Anzahl von Zufallsvariablen die Summe der erwarteten Werte der einzelnen Zufallsvariablen ist und der erwartete Wert linear mit einer multiplikativen Konstante skaliert wird. Symbolisch für zufällige Variablen und Konstanten , wir haben .
  • Monotonizität: Wenn (wie.), und beide und existieren dann .
    Der Beweis folgt aus der Linearität und der Nicht-Negativitätseigenschaft für , seit (wie.).
  • Nicht-Degenerität: Wenn , dann (wie.).
  • Wenn (wie.), dann . Mit anderen Worten, wenn x und y zufällige Variablen sind, die unterschiedliche Werte mit Wahrscheinlichkeit Null annehmen, ist die Erwartung von X der Erwartung von Y entspricht.
  • Wenn (wie.) für eine reelle Zahl c, dann . Insbesondere für eine zufällige Variable mit genau definierten Erwartungen, . Eine genau definierte Erwartung impliziert, dass es eine Zahl oder vielmehr eine Konstante gibt, die den erwarteten Wert definiert. So folgt die Erwartung dieser Konstante nur der ursprüngliche erwartete Wert.
  • Infolge der Formel |X| = X + + X wie oben diskutiert, zusammen mit dem DreiecksungleichungDaraus folgt für jede zufällige Variable Mit genau definierten Erwartungen hat man .
  • Lassen 1A bezeichnen die Indikatorfunktion von einem Veranstaltung A, dann E [1A] wird durch die Wahrscheinlichkeit von gegeben A. Dies ist nichts anderes als eine andere Art, die Erwartung von a zu sagen Bernoulli Zufallsvariable, wie in der obigen Tabelle berechnet.
  • Formeln in Bezug auf CDF: Wenn ist der Verteilungsfunktion einer zufälligen Variablen X, dann
wo die Werte auf beiden Seiten gut definiert oder nicht genau definiert sind und das Integral im Sinne von genommen wird Lebesgue-Stieltjes. Als Konsequenz Integration in Teilstücken wie für diese Darstellung von angewendet E [X]Es kann bewiesen werden, dass das
mit den Integralen im Sinne von Lebesgue.[35] Als Sonderfall für eine zufällige Variable X Bewertet in den nichtnegativen ganzen Zahlen {0, 1, 2, 3, ...}, hat man
wo P bezeichnet die zugrunde liegende Wahrscheinlichkeitsmaßnahme.
  • Nicht-Multiplikativität: Im Allgemeinen ist der erwartete Wert nicht multiplikativ, d.h. ist nicht unbedingt gleich zu . Wenn und sind unabhängigdann kann man das zeigen . Wenn die zufälligen Variablen sind abhängigdann allgemein obwohl in besonderen Fällen von Abhängigkeiten die Gleichheit gelten kann.
  • Law of the unconscious statistician: Der erwartete Wert einer messbaren Funktion von , Angesichts dessen hat eine Wahrscheinlichkeitsdichtefunktion , wird von der gegeben Innenprodukt von und :[34]
    Diese Formel gilt auch in mehrdimensionalem Fall, wenn ist eine Funktion mehrerer zufälliger Variablen, und ist da gemeinsame Dichte.[34][36]

Ungleichheiten

Konzentrationsungleichheiten Kontrolle der Wahrscheinlichkeit einer zufälligen Variablen, die große Werte annimmt. Markovs Ungleichheit gehört zu den bekanntesten und einfachsten zu beweisen: für a nicht negativ zufällige Variable X und jede positive Zahl a, es sagt, dass[37]

Wenn X ist eine zufällige Variable mit begrenzter Erwartung, dann kann die Ungleichheit von Markov auf die Zufallsvariable angewendet werden |X−e [X] |2 erhalten Chebyshevs Ungleichheit
wo Var ist der Varianz.[37] Diese Ungleichheiten sind für ihren nahezu vollständigen Mangel an bedingten Annahmen von Bedeutung. Beispielsweise impliziert die Chebyshev -Ungleichheit für eine zufällige Variable mit begrenzter Erwartung, dass mindestens eine Wahrscheinlichkeit von 75% für ein Ergebnis innerhalb von zwei besteht Standardabweichungen des erwarteten Wertes. In besonderen Fällen liefern die Ungleichheiten von Markov und Chebyshew jedoch häufig viel schwächere Informationen als ansonsten verfügbar. Beispielsweise sagt Chebyshevs Ungleichheit bei einem ungewichteten Würfel, dass die Wahrscheinlichkeit zwischen 1 und 6 mindestens 53%beträgt. In Wirklichkeit sind die Chancen natürlich zu 100%.[38] Das Kolmogorov -Ungleichheit Erweitert die Chebyshev -Ungleichheit auf den Kontext von Summen von Zufallsvariablen.[39]

Die folgenden drei Ungleichheiten sind im Bereich von grundlegender Bedeutung Mathematische Analyse und seine Anwendungen auf Wahrscheinlichkeitstheorie.

  • Jensens Ungleichheit: Lassen f: ℝ → ℝ sei a Konvexe Funktion und X Eine zufällige Variable mit begrenzter Erwartung. Dann[40]
Ein Teil der Behauptung ist, dass die negativer Teil von f(X) hat eine begrenzte Erwartung, so dass die rechte Seite gut definiert ist (möglicherweise unendlich). Konvexität von f kann formuliert werden, dass die Ausgabe des gewichteten Durchschnitts von zwei Inputs schätzt den gleichen gewichteten Durchschnitt der beiden Ausgänge; Die Ungleichheit von Jensen erweitert dies auf die Einstellung völlig allgemeiner gewichteter Durchschnittswerte, wie die Erwartungen dargestellt. Im Sonderfall, dass f(x) = |x|t/s für positive Zahlen s < tMan erhält die Lyapunov -Ungleichheit[41]
Dies kann auch durch die Hölder -Ungleichheit beweisen.[40] In der Messentheorie ist dies besonders bemerkenswert, um die Aufnahme zu beweisen Ls ⊂ lt von Lp Räumeim Sonderfall von Wahrscheinlichkeitsräume.
  • Hölders Ungleichheit: wenn p > 1 und q > 1 sind Zahlen zufriedenstellend p –1 + q –1 = 1, dann
Für zufällige Variablen X und Y.[40] Der Sonderfall von p = q = 2 wird genannt Cauchy -Schwarz -Ungleichheitund ist besonders bekannt.[40]
  • Minkowski -Ungleichheit: gegebenenfalls eine beliebige Zahl p ≥ 1für alle zufälligen Variablen X und Y mit E |X|p und E |Y|p Beide endlich, folgt das E |X + Y|p ist auch endlich und[42]

Die Ungleichheiten von Hölder und Minkowski können auf allgemein ausgedehnt werden Räume messen, und werden oft in diesem Kontext gegeben. Im Gegensatz dazu ist die Jensen -Ungleichheit für den Fall von Wahrscheinlichkeitsräumen besonders.

Erwartungen unter Konvergenz von Zufallsvariablen

Im Allgemeinen ist es nicht der Fall, dass selbst wenn punkthaft. Daher kann man ohne zusätzliche Bedingungen für die Zufallsvariablen keine Grenzen und Erwartungen austauschen. Um das zu sehen, lassen Sie es eine zufällige Variable einheitlich verteilt sein auf . Zum Definieren Sie eine Sequenz von zufälligen Variablen

mit Die Indikatorfunktion des Ereignisses ist . Dann folgt das punkthaft. Aber, für jeden . Somit,

Analog für die allgemeine Sequenz von zufälligen Variablen , der erwartete Wertbetreiber ist nicht -Additiv, d.h.

Ein Beispiel ist leicht durch Einstellen zu erhalten und zum , wo ist wie im vorherigen Beispiel.

Eine Reihe von Konvergenzgebnissen geben genaue Bedingungen an, die es ermöglichen, Grenzwerte und Erwartungen wie nachstehend angegeben.

  • Monoton -Konvergenzsatz: Lassen eine Folge von zufälligen Variablen sein, mit (a.s) für jeden . Außerdem lassen Sie punkthaft. Dann erklärt der monoton Konvergenzsatz, dass das
    Unter Verwendung des Monotonkonvergenz-Theorems kann man zeigen, dass die Erwartung tatsächlich die zähliche Additivität für nicht negative Zufallsvariablen erfüllt. Insbesondere lassen Sie nicht negative Zufallsvariablen sein. Es folgt von Monoton -Konvergenzsatz das
  • Fatous Lemma: Lassen Seien Sie eine Sequenz nicht negativer Zufallsvariablen. Fatous Lemma erklärt das
    Logische Folge. Lassen mit für alle . Wenn (wie früher
    Nachweisen ist durch Beobachtung das (a.s.) und anwenden Sie Fatous Lemma.
  • Dominierter Konvergenzsatz: Lassen Seien Sie eine Folge von Zufallsvariablen. Wenn punkthaft (wie.), (a.s.) und . Dann nach dem dominierten Konvergenzsatz,,
    • ;
  • Einheitliche Integrierbarkeit: In einigen Fällen die Gleichheit gilt, wenn die Sequenz ist einheitlich integrierbar.

Beziehung zur charakteristischen Funktion

Die Wahrscheinlichkeitsdichtefunktion einer skalaren zufälligen Variablen ist mit seinem verwandt charakteristische Funktion durch die Inversionsformel:

Für den erwarteten Wert von (wo ist ein Borelfunktion), wir können diese Inversionsformel verwenden, um zu erhalten

Wenn ist endlich, die Reihenfolge der Integration verändert, erhalten wir in Übereinstimmung mit Fubini -Tonelli -TheoremAnwesend

wo

ist die Fourier -Transformation von Der Ausdruck für folgt auch direkt von Plancherel Theorem.

Verwendungen und Anwendungen

Die Erwartung einer zufälligen Variablen spielt in einer Vielzahl von Kontexten eine wichtige Rolle. Zum Beispiel in EntscheidungstheorieEs wird häufig angenommen, dass ein Agent eine optimale Wahl im Kontext unvollständiger Informationen hat Nützlichkeitsfunktion. Für ein anderes Beispiel in StatistikenWenn man Schätzungen für unbekannte Parameter basierend auf verfügbaren Daten sucht, ist die Schätzung selbst eine zufällige Variable. In solchen Einstellungen ist ein wünschenswerter Kriterium für einen "guten" Schätzer, dass es ist unvoreingenommen; Das heißt, der erwartete Wert der Schätzung entspricht dem wahrer Wert des zugrunde liegenden Parameters.

Es ist möglich, einen erwarteten Wert zu konstruieren, der der Wahrscheinlichkeit eines Ereignisses entspricht, indem die Erwartung eines Indikatorfunktion Das ist eine, wenn das Ereignis aufgetreten ist und sonst Null. Diese Beziehung kann verwendet werden, um Eigenschaften erwarteter Werte in Eigenschaften von Wahrscheinlichkeiten, z. Verwendung der Gesetz der großen Anzahl Um die Schätzungen der Wahrscheinlichkeiten durch zu rechtfertigen Frequenzen.

Die erwarteten Werte der Kräfte von X werden als die genannt Momente von X; das Momente über den Mittelwert von X sind erwartete Werte von Kräften von X - e [X]. Die Momente einiger zufälliger Variablen können verwendet werden, um ihre Verteilungen über ihre zu spezifizieren Moment Generierung von Funktionen.

Empirisch schätzen Der erwartete Wert einer Zufallsvariablen misst man wiederholt Beobachtungen der Variablen und berechnet die arithmetisches Mittel der Ergebnisse. Wenn der erwartete Wert vorhanden ist, schätzt dieses Verfahren den wahren erwarteten Wert in einem unvoreingenommen Art und hat das Eigentum, die Summe der Quadrate der Quadrate zu minimieren Residuen (die Summe der quadratischen Unterschiede zwischen den Beobachtungen und der schätzen). Das Gesetz der großen Anzahl demonstriert (unter ziemlich milden Bedingungen), wie die Größe des Probe wird größer, die Varianz von diesem schätzen wird kleiner.

Diese Eigenschaft wird häufig in einer Vielzahl von Anwendungen ausgenutzt, einschließlich allgemeiner Probleme von Statistische Schätzung und maschinelles Lernen, um (probabilistische) Interessensgrößen durch abzuschätzen Monte -Carlo -MethodenDa die meisten Interessenmengen in Bezug auf die Erwartung geschrieben werden können, z. , wo ist die Indikatorfunktion des Satzes .

Die Masse der Wahrscheinlichkeitsverteilung ist beim erwarteten Wert ausgeglichen, hier eine Beta -Verteilung (α, β) mit dem erwarteten Wert α/(α+β).

Im klassische Mechanik, das Massezentrum ist ein analoges Konzept zur Erwartung. Zum Beispiel annehmen X ist eine diskrete Zufallsvariable mit Werten xi und entsprechende Wahrscheinlichkeiten pi. Betrachten Sie nun eine schwerelose Stange, auf der Gewichte an Orten platziert sind xi entlang der Stange und Massen haben pi (deren Summe eins ist). Der Punkt, an dem die Stabbalance ausilt ist [X].

Erwartete Werte können auch verwendet werden, um die zu berechnen Varianzmithilfe der Computerformel für die Varianz

Eine sehr wichtige Anwendung des Erwartungswerts ist im Bereich von Quantenmechanik. Der Erwartungswert eines quantenmechanischen Operators operieren auf a Quantenzustand Vektor ist geschrieben als . Das Unsicherheit in kann mit der Formel berechnet werden .

Siehe auch

Verweise

  1. ^ "Erwartung | Mittel | Durchschnitt". www.probabilitycourse.com. Abgerufen 2020-09-11.
  2. ^ Hansen, Bruce. "Wahrscheinlichkeit und Statistiken für Ökonomen" (PDF). Abgerufen 2021-07-20.{{}}: CS1 Wartung: URL-Status (Link)
  3. ^ Wasserman, Larry (Dezember 2010). Alle Statistiken: ein prägnanter Kurs in statistischer Inferenz. Springer Texte in Statistiken. p. 47. ISBN 9781441923226.
  4. ^ Vorgeschichte der Wahrscheinlichkeit und Statistik und deren Anwendungen vor 1750. Wiley -Serie in Wahrscheinlichkeit und Statistik. 1990. doi:10.1002/0471725161. ISBN 9780471725169.
  5. ^ Ore, Oystein (1960). "Erz, Pascal und die Erfindung der Wahrscheinlichkeitstheorie". Das amerikanische mathematische monatliche. 67 (5): 409–419. doi:10.2307/2309286. JStor 2309286.
  6. ^ McKay, Cain (2019). Wahrscheinlichkeit und Statistik. p. 257. ISBN 9781839473302.
  7. ^ George Mackey (Juli 1980). "Harmonische Analyse als Ausnutzung der Symmetrie - eine historische Umfrage". Bulletin der American Mathematical Society. Neue Serien. 3 (1): 549.
  8. ^ Huygens, Christian. "Der Wert von Chancen in Glücksspielen. Englische Übersetzung" (PDF).
  9. ^ Laplace, Pierre Simon, Marquis de, 1749-1827. (1952) [1951]. Ein philosophischer Aufsatz über Wahrscheinlichkeiten. Dover Publications. OCLC 475539.{{}}: Cs1 montiert: Mehrfachnamen: Autorenliste (Link)
  10. ^ Whitworth, W.A. (1901) Auswahl und Zufall mit tausend Übungen. Fünfte Ausgabe. Deighton Bell, Cambridge. [Nachdruck von Hafner Publishing Co., New York, 1959.]
  11. ^ "Früheste Verwendung von Symbolen in Wahrscheinlichkeit und Statistik".
  12. ^ Feller 1968, p. 221.
  13. ^ Billingsley 1995, p. 76.
  14. ^ Ross 2019, Abschnitt 2.4.1.
  15. ^ a b Feller 1968, Abschnitt IX.2.
  16. ^ Papoulis & Pillai 2002, Abschnitt 5-3; Ross 2019, Abschnitt 2.4.2.
  17. ^ Feller 1971, Abschnitt I.2.
  18. ^ Feller 1971, p. 5.
  19. ^ Billingsley 1995, p. 273.
  20. ^ a b Billingsley 1995, Abschnitt 15.
  21. ^ Billingsley 1995, Theorems 31.7 und 31.8 und p. 422.
  22. ^ Billingsley 1995, Satz 16.13.
  23. ^ Billingsley 1995, Satz 16.11.
  24. ^ Casella & Berger 2001, p. 89; Ross 2019Beispiel 2.16.
  25. ^ Casella & Berger 2001Beispiel 2.2.3; Ross 2019Beispiel 2.17.
  26. ^ Billingsley 1995Beispiel 21.4; Casella & Berger 2001, p. 92; Ross 2019Beispiel 2.19.
  27. ^ Casella & Berger 2001, p. 97; Ross 2019Beispiel 2.18.
  28. ^ Casella & Berger 2001, p. 99; Ross 2019Beispiel 2.20.
  29. ^ Billingsley 1995Beispiel 21.3; Casella & Berger 2001Beispiel 2.2.2; Ross 2019Beispiel 2.21.
  30. ^ Casella & Berger 2001, p. 103; Ross 2019Beispiel 2.22.
  31. ^ Billingsley 1995Beispiel 21.1; Casella & Berger 2001, p. 103.
  32. ^ Johnson, Kotz & Balakrishnan 1994, Kapitel 20.
  33. ^ Feller 1971, Abschnitt II.4.
  34. ^ a b c Weisstein, Eric W. "Erwartungswert". mathworld.wolfram.com. Abgerufen 2020-09-11.
  35. ^ Feller 1971, Abschnitt V.6.
  36. ^ Papoulis & Pillai 2002, Abschnitt 6-4.
  37. ^ a b Feller 1968, Abschnitt IX.6; Feller 1971, Abschnitt V.7; Papoulis & Pillai 2002, Abschnitt 5-4; Ross 2019, Abschnitt 2.8.
  38. ^ Feller 1968, Abschnitt IX.6.
  39. ^ Feller 1968, Abschnitt IX.7.
  40. ^ a b c d Feller 1971, Abschnitt V.8.
  41. ^ Billingsley 1995, S. 81, 277.
  42. ^ Billingsley 1995, Abschnitt 19.

Literatur

Externe Links

"Erwarteter Wert | Brilliantes Mathematik & Naturwissenschaften Wiki". Brilliant.org. Abgerufen 2020-08-21.