Erwarteter Wert
Im Wahrscheinlichkeitstheorie, das erwarteter Wert (auch genannt Erwartung, Erwartung, Mathematische Erwartung, bedeuten, Durchschnitt, oder Erster Moment) ist eine Verallgemeinerung der gewichteter Durchschnitt. Informell ist der erwartete Wert der arithmetisches Mittel von einer großen Anzahl von unabhängig ausgewählt Ergebnisse von a zufällige Variable.
Der erwartete Wert von a zufällige Variable Mit einer begrenzten Anzahl von Ergebnissen ist a gewichteter Durchschnitt aller möglichen Ergebnisse. Im Falle eines Kontinuums möglicher Ergebnisse wird die Erwartung durch definiert durch Integration. In der axiomatischen Grundlage für die Wahrscheinlichkeit, die von bereitgestellt wurde durch Theorie messen, Die Erwartung wird gegeben Lebesgue integration.
Der erwartete Wert einer zufälligen Variablen X wird oft mit bezeichnet durch E (X), E [X], oder EX, mit E auch oft stilisiert als E oder [1][2][3]
Geschichte
Die Idee des erwarteten Wertes entstand in der Mitte des 17. Jahrhunderts aus der Untersuchung der sogenannten Punktproblem, was versucht, den Einsatz zu teilen fairer Weise Zwischen zwei Spielern, die ihr Spiel beenden müssen, bevor es richtig fertig ist.[4] Dieses Problem war seit Jahrhunderten diskutiert worden. Viele widersprüchliche Vorschläge und Lösungen wurden im Laufe der Jahre vorgeschlagen, als es sich versammelte Blaise Pascal vom französischen Schriftsteller und Amateurmathematiker Chevalier de Méré 1654. Méré behauptete, dass dieses Problem nicht gelöst werden könne und dass es zeigte, wie fehlerhaft die Mathematik war, als es um ihre Bewerbung auf die reale Welt ging. Als Mathematiker war Pascal provoziert und entschlossen, das Problem ein für alle Mal zu lösen.
Er begann das Problem in der berühmten Reihe von Briefen zu besprechen Pierre de Fermat. Bald genug kamen beide unabhängig eine Lösung. Sie lösten das Problem auf unterschiedliche rechnerische Weise, ihre Ergebnisse waren jedoch identisch, da ihre Berechnungen auf demselben Grundprinzip beruhten. Das Prinzip ist, dass der Wert eines zukünftigen Gewinns direkt proportional zu der Wahrscheinlichkeit sein sollte, ihn zu bekommen. Dieses Prinzip schien für beide natürlich gekommen zu sein. Sie waren sehr erfreut über die Tatsache, dass sie im Wesentlichen die gleiche Lösung gefunden hatten, und dies machte sie wiederum absolut überzeugt, dass sie das Problem endgültig gelöst hatten. Sie haben ihre Ergebnisse jedoch nicht veröffentlicht. Sie informierten nur einen kleinen Kreis gegenseitiger wissenschaftlicher Freunde in Paris darüber.[5]
Im niederländischen Mathematiker Christiaan Huygens ' Buch betrachtete das Problem der Punkte und präsentierte eine Lösung, die auf demselben Prinzip wie die Lösungen von Pascal und Fermat basiert. Huygens veröffentlichte seine Abhandlung im Jahr 1657 (siehe Huygens (1657)) "De Ratiociniis in Ludo Aleæ"Über die Wahrscheinlichkeitstheorie kurz nach dem Besuch von Paris. Das Buch erweiterte das Erwartungskonzept, indem sie Regeln für die Berechnung der Erwartungen in komplizierteren Situationen als das ursprüngliche Problem (z. B. für drei oder mehr Spieler) hinzufügen und als erster erfolgreich angesehen werden können Versuch, die Grundlagen des Wahrscheinlichkeitstheorie.
Im Vorwort seiner Abhandlung schrieb Huygens:
Es sollte auch gesagt werden, dass sich einige der besten Mathematiker Frankreichs mit dieser Art von Kalkül beschäftigt haben, damit mich niemand die Ehre der ersten Erfindung zuschreiben sollte. Das gehört mir nicht. Aber diese Gelehrten, obwohl sie sich gegenseitig auf die Probe stellen, indem sie sich gegenseitig viele Fragen vorschlagen, haben ihre Methoden verborgen. Ich hatte daher, mich zu untersuchen und mich tief in diese Angelegenheit einzusprechen, indem ich mit den Elementen begann, und es ist für mich aus diesem Grund unmöglich, zu bestätigen, dass ich überhaupt vom gleichen Prinzip gestartet habe. Aber schließlich habe ich festgestellt, dass meine Antworten in vielen Fällen nicht von ihren unterscheiden.
-Edwards (2002)
Während seines Besuchs in Frankreich im Jahr 1655 lernte Huygens über De Mérés Problem. Aus seiner Korrespondenz mit Karzavin ein Jahr später (1656) stellte er fest, dass seine Methode im Wesentlichen die gleiche war wie die von Pascal. Daher wusste er von Pascals Priorität in diesem Thema, bevor sein Buch 1657 zum Presse ging.[6]
Mitte des neunzehnten Jahrhunderts, Pafnuty Chebyshev wurde die erste Person, die in Bezug auf die Erwartungen von systematisch dachte zufällige Variablen.[7]
Etymologie
Weder Pascal noch Huygens verwendeten den Begriff "Erwartung" in seinem modernen Sinne. Insbesondere Huygens schreibt:[8]
Dass eine Chance oder Erwartung, etwas zu gewinnen, so eine Summe wert ist, wie es sich in der gleichen Chance und Erwartung auf eine faire Laie beziehen würde. ... Wenn ich A oder B erwarte und die gleiche Chance habe, sie zu gewinnen, ist meine Erwartung wert (a+b)/2.
Mehr als hundert Jahre später, 1814,, Pierre-Simon Laplace veröffentlichte sein Traktat "Théorie Analytique des Probabilités", wo das Konzept des erwarteten Wertes explizit definiert wurde:[9]
… Dieser Vorteil in der Zufallstheorie ist das Produkt der Summe, die durch die Wahrscheinlichkeit, sie zu erhalten, erhofft; Es ist die teilweise Summe, die sich ergeben sollte, wenn wir die Risiken des Ereignisses nicht ausführen möchten, um anzunehmen, dass die Teilung proportional zu den Wahrscheinlichkeiten hergestellt wird. Diese Aufteilung ist die einzig gerechte, wenn alle seltsamen Umstände beseitigt werden. Weil ein gleicher Maß an Wahrscheinlichkeit ein gleiches Recht für die hoffnungsgemäße Summe ergibt. Wir werden diesen Vorteil nennen Mathematische Hoffnung.
Notationen
Die Verwendung des Briefes E Um den erwarteten Wert zu bezeichnen, geht zurück auf W. A. Whitworth im Jahr 1901.[10] Das Symbol ist seitdem für englische Schriftsteller populär geworden. Auf Deutsch, E steht für "ErwartungsWert", auf Spanisch für "Esperanza Matemática" und in Französisch für "Espérance Mathématique".[11]
Wenn "E" verwendet wird, um den erwarteten Wert zu kennzeichnen, verwenden Autoren eine Vielzahl von Stylisation: Der Erwartungsbetreiber kann als stilisiert werden E (aufrecht), E (kursiv) oder (in Blackboard fett), während eine Vielzahl von Klammernotationen (wie z. E (X), E [X], und EX) werden alle verwendet.
Eine andere beliebte Notation ist μX, wohingegen ⟨X⟩, ⟨X⟩ein V, und werden häufig in der Physik verwendet,[12] und M(X) In der russischsprachigen Literatur.
Definition
Wie nachstehend erläutert, gibt es mehrere kontextabhängige Möglichkeiten, den erwarteten Wert zu definieren. Die einfachste und ursprüngliche Definition befasst sich mit dem Fall endlich vieler möglicher Ergebnisse, wie z. B. im Flip einer Münze. Mit der Theorie der Infinite -Serie kann dies auf den Fall zäher möglicher Ergebnisse erweitert werden. Es ist auch sehr häufig, den unterschiedlichen Fall von Zufallsvariablen zu betrachten, die durch (stückweise) kontinuierlich diktiert sind Wahrscheinlichkeitsdichtefunktionenwie diese in vielen natürlichen Kontexten entstehen. Alle diese spezifischen Definitionen können als besondere Fälle der allgemeinen Definition angesehen werden, die auf den mathematischen Instrumenten von basieren Theorie messen und Lebesgue integration, die diese unterschiedlichen Kontexte mit einer axiomatischen Grundlage und einer gemeinsamen Sprache liefern.
Jede Definition des erwarteten Wertes kann erweitert werden, um einen erwarteten Wert einer mehrdimensionalen Zufallsvariablen zu definieren, d. H. A. zufälliger Vektor X. Es wird von Komponenten als Komponente definiert, als E [X]i = E [Xi]. In ähnlicher Weise kann man den erwarteten Wert von a definieren Zufällige Matrix X mit Komponenten Xij durch E [X]ij = E [Xij].
Zufällige Variablen mit endlich vielen Ergebnissen
Betrachten Sie eine zufällige Variable X mit einer endlich aufführen x1, ..., xk mögliche Ergebnisse, von denen jeweils (jeweils) Wahrscheinlichkeit hat p1, ..., pk auftreten. Das Erwartung von X ist definiert als[13]
Da müssen die Wahrscheinlichkeiten erfüllen p1 + ⋅ebook + pk = 1Es ist natürlich zu interpretieren E [X] Als ein gewichteter Durchschnitt des xi Werte mit Gewichten, die durch ihre Wahrscheinlichkeiten angegeben sind pi.
In dem Sonderfall, dass alle möglichen Ergebnisse sind EquiproBable (das ist, p1 = · · = pk) Der gewichtete Durchschnitt wird durch den Standard gegeben Durchschnitt. Im allgemeinen Fall berücksichtigt der erwartete Wert die Tatsache, dass einige Ergebnisse häufiger als andere sind.

Beispiele
- Lassen das Ergebnis einer Rolle einer fairen sechsseitigen darstellen sterben. Genauer, wird die Anzahl von sein Pips zeigen auf der oberen Seite der sterben Nach dem Wurf. Die möglichen Werte für sind 1, 2, 3, 4, 5 und 6, die alle gleich wahrscheinlich mit einer Wahrscheinlichkeit von sind 1/6. Die Erwartung von ist
- Wenn man die rollt sterben Zeiten und berechnet den Durchschnitt (arithmetisches Mittel) der Ergebnisse, dann als wächst, der Durchschnitt wird Fast sicher konvergieren zum erwarteten Wert eine Tatsache, die als die bekannt ist starkes Gesetz großer Anzahl.
- Das Roulette Das Spiel besteht aus einem kleinen Ball und einem Rad mit 38 nummerierten Taschen am Rand. Während das Rad gedreht wird, springt der Ball zufällig herum, bis es sich in einer der Taschen absetzt. Angenommen, eine zufällige Variable repräsentiert das (Geld-) Ergebnis einer 1 -Dollar -Wette auf eine einzelne Zahl ("geradlinig"). Wenn die Wette gewinnt (was mit Wahrscheinlichkeit passiert 1/38 In American Roulette) beträgt die Auszahlung 35 US -Dollar; Ansonsten verliert der Spieler die Wette. Der erwartete Gewinn aus einer solchen Wette wird sein
- Das heißt, der erwartete Wert, der aus einer Wette von 1 USD gewonnen wird, beträgt - $ - $ 1/19. 190 Wetten wird der Nettoverlust wahrscheinlich etwa 10 US -Dollar betragen.
Zufällige Variablen mit zählich vielen Ergebnissen
Informell die Erwartung einer zufälligen Variablen mit a Zählbar mögliche Ergebnisse werden analog als der gewichtete Durchschnitt aller möglichen Ergebnisse definiert, bei denen die Gewichte durch die Wahrscheinlichkeit der Realisierung jedes gegebenen Wertes angegeben sind. Das heißt das
wo x1, x2, ... sind die möglichen Ergebnisse der zufälligen Variablen X und p1, p2, ... sind ihre entsprechenden Wahrscheinlichkeiten. In vielen nichtmathematischen Lehrbüchern wird dies als vollständige Definition der erwarteten Werte in diesem Zusammenhang dargestellt.[14]
Es gibt jedoch einige Feinheiten mit unendlicher Summation, sodass die obige Formel nicht als mathematische Definition geeignet ist. Insbesondere die Riemann Series Theorem von Mathematische Analyse zeigt, dass der Wert bestimmter unendlicher Summen mit positiven und negativen Summen von der Reihenfolge abhängt, in der die Summanden angegeben sind. Da die Ergebnisse einer zufälligen Variablen keine natürliche Reihenfolge haben, ist dies zu einer Schwierigkeit, den erwarteten Wert genau zu definieren.
Aus diesem Grund betrachten viele mathematische Lehrbücher nur den Fall, dass die oben angegebene unendliche Summe Konvergiert absolut, was impliziert, dass die unendliche Summe eine endliche Zahl unabhängig von der Reihenfolge von Summen ist.[15] In dem alternativen Fall, dass die unendliche Summe nicht absolut konvergiert, sagt man die zufällige Variable hat keine begrenzte Erwartungen.[15]
Beispiele
- Vermuten und zum wo ist der Skalierungsfaktor, der die Wahrscheinlichkeiten auf 1. summiert. Dann haben wir die direkte Definition für nicht negative Zufallsvariablen
Zufallsvariablen mit Dichte
Betrachten Sie nun eine zufällige Variable X was hat a Wahrscheinlichkeitsdichtefunktion durch eine Funktion gegeben f auf der reelle Zahlenzeile. Dies bedeutet, dass die Wahrscheinlichkeit von X einen Wert in einem bestimmten Wert nehmen Offenes Intervall wird von der gegeben Integral- von f in diesem Intervall. Das Erwartung von X wird dann durch das Integral gegeben[16]
Eine allgemeine und mathematisch präzise Formulierung dieser Definition verwendet Theorie messen und Lebesgue integrationund die entsprechende Theorie von absolut kontinuierliche Zufallsvariablen wird im nächsten Abschnitt beschrieben. Die Dichtefunktionen vieler gemeinsamer Verteilungen sind stückweise kontinuierlichund als solche wird die Theorie in dieser eingeschränkten Umgebung oft entwickelt.[17] Für solche Funktionen reicht es aus, nur den Standard zu berücksichtigen Riemann -Integration. Manchmal kontinuierliche Zufallsvariablen werden definiert als diejenigen, die dieser speziellen Klasse von Dichten entsprechen, obwohl der Begriff von vielen verschiedenen Autoren unterschiedlich verwendet wird.
Analog zum oben genannten Fall mit Zähnen, die oben genannt werden, gibt es aufgrund der unendlichen Integrationsregion Feinheiten mit dieser Expression. Solche Feinheiten können konkret gesehen werden, wenn die Verteilung von X wird von der gegeben Cauchy -Verteilung Cauchy (0, π), so dass f(x) = ((x2 + π2)–1. In diesem Fall ist es unkompliziert zu berechnen
Die Grenze dieses Ausdrucks als a → −∞ und b → ∞ existiert nicht: Wenn die Grenzen so genommen werden a = -bdann ist die Grenze Null, während die Einschränkung bei der Einschränkung 2a = -b wird genommen, dann ist die Grenze ln (2).
Um solche Unklarheiten zu vermeiden, ist es in mathematischen Lehrbüchern üblich, dass das gegebene Integral erforderlich ist Konvergiert absolut, mit E [X] sonst undefiniert gelassen.[18] Messentheoretische Begriffe, wie unten angegeben E [X] Für allgemeinere Zufallsvariablen X.
Willkürliche realbewertete Zufallsvariablen
Alle Definitionen des erwarteten Wertes können in der Sprache von ausgedrückt werden Theorie messen. Im Allgemeinen, wenn X ist ein echtes Wert zufällige Variable definiert auf a Wahrscheinlichkeitsraum (Ω, σ, p)dann der erwartete Wert von X, bezeichnet durch E [X], ist definiert als die Lebesgue Integral[19]
Trotz der neu abstrakten Situation ist diese Definition von der Natur der oben genannten Definition der oben angegebenen Definition der erwarteten Werte als bestimmte gewichtete Durchschnittswerte sehr ähnlich. Dies liegt daran, dass in der Messentheorie der Wert des Lebesgue -Integrals von X wird über gewichtete Durchschnittswerte von definiert Annäherungen von X die endlich viele Werte annehmen.[20] Wenn eine zufällige Variable mit endlich oder zäher möglichen möglichen Werten gegeben wird, ist die Erwartungstheorie der Lebesgue mit den oben angegebenen Summierungsformeln identisch. Die Lebesgue -Theorie verdeutlicht jedoch den Umfang der Theorie der Wahrscheinlichkeitsdichtefunktionen. Eine zufällige Variable X wird gesagt, dass absolut kontinuierlich Wenn eine der folgenden Bedingungen erfüllt ist:
- Es gibt einen nicht negativen messbare Funktion f auf der realen Linie so das
- für jeden Borel -Set A, in dem das Integral Lebesgue ist.
- das Verteilungsfunktion von X ist absolut kontinuierlich.
- Für jedes Borel -Set A realer Zahlen mit Lebesgue -Maßnahme gleich Null, die Wahrscheinlichkeit von X bewertet werden A ist auch gleich Null
- für jede positive Zahl ε Es gibt eine positive Zahl δ so dass: wenn A ist ein Borel -Set mit Lebesgue -Maßstab weniger als δdann die Wahrscheinlichkeit von X bewertet werden A ist weniger als ε.
Diese Bedingungen sind alle gleichwertig, obwohl dies nicht trivial ist.[21] In dieser Definition, f wird genannt Wahrscheinlichkeitsdichtefunktion von X (relativ zur Lebesgue -Maßnahme). Gemäß der Formel für Variablen für die Lebesgue-Integration,,[22] kombiniert mit dem Gesetz des unbewussten Statistikers,[23] es folgt dem
Für jede absolut kontinuierliche Zufallsvariable X. Die obige Diskussion kontinuierlicher Zufallsvariablen ist daher ein Sonderfall der allgemeinen Lebesgue-Theorie, da jede stückweise kontinuierliche Funktion messbar ist.
Unendliche erwartete Werte
Die oben definierten erwarteten Werte sind automatisch endliche Zahlen. In vielen Fällen ist es jedoch von grundlegender Bedeutung, die erwarteten Werte von berücksichtigen zu können ± ∞. Dies ist zum Beispiel intuitiv im Fall der St. Petersburg Paradox, in dem man eine zufällige Variable mit möglichen Ergebnissen betrachtet xi = 2imit den damit verbundenen Wahrscheinlichkeiten pi = 2−i, zum i über alle positiven Ganzzahlen reichen. Nach der Summierungsformel bei zufälligen Variablen mit zähnen Ergebnissen hat man
Es gibt eine strenge mathematische Theorie, die solchen Ideen zugrunde liegt, die oft als Teil der Definition des Lebesgue -Integrals genommen wird.[20] Die erste grundlegende Beobachtung ist, dass je nachdem, welcher der oben genannten Definitionen befolgt wird, jeder nicht negativ Zufallsvariable kann ein eindeutiger erwarteter Wert erhalten; Wenn die absolute Konvergenz fehlschlägt, kann der erwartete Wert definiert werden als +∞. Die zweite grundlegende Beobachtung ist, dass jede zufällige Variable als Differenz von zwei nichtnegativen Zufallsvariablen geschrieben werden kann. Bei einer zufälligen Variablen Xman definiert die positive und negative Teile durch X + = max (X, 0) und X − = −min (X, 0). Dies sind nicht negative Zufallsvariablen, und es kann direkt überprüft werden X = X + − X −. Seit E [X +] und E [X −] werden beide dann entweder als nichtnegative Zahlen definiert oder +∞Es ist dann natürlich zu definieren:
- Im Fall des St. Petersburg -Paradoxons hat man X − = 0 und so E [X] = +∞ wie gewünscht.
- Angenommen die zufällige Variable X Nimmt Werte 1, –2,3, –4, ... mit jeweiligen Wahrscheinlichkeiten 6π–2, 6 (2π)–2, 6 (3π)–2, 6 (4π)–2, .... Dann folgt das X + Wert nimmt Wert 2k–1 mit Wahrscheinlichkeit 6 (2k−1) π)–2 Für jede positive Ganzzahl k, und nimmt Wert auf 0 mit verbleibender Wahrscheinlichkeit. Ähnlich, X − Wert nimmt Wert 2k mit Wahrscheinlichkeit 6 (2kπ)–2 Für jede positive Ganzzahl k und nimmt Wert an 0 mit verbleibender Wahrscheinlichkeit. Mit der Definition für nicht negative Zufallsvariablen kann man zeigen, dass beide E [X +] = ∞ und E [X −] = −∞ (sehen Harmonische Serie). Daher in diesem Fall die Erwartung von X ist nicht definiert.
- In ähnlicher Weise hat die Cauchy -Verteilung, wie oben erläutert, undefinierte Erwartungen.
Erwartete Werte gemeinsamer Verteilungen
Die folgende Tabelle gibt die erwarteten Werte einiger häufig vorkommender Wahrscheinlichkeitsverteilungen an. Die dritte Spalte ergibt die erwarteten Werte sowohl in der Form, die sofort durch die Definition angegeben ist, als auch in der durch Berechnung erhaltenen vereinfachten Form. Die Details dieser Berechnungen, die nicht immer einfach sind, finden Sie in den angegebenen Referenzen.
Verteilung | Notation | Mean e (x) |
---|---|---|
Bernoulli[24] | ||
Binomial[25] | ||
Poisson[26] | ||
Geometrisch[27] | ||
Uniform[28] | ||
Exponentiell[29] | ||
Normal[30] | ||
Standardnormal[31] | ||
Pareto[32] | ||
Cauchy[33] | ist nicht definiert |
Eigenschaften
Die grundlegenden Eigenschaften unten (und deren Namen in Fettdruck) replizieren oder folgen sofort von denen von Lebesgue Integral. Beachten Sie, dass die Buchstaben "A.S." stehen für "Fast sicher" - eine zentrale Eigenschaft des Lebesgue -Integrals. Grundsätzlich sagt man, dass eine Ungleichheit wie ist fast sicher, wenn die Wahrscheinlichkeitsmaßnahme Null-Masse auf das komplementäre Ereignis zurückzuführen ist .
- Nicht-Negativität: Wenn (wie früher .
- Linearität der Erwartung:[34] Der erwartete Wertbetreiber (oder Erwartungsbetreiber) ist linear in dem Sinne, dass für alle zufälligen Variablen und und eine Konstante ,
- Immer wenn die rechte Seite gut definiert ist. Dies bedeutet, dass der erwartete Wert der Summe einer endlichen Anzahl von Zufallsvariablen die Summe der erwarteten Werte der einzelnen Zufallsvariablen ist und der erwartete Wert linear mit einer multiplikativen Konstante skaliert wird. Symbolisch für zufällige Variablen und Konstanten , wir haben .
- Monotonizität: Wenn (wie.), und beide und existieren dann . Der Beweis folgt aus der Linearität und der Nicht-Negativitätseigenschaft für , seit (wie.).
- Nicht-Degenerität: Wenn , dann (wie.).
- Wenn (wie.), dann . Mit anderen Worten, wenn x und y zufällige Variablen sind, die unterschiedliche Werte mit Wahrscheinlichkeit Null annehmen, ist die Erwartung von X der Erwartung von Y entspricht.
- Wenn (wie.) für eine reelle Zahl c, dann . Insbesondere für eine zufällige Variable mit genau definierten Erwartungen, . Eine genau definierte Erwartung impliziert, dass es eine Zahl oder vielmehr eine Konstante gibt, die den erwarteten Wert definiert. So folgt die Erwartung dieser Konstante nur der ursprüngliche erwartete Wert.
- Infolge der Formel |X| = X + + X − wie oben diskutiert, zusammen mit dem DreiecksungleichungDaraus folgt für jede zufällige Variable Mit genau definierten Erwartungen hat man .
- Lassen 1A bezeichnen die Indikatorfunktion von einem Veranstaltung A, dann E [1A] wird durch die Wahrscheinlichkeit von gegeben A. Dies ist nichts anderes als eine andere Art, die Erwartung von a zu sagen Bernoulli Zufallsvariable, wie in der obigen Tabelle berechnet.
- Formeln in Bezug auf CDF: Wenn ist der Verteilungsfunktion einer zufälligen Variablen X, dann
-
- wo P bezeichnet die zugrunde liegende Wahrscheinlichkeitsmaßnahme.
- Nicht-Multiplikativität: Im Allgemeinen ist der erwartete Wert nicht multiplikativ, d.h. ist nicht unbedingt gleich zu . Wenn und sind unabhängigdann kann man das zeigen . Wenn die zufälligen Variablen sind abhängigdann allgemein obwohl in besonderen Fällen von Abhängigkeiten die Gleichheit gelten kann.
- Law of the unconscious statistician: Der erwartete Wert einer messbaren Funktion von , Angesichts dessen hat eine Wahrscheinlichkeitsdichtefunktion , wird von der gegeben Innenprodukt von und :[34]
Ungleichheiten
Konzentrationsungleichheiten Kontrolle der Wahrscheinlichkeit einer zufälligen Variablen, die große Werte annimmt. Markovs Ungleichheit gehört zu den bekanntesten und einfachsten zu beweisen: für a nicht negativ zufällige Variable X und jede positive Zahl a, es sagt, dass[37]
Die folgenden drei Ungleichheiten sind im Bereich von grundlegender Bedeutung Mathematische Analyse und seine Anwendungen auf Wahrscheinlichkeitstheorie.
- Jensens Ungleichheit: Lassen f: ℝ → ℝ sei a Konvexe Funktion und X Eine zufällige Variable mit begrenzter Erwartung. Dann[40]
- Ein Teil der Behauptung ist, dass die negativer Teil von f(X) hat eine begrenzte Erwartung, so dass die rechte Seite gut definiert ist (möglicherweise unendlich). Konvexität von f kann formuliert werden, dass die Ausgabe des gewichteten Durchschnitts von zwei Inputs schätzt den gleichen gewichteten Durchschnitt der beiden Ausgänge; Die Ungleichheit von Jensen erweitert dies auf die Einstellung völlig allgemeiner gewichteter Durchschnittswerte, wie die Erwartungen dargestellt. Im Sonderfall, dass f(x) = |x|t/s für positive Zahlen s < tMan erhält die Lyapunov -Ungleichheit[41]
- Dies kann auch durch die Hölder -Ungleichheit beweisen.[40] In der Messentheorie ist dies besonders bemerkenswert, um die Aufnahme zu beweisen Ls ⊂ lt von Lp Räumeim Sonderfall von Wahrscheinlichkeitsräume.
- Hölders Ungleichheit: wenn p > 1 und q > 1 sind Zahlen zufriedenstellend p –1 + q –1 = 1, dann
- Für zufällige Variablen X und Y.[40] Der Sonderfall von p = q = 2 wird genannt Cauchy -Schwarz -Ungleichheitund ist besonders bekannt.[40]
- Minkowski -Ungleichheit: gegebenenfalls eine beliebige Zahl p ≥ 1für alle zufälligen Variablen X und Y mit E |X|p und E |Y|p Beide endlich, folgt das E |X + Y|p ist auch endlich und[42]
Die Ungleichheiten von Hölder und Minkowski können auf allgemein ausgedehnt werden Räume messen, und werden oft in diesem Kontext gegeben. Im Gegensatz dazu ist die Jensen -Ungleichheit für den Fall von Wahrscheinlichkeitsräumen besonders.
Erwartungen unter Konvergenz von Zufallsvariablen
Im Allgemeinen ist es nicht der Fall, dass selbst wenn punkthaft. Daher kann man ohne zusätzliche Bedingungen für die Zufallsvariablen keine Grenzen und Erwartungen austauschen. Um das zu sehen, lassen Sie es eine zufällige Variable einheitlich verteilt sein auf . Zum Definieren Sie eine Sequenz von zufälligen Variablen
mit Die Indikatorfunktion des Ereignisses ist . Dann folgt das punkthaft. Aber, für jeden . Somit,
Analog für die allgemeine Sequenz von zufälligen Variablen , der erwartete Wertbetreiber ist nicht -Additiv, d.h.
Ein Beispiel ist leicht durch Einstellen zu erhalten und zum , wo ist wie im vorherigen Beispiel.
Eine Reihe von Konvergenzgebnissen geben genaue Bedingungen an, die es ermöglichen, Grenzwerte und Erwartungen wie nachstehend angegeben.
- Monoton -Konvergenzsatz: Lassen eine Folge von zufälligen Variablen sein, mit (a.s) für jeden . Außerdem lassen Sie punkthaft. Dann erklärt der monoton Konvergenzsatz, dass das Unter Verwendung des Monotonkonvergenz-Theorems kann man zeigen, dass die Erwartung tatsächlich die zähliche Additivität für nicht negative Zufallsvariablen erfüllt. Insbesondere lassen Sie nicht negative Zufallsvariablen sein. Es folgt von Monoton -Konvergenzsatz das
- Fatous Lemma: Lassen Seien Sie eine Sequenz nicht negativer Zufallsvariablen. Fatous Lemma erklärt das
- Dominierter Konvergenzsatz: Lassen Seien Sie eine Folge von Zufallsvariablen. Wenn punkthaft (wie.), (a.s.) und . Dann nach dem dominierten Konvergenzsatz,,
- ;
- Einheitliche Integrierbarkeit: In einigen Fällen die Gleichheit gilt, wenn die Sequenz ist einheitlich integrierbar.
Beziehung zur charakteristischen Funktion
Die Wahrscheinlichkeitsdichtefunktion einer skalaren zufälligen Variablen ist mit seinem verwandt charakteristische Funktion durch die Inversionsformel:
Für den erwarteten Wert von (wo ist ein Borelfunktion), wir können diese Inversionsformel verwenden, um zu erhalten
Wenn ist endlich, die Reihenfolge der Integration verändert, erhalten wir in Übereinstimmung mit Fubini -Tonelli -TheoremAnwesend
wo
ist die Fourier -Transformation von Der Ausdruck für folgt auch direkt von Plancherel Theorem.
Verwendungen und Anwendungen
Die Erwartung einer zufälligen Variablen spielt in einer Vielzahl von Kontexten eine wichtige Rolle. Zum Beispiel in EntscheidungstheorieEs wird häufig angenommen, dass ein Agent eine optimale Wahl im Kontext unvollständiger Informationen hat Nützlichkeitsfunktion. Für ein anderes Beispiel in StatistikenWenn man Schätzungen für unbekannte Parameter basierend auf verfügbaren Daten sucht, ist die Schätzung selbst eine zufällige Variable. In solchen Einstellungen ist ein wünschenswerter Kriterium für einen "guten" Schätzer, dass es ist unvoreingenommen; Das heißt, der erwartete Wert der Schätzung entspricht dem wahrer Wert des zugrunde liegenden Parameters.
Es ist möglich, einen erwarteten Wert zu konstruieren, der der Wahrscheinlichkeit eines Ereignisses entspricht, indem die Erwartung eines Indikatorfunktion Das ist eine, wenn das Ereignis aufgetreten ist und sonst Null. Diese Beziehung kann verwendet werden, um Eigenschaften erwarteter Werte in Eigenschaften von Wahrscheinlichkeiten, z. Verwendung der Gesetz der großen Anzahl Um die Schätzungen der Wahrscheinlichkeiten durch zu rechtfertigen Frequenzen.
Die erwarteten Werte der Kräfte von X werden als die genannt Momente von X; das Momente über den Mittelwert von X sind erwartete Werte von Kräften von X - e [X]. Die Momente einiger zufälliger Variablen können verwendet werden, um ihre Verteilungen über ihre zu spezifizieren Moment Generierung von Funktionen.
Empirisch schätzen Der erwartete Wert einer Zufallsvariablen misst man wiederholt Beobachtungen der Variablen und berechnet die arithmetisches Mittel der Ergebnisse. Wenn der erwartete Wert vorhanden ist, schätzt dieses Verfahren den wahren erwarteten Wert in einem unvoreingenommen Art und hat das Eigentum, die Summe der Quadrate der Quadrate zu minimieren Residuen (die Summe der quadratischen Unterschiede zwischen den Beobachtungen und der schätzen). Das Gesetz der großen Anzahl demonstriert (unter ziemlich milden Bedingungen), wie die Größe des Probe wird größer, die Varianz von diesem schätzen wird kleiner.
Diese Eigenschaft wird häufig in einer Vielzahl von Anwendungen ausgenutzt, einschließlich allgemeiner Probleme von Statistische Schätzung und maschinelles Lernen, um (probabilistische) Interessensgrößen durch abzuschätzen Monte -Carlo -MethodenDa die meisten Interessenmengen in Bezug auf die Erwartung geschrieben werden können, z. , wo ist die Indikatorfunktion des Satzes .

Im klassische Mechanik, das Massezentrum ist ein analoges Konzept zur Erwartung. Zum Beispiel annehmen X ist eine diskrete Zufallsvariable mit Werten xi und entsprechende Wahrscheinlichkeiten pi. Betrachten Sie nun eine schwerelose Stange, auf der Gewichte an Orten platziert sind xi entlang der Stange und Massen haben pi (deren Summe eins ist). Der Punkt, an dem die Stabbalance ausilt ist [X].
Erwartete Werte können auch verwendet werden, um die zu berechnen Varianzmithilfe der Computerformel für die Varianz
Eine sehr wichtige Anwendung des Erwartungswerts ist im Bereich von Quantenmechanik. Der Erwartungswert eines quantenmechanischen Operators operieren auf a Quantenzustand Vektor ist geschrieben als . Das Unsicherheit in kann mit der Formel berechnet werden .
Siehe auch
- Massezentrum
- Zentrale Tendenz
- Chebyshevs Ungleichheit (Eine Ungleichheit vor Ort und Skalierungsparameter)
- Bedingte Erwartung
- Erwartung (der allgemeine Begriff)
- Erwartungswert (Quantenmechanik)
- Gesetz der Gesamterwartung- Der erwartete Wert des bedingten erwarteten Wertes von X gegeben Y ist der gleiche wie der erwartete Wert von X.
- Moment (Mathematik)
- Nichtlineare Erwartung (eine Verallgemeinerung des erwarteten Wertes)
- Probenmittelwert
- Bevölkerung bedeuten
- Walds Gleichung- Eine Gleichung zur Berechnung des erwarteten Wertes einer zufälligen Anzahl zufälliger Variablen
Verweise
- ^ "Erwartung | Mittel | Durchschnitt". www.probabilitycourse.com. Abgerufen 2020-09-11.
- ^ Hansen, Bruce. "Wahrscheinlichkeit und Statistiken für Ökonomen" (PDF). Abgerufen 2021-07-20.
{{}}
: CS1 Wartung: URL-Status (Link) - ^ Wasserman, Larry (Dezember 2010). Alle Statistiken: ein prägnanter Kurs in statistischer Inferenz. Springer Texte in Statistiken. p. 47. ISBN 9781441923226.
- ^ Vorgeschichte der Wahrscheinlichkeit und Statistik und deren Anwendungen vor 1750. Wiley -Serie in Wahrscheinlichkeit und Statistik. 1990. doi:10.1002/0471725161. ISBN 9780471725169.
- ^ Ore, Oystein (1960). "Erz, Pascal und die Erfindung der Wahrscheinlichkeitstheorie". Das amerikanische mathematische monatliche. 67 (5): 409–419. doi:10.2307/2309286. JStor 2309286.
- ^ McKay, Cain (2019). Wahrscheinlichkeit und Statistik. p. 257. ISBN 9781839473302.
- ^ George Mackey (Juli 1980). "Harmonische Analyse als Ausnutzung der Symmetrie - eine historische Umfrage". Bulletin der American Mathematical Society. Neue Serien. 3 (1): 549.
- ^ Huygens, Christian. "Der Wert von Chancen in Glücksspielen. Englische Übersetzung" (PDF).
- ^ Laplace, Pierre Simon, Marquis de, 1749-1827. (1952) [1951]. Ein philosophischer Aufsatz über Wahrscheinlichkeiten. Dover Publications. OCLC 475539.
{{}}
: Cs1 montiert: Mehrfachnamen: Autorenliste (Link) - ^ Whitworth, W.A. (1901) Auswahl und Zufall mit tausend Übungen. Fünfte Ausgabe. Deighton Bell, Cambridge. [Nachdruck von Hafner Publishing Co., New York, 1959.]
- ^ "Früheste Verwendung von Symbolen in Wahrscheinlichkeit und Statistik".
- ^ Feller 1968, p. 221.
- ^ Billingsley 1995, p. 76.
- ^ Ross 2019, Abschnitt 2.4.1.
- ^ a b Feller 1968, Abschnitt IX.2.
- ^ Papoulis & Pillai 2002, Abschnitt 5-3; Ross 2019, Abschnitt 2.4.2.
- ^ Feller 1971, Abschnitt I.2.
- ^ Feller 1971, p. 5.
- ^ Billingsley 1995, p. 273.
- ^ a b Billingsley 1995, Abschnitt 15.
- ^ Billingsley 1995, Theorems 31.7 und 31.8 und p. 422.
- ^ Billingsley 1995, Satz 16.13.
- ^ Billingsley 1995, Satz 16.11.
- ^ Casella & Berger 2001, p. 89; Ross 2019Beispiel 2.16.
- ^ Casella & Berger 2001Beispiel 2.2.3; Ross 2019Beispiel 2.17.
- ^ Billingsley 1995Beispiel 21.4; Casella & Berger 2001, p. 92; Ross 2019Beispiel 2.19.
- ^ Casella & Berger 2001, p. 97; Ross 2019Beispiel 2.18.
- ^ Casella & Berger 2001, p. 99; Ross 2019Beispiel 2.20.
- ^ Billingsley 1995Beispiel 21.3; Casella & Berger 2001Beispiel 2.2.2; Ross 2019Beispiel 2.21.
- ^ Casella & Berger 2001, p. 103; Ross 2019Beispiel 2.22.
- ^ Billingsley 1995Beispiel 21.1; Casella & Berger 2001, p. 103.
- ^ Johnson, Kotz & Balakrishnan 1994, Kapitel 20.
- ^ Feller 1971, Abschnitt II.4.
- ^ a b c Weisstein, Eric W. "Erwartungswert". mathworld.wolfram.com. Abgerufen 2020-09-11.
- ^ Feller 1971, Abschnitt V.6.
- ^ Papoulis & Pillai 2002, Abschnitt 6-4.
- ^ a b Feller 1968, Abschnitt IX.6; Feller 1971, Abschnitt V.7; Papoulis & Pillai 2002, Abschnitt 5-4; Ross 2019, Abschnitt 2.8.
- ^ Feller 1968, Abschnitt IX.6.
- ^ Feller 1968, Abschnitt IX.7.
- ^ a b c d Feller 1971, Abschnitt V.8.
- ^ Billingsley 1995, S. 81, 277.
- ^ Billingsley 1995, Abschnitt 19.
Literatur
- Edwards, A.W.F (2002). Pascals arithmetisches Dreieck: Die Geschichte einer mathematischen Idee (2. Aufl.). JHU Press. ISBN 0-8018-6946-3.
- Huygens, Christiaan (1657). De Ratiociniis in Ludo Aleæ (Englische Übersetzung, veröffentlicht 1714).
- Billingsley, Patrick (1995). Wahrscheinlichkeit und Maß. Wiley -Serie in Wahrscheinlichkeit und mathematischer Statistik (dritte Ausgabe von 1979 Original Ed.). New York: John Wiley & Sons, Inc. ISBN 0-471-00710-2. HERR 1324786.
- Casella, George; Berger, Roger L. (2001). Statistische Inferenz. Duxbury Advanced Series (zweite Ausgabe von 1990 Original Ed.). Pacific Grove, CA: Duxbury. ISBN 0-534-11958-1.
- Feller, William (1968). Eine Einführung in die Wahrscheinlichkeitstheorie und ihre Anwendungen. Band i (Dritte Ausgabe von 1950 Original Ed.). New York - London - Sydney: John Wiley & Sons, Inc. HERR 0228020.
- Feller, William (1971). Eine Einführung in die Wahrscheinlichkeitstheorie und ihre Anwendungen. Band II (Zweite Ausgabe von 1966 Original Ed.). New York - London - Sydney: John Wiley & Sons, Inc. HERR 0270403.
- Johnson, Norman L.; Kotz, Samuel; Balakrishnan, N. (1994). Kontinuierliche univariate Verteilungen. Band 1. Wiley -Serie in Wahrscheinlichkeit und mathematischer Statistik (zweite Ausgabe von 1970 Original Ed.). New York: John Wiley & Sons, Inc. ISBN 0-471-58495-9. HERR 1299979.
- Papoulis, Athanasios; Pillai, S. Unnikrishna (2002). Wahrscheinlichkeit, Zufallsvariablen und stochastische Prozesse (Vierte Ausgabe von 1965 Original Ed.). New York: McGraw-Hill. ISBN 0-07-366011-6. (Erratum:[1])
- Ross, Sheldon M. (2019). Einführung in Wahrscheinlichkeitsmodelle (Zwölfte Ausgabe von 1972 Original Ed.). London: Akademische Presse. doi:10.1016/c2017-0-01324-1. ISBN 978-0-12-814346-9. HERR 3931305.
Externe Links
"Erwarteter Wert | Brilliantes Mathematik & Naturwissenschaften Wiki". Brilliant.org. Abgerufen 2020-08-21.