Varianz

Beispiel für Proben aus zwei Populationen mit dem gleichen Mittelwert, aber unterschiedlichen Abweichungen. Die rote Bevölkerung hat Mittelwert 100 und Varianz 100 (SD = 10), während die blaue Population mittlere 100 und Varianz 2500 (SD = 50) hat.

Im Wahrscheinlichkeitstheorie und Statistiken, Varianz ist der Erwartung des quadratischen Abweichung von a zufällige Variable von seinem Bevölkerung bedeuten oder Probenmittelwert. Varianz ist ein Maß von DispersionDas heißt, es ist ein Maß dafür, wie weit eine Reihe von Zahlen aus ihrem Durchschnittswert ausgebreitet ist. Varianz spielt eine zentrale Rolle in Statistiken, bei denen einige Ideen, die sie verwenden beschreibende Statistik, statistische Inferenz, Hypothesentest, Güte der Anpassung, und Monte Carlo -Probenahme. Varianz ist ein wichtiges Instrument in den Wissenschaften, bei dem die statistische Analyse von Daten häufig vorkommt. Die Varianz ist das Quadrat der Standardabweichung, der Zweite zentraler Moment von a Verteilung, und die Kovarianz der zufälligen Variablen mit sich selbst und wird oft durch dargestellt von , , , , oder .[1]

Ein Vorteil der Varianz als Maß für die Dispersion besteht darin, dass sie für die algebraische Manipulation eher zugänglich ist als andere Dispersionsmaßnahmen wie die erwartete absolute Abweichung; Beispielsweise ist die Varianz einer Summe unkorrelierter Zufallsvariablen gleich der Summe ihrer Varianzen. Ein Nachteil der Varianz für praktische Anwendungen ist, dass sich ihre Einheiten im Gegensatz zur Standardabweichung von der Zufallsvariablen unterscheiden, weshalb die Standardabweichung nach Abschluss der Berechnung häufiger als Maß für die Dispersion angegeben wird.

Es gibt zwei unterschiedliche Konzepte, die beide als "Varianz" bezeichnet werden. Einer ist, wie oben diskutiert, Teil eines theoretischen Wahrscheinlichkeitsverteilung und wird durch eine Gleichung definiert. Die andere Varianz ist ein Merkmal einer Reihe von Beobachtungen. Wenn die Varianz aus Beobachtungen berechnet wird, werden diese Beobachtungen typischerweise aus einem realen System gemessen. Wenn alle möglichen Beobachtungen des Systems vorhanden sind, wird die berechnete Varianz als Populationsvarianz bezeichnet. Normalerweise ist jedoch nur eine Untergruppe verfügbar, und die daraus berechnete Varianz wird als Stichprobenvarianz bezeichnet. Die aus einer Stichprobe berechnete Varianz wird als Schätzung der Vollpopulationsvarianz angesehen. Es gibt mehrere Möglichkeiten, eine Schätzung der Populationsvarianz zu berechnen, wie im folgenden Abschnitt erläutert.

Die beiden Arten von Varianz sind eng miteinander verbunden. Betrachten Sie, wie eine theoretische Wahrscheinlichkeitsverteilung als Generator hypothetischer Beobachtungen verwendet werden kann. Wenn eine unendliche Anzahl von Beobachtungen unter Verwendung einer Verteilung generiert wird, stimmt die aus diesem unendlichen Satz berechnete Stichprobenvarianz mit dem Wert überein, der unter Verwendung der Varianzgleichung der Verteilung berechnet wird.

Definition

Die Varianz einer zufälligen Variablen ist der erwarteter Wert des quadratische Abweichung vom Mittelwert von , :

Diese Definition umfasst zufällige Variablen, die durch Prozesse generiert werden, die sind diskret, kontinuierlich, weder, oder gemischt. Die Varianz kann auch als die angesehen werden Kovarianz einer zufälligen Variablen mit sich selbst:

Die Varianz entspricht auch der zweiten Kumulanz einer Wahrscheinlichkeitsverteilung, die erzeugt . Die Varianz ist typischerweise als als bezeichnet als oder manchmal als oder oder symbolisch als oder einfach (ausgesprochen "Sigma Quadrat "). Der Ausdruck für die Varianz kann wie folgt erweitert werden:

Mit anderen Worten, die Varianz von X ist gleich dem Mittelwert des Quadrats von X abzüglich des Quadrats des Mittelwerts von X. Diese Gleichung sollte nicht für Berechnungen verwendet werden schwimmender Punktarithmetik, weil es unter leidet Katastrophale Stornierung Wenn die beiden Komponenten der Gleichung in der Größe ähnlich sind. Für andere numerisch stabile Alternativen siehe Algorithmen zur Berechnung der Varianz.

Diskrete Zufallsvariable

Wenn der Generator der zufälligen Variablen ist diskret mit Wahrscheinlichkeitsmassenfunktion , dann

wo ist der erwartete Wert. Das ist,

(Wenn so ein diskret gewichtete Varianz wird durch Gewichte angegeben, deren Summe nicht 1 ist, dann teilt man sich durch die Summe der Gewichte.)

Die Varianz einer Sammlung von Ebenso wahrscheinlich können Werte geschrieben werden als

wo ist der Durchschnittswert. Das ist,

Die Varianz eines Satzes von Ebenso wahrscheinlich können Werte äquivalent ausgedrückt werden, ohne sich direkt auf den Mittelwert zu beziehen, was quadratische Abweichungen aller paarweisen quadratischen Punkte voneinander voneinander auseinander bezieht:[2]

Absolut kontinuierliche Zufallsvariable

Wenn die zufällige Variable hat ein Wahrscheinlichkeitsdichtefunktion , und ist das entsprechende Verteilungsfunktion, dann

oder gleichwertig,

wo ist der erwartete Wert von gegeben durch

In diesen Formeln die Integrale in Bezug auf und sind Lebesgue und Lebesgue -Stieltjes Integrale.

Wenn die Funktion ist Riemann-integrierbar in jedem endlichen Intervall dann

wo das Integral ein ist Unsachter Riemann Integral.

Beispiele

Exponentialverteilung

Das Exponentialverteilung mit Parameter λ ist eine kontinuierliche Verteilung, deren Wahrscheinlichkeitsdichtefunktion wird gegeben von

in der Pause [0, ∞). Sein Mittelwert kann gezeigt werden

Verwendung Integration in Teilstücken und nutzen den erwarteten Wert, der bereits berechnet wurde,: Wir haben:

Somit die Varianz von X wird gegeben von

Faire Würfel

Eine Messe sechsseitige Würfel kann als diskrete Zufallsvariable modelliert werden, X, mit den Ergebnissen 1 bis 6, jeweils mit gleicher Wahrscheinlichkeit 1/6. Der erwartete Wert von X ist Daher die Varianz von X ist

Die allgemeine Formel für die Varianz des Ergebnisses, X, von einem n-Seiten sterben ist

Häufig verwendete Wahrscheinlichkeitsverteilungen

In der folgenden Tabelle werden die Varianz für einige häufig verwendete Wahrscheinlichkeitsverteilungen aufgeführt.

Name der Wahrscheinlichkeitsverteilung Wahrscheinlichkeitsverteilungsfunktion Bedeuten Varianz
Binomiale Verteilung
Geometrische Verteilung
Normalverteilung
Einheitliche Verteilung (kontinuierlich)
Exponentialverteilung
Poisson-Verteilung

Eigenschaften

Grundeigenschaften

Die Varianz ist nicht negativ, da die Quadrate positiv oder Null sind:

Die Varianz einer Konstante ist Null.

Wenn die Varianz einer zufälligen Variablen 0 beträgt, dann ist dies umgekehrt, dann ist es Fast sicher eine Konstante. Das heißt, es hat immer den gleichen Wert:

Varianz ist unveränderlich in Bezug auf Änderungen in a Positionsparameter. Das heißt, wenn eine Konstante zu allen Werten der Variablen hinzugefügt wird, ist die Varianz unverändert:

Wenn alle Werte durch eine Konstante skaliert werden, wird die Varianz durch das Quadrat dieser Konstante skaliert:

Die Varianz einer Summe von zwei zufälligen Variablen ist gegeben durch

wo ist der Kovarianz.

Lineare Kombinationen

Im Allgemeinen für die Summe von zufällige Variablen , die Varianz wird:

Siehe auch General Bienaymés Identität.

Diese Ergebnisse führen zur Varianz von a lineare Kombination wie:

Wenn die zufälligen Variablen sind so, dass

Dann sollen sie sein unkorreliert. Es folgt sofort aus dem zuvor angegebenen Ausdruck, dass wenn die zufälligen Variablen sind unkorreliert, dann ist die Varianz ihrer Summe gleich der Summe ihrer Varianzen oder symbolisch ausgedrückt:

Da unabhängige Zufallsvariablen immer unkorreliert sind (siehe Kovarianz § Unkorrelierte und Unabhängigkeit), die obige Gleichung gilt insbesondere, wenn die Zufallsvariablen sind unabhängig. Daher ist die Unabhängigkeit ausreichend, aber nicht notwendig, damit die Varianz der Summe der Summe der Varianzen entspricht.

Fragen der Endlichkeit

Wenn eine Verteilung keinen endlichen erwarteten Wert hat, wie es bei der der Fall ist Cauchy -Verteilungund dann kann die Varianz auch nicht endlich sein. Einige Verteilungen haben jedoch möglicherweise keine begrenzte Abweichung, obwohl ihr erwarteter Wert endlich ist. Ein Beispiel ist a Pareto -Verteilung Deren Index zufrieden

Summe unkorrelierter Variablen (Bienaymé -Formel)

Ein Grund für die Verwendung der Präferenzvarianz gegenüber anderen Dispersionsmaßen ist, dass die Varianz der Summe (oder der Differenz) von unkorreliert Zufällige Variablen sind die Summe ihrer Varianzen:

Diese Aussage heißt die Bienaymé Formel[3] und wurde 1853 entdeckt.[4][5] Es wird oft unter der stärkeren Bedingung gemacht, dass die Variablen sind unabhängig, aber unkorreliert zu sein, reicht aus. Also, wenn alle Variablen die gleiche Varianz haben σ2dann seit der Aufteilung von n ist eine lineare Transformation, diese Formel impliziert sofort, dass die Varianz ihres Mittelwerts ist

Das heißt, die Varianz des Mittelwerts nimmt ab, wenn n steigt. Diese Formel für die Varianz des Mittelwerts wird in der Definition des Standart Fehler des Probenmittelwerts, der in der verwendet wird Zentralgrenze Theorem.

Um die erste Aussage zu beweisen, reicht es aus, dies zu zeigen

Das allgemeine Ergebnis folgt dann durch Induktion. Beginnend mit der Definition,

Verwenden der Linearität der Erwartungsbetreiber und die Annahme der Unabhängigkeit (oder unkorrelierten) von X und YDies vereinfacht weiter wie folgt:

Summe korrelierter Variablen

Mit Korrelation und fester Probengröße

Im Allgemeinen die Varianz der Summe von n Variablen sind die Summe ihrer Kovarianzen:

(Hinweis: Die zweite Gleichheit beruht auf der Tatsache, dass COV (Xi,Xi) = Var (Xi).))

Hier, ist der Kovarianz, was für unabhängige Zufallsvariablen Null ist (falls vorhanden). Die Formel besagt, dass die Varianz einer Summe der Summe aller Elemente in der Kovarianzmatrix der Komponenten entspricht. Der nächste Ausdruck besagt äquivalent, dass die Varianz der Summe die Summe der Diagonale der Kovarianzmatrix plus zweifache Summe seiner oberen dreieckigen Elemente (oder ihrer unteren dreieckigen Elemente) ist; Dies betont, dass die Kovarianzmatrix symmetrisch ist. Diese Formel wird in der Theorie von verwendet Cronbachs Alpha in klassische Testtheorie.

Also, wenn die Variablen eine gleiche Varianz aufweisen σ2 und der Durchschnitt Korrelation von unterschiedlichen Variablen ist ρdann ist die Varianz ihres Mittelwerts

Dies impliziert, dass die Varianz des Mittelwerts mit dem Durchschnitt der Korrelationen zunimmt. Mit anderen Worten, zusätzliche korrelierte Beobachtungen sind nicht so wirksam wie zusätzliche unabhängige Beobachtungen bei der Reduzierung der Unsicherheit des Mittelwerts. Wenn die Variablen beispielsweise bei standardisierten Variablen eine Einheitsvarianz aufweisen, wird dies zu vereinfacht

Diese Formel wird in der verwendet Spearman -Brown -Vorhersageformel der klassischen Testtheorie. Dies konvergiert zu ρ wenn n geht in unendlich, vorausgesetzt, die durchschnittliche Korrelation bleibt konstant oder konvergiert auch. Für die Varianz des Mittelwerts der standardisierten Variablen mit gleichen Korrelationen oder konvergierenden durchschnittlichen Korrelationen haben wir also

Daher ist die Varianz des Mittelwerts einer großen Anzahl standardisierter Variablen ungefähr ihrer durchschnittlichen Korrelation. Dies macht deutlich, dass der Stichprobenmittelwert korrelierter Variablen im Allgemeinen nicht zum Bevölkerungswert konvergiert, obwohl die Gesetz der großen Anzahl Gibt an, dass der Stichprobenmittelwert für unabhängige Variablen konvergiert.

I.I.D. mit Zufallsstichprobengröße

Es gibt Fälle, in denen eine Stichprobe entnommen wird, ohne zu wissen, wie viele Beobachtungen nach einem Kriterium akzeptabel sind. In solchen Fällen die Stichprobengröße N ist eine zufällige Variable, deren Variation die Variation von ergänzt X, so dass,

[6]

das folgt aus dem Gesetz der Gesamtvarianz.

Wenn N hat ein Poisson-Verteilung, dann mit Schätzer N = n. Also der Schätzer von wird geben

Matrixnotation für die Varianz einer linearen Kombination

Definieren als Säulenvektor von zufällige Variablen , und als Säulenvektor von Skalare . Deswegen, ist ein lineare Kombination dieser zufälligen Variablen, wo bezeichnet die Transponieren von . Lass es auch sei der Kovarianzmatrix von . Die Varianz von wird dann gegeben durch:[7]

Dies impliziert, dass die Varianz des Mittelwerts geschrieben werden kann (mit einem Spaltenvektor der Einsen)

Gewichtete Summe von Variablen

Das Skalierungseigentum und die Bienaymé -Formel zusammen mit dem Eigentum der Kovarianz COV (AxtAnwesenddurch) = ab COV (XAnwesendY) gemeinsam das implizieren

Dies impliziert, dass in einer gewichteten Summe von Variablen die Variable mit dem größten Gewicht in der Varianz der Gesamtsumme ein unverhältnismäßig großes Gewicht aufweist. Zum Beispiel wenn X und Y sind unkorreliert und das Gewicht von X ist das Zweifache des Gewichts von Ydann das Gewicht der Varianz von X wird das vierfache Gewicht der Varianz von sein Y.

Der obige Ausdruck kann auf eine gewichtete Summe mehrerer Variablen ausgedehnt werden:

Produkt unabhängiger Variablen

Wenn zwei Variablen x und y sind unabhängigDie Varianz ihres Produkts wird gegeben[8]

Äquivalent wird es gegeben, wenn die grundlegenden Eigenschaften der Erwartung verwendet werden

Produkt statistisch abhängiger Variablen

Wenn zwei Variablen statistisch abhängig sind, wird im Allgemeinen die Varianz ihres Produkts angegeben:

Zersetzung

Die allgemeine Formel für Varianzabbau oder die Gesetz der Gesamtvarianz ist: wenn und sind zwei zufällige Variablen und die Varianz von existiert dann

Das Bedingte Erwartung von gegeben , und die bedingte Varianz kann wie folgt verstanden werden. Bei einem bestimmten Wert y der zufälligen VariablenYEs gibt eine bedingte Erwartung Angesichts der VeranstaltungY=y. Diese Menge hängt vom jeweiligen Wert aby; Es ist eine Funktion . Dieselbe Funktion wurde an der zufälligen Variablen bewertet Y ist die bedingte Erwartung

Insbesondere wenn, wenn ist eine diskrete Zufallsvariable unter der Annahme möglicher Werte mit entsprechenden Wahrscheinlichkeiten In der Formel für die Gesamtvarianz wird der erste Term auf der rechten Seite

wo . In ähnlicher Weise wird der zweite Term auf der rechten Seite

wo und . Somit ist die Gesamtvarianz gegeben durch

Eine ähnliche Formel wird in angewendet Varianzanalyse, wo die entsprechende Formel ist

hier bezieht sich auf den Mittelwert der Quadrate. Im lineare Regression Analyse Die entsprechende Formel ist

Dies kann auch aus der Additivität von Varianzen abgeleitet werden, da der Gesamtwert (beobachtete) Punktzahl die Summe des vorhergesagten Punktzahl und der Fehlerwert ist, bei dem die beiden letzteren nicht korreliert sind.

Ähnliche Zerlegungen sind für die Summe der quadratischen Abweichungen (Summe der Quadrate, möglich, möglich, möglich ):

Berechnung aus der CDF

Die Populationsvarianz für eine nicht negative Zufallsvariable kann in Bezug auf die ausgedrückt werden Verteilungsfunktion F Verwendung

Dieser Ausdruck kann verwendet werden, um die Varianz in Situationen zu berechnen, in denen der CDF, aber nicht die Dichte, kann bequem ausgedrückt werden.

Charakteristische Eigenschaft

Der Zweite Moment einer zufälligen Variablen erreicht den Mindestwert, wenn es um den ersten Moment (d. H. Mittelwert) der zufälligen Variablen, d.h. . Umgekehrt, wenn eine kontinuierliche Funktion zufrieden Für alle zufälligen Variablen Xdann ist es notwendigerweise der Form , wo a > 0. Dies gilt auch im mehrdimensionalen Fall.[9]

Maßeinheiten

im Gegensatz zu den erwartete absolute AbweichungDie Varianz einer Variablen hat Einheiten, die das Quadrat der Einheiten der Variablen selbst sind. Beispielsweise hat eine in Meter gemessene Variable eine Varianz, die in Quadratmeter gemessen wird. Aus diesem Grund beschreiben Sie Datensätze über ihre Standardabweichung oder Wurzel mittlere quadratische Abweichung wird oft bevorzugt, um die Varianz zu verwenden. Im Würfelbeispiel ist die Standardabweichung 2.9 ≈ 1,7, etwas größer als die erwartete absolute Abweichung von 1,5.

Die Standardabweichung und die erwartete absolute Abweichung können sowohl als Indikator für die "Ausbreitung" einer Verteilung verwendet werden. Die Standardabweichung ist für die algebraische Manipulation eher zugänglich als die erwartete absolute Abweichung und zusammen mit der Varianz und ihrer Verallgemeinerung Kovarianz, wird häufig in theoretischen Statistiken verwendet; Die erwartete absolute Abweichung ist jedoch tendenziell mehr robust Da ist es weniger empfindlich gegenüber Ausreißer entstehen aus Messanomalien oder ein übermäßig Schwereschwanzverteilung.

Nähere die Varianz einer Funktion

Das Delta -Methode verwendet zweiter Ordnung Taylor -Erweiterungen Um die Varianz einer Funktion einer oder mehrerer zufälliger Variablen zu approximieren: siehe Taylor -Erweiterungen für die Momente von Funktionen zufälliger Variablen. Beispielsweise ist die ungefähre Varianz einer Funktion einer Variablen angegeben

unter der Vorraussetzung, dass f ist zweimal differenzierbar und der Mittelwert und die Varianz von X sind endlich.

Populationsvarianz und Stichprobenvarianz

Beobachtungen in realer Welt wie die Messungen des gestrigen Regens im Laufe des Tages können in der Regel nicht vollständige Sätze aller möglichen Beobachtungen sein, die gemacht werden könnten. Aus diesem Grund entspricht die aus dem endlichen Satz berechnete Varianz im Allgemeinen nicht mit der Varianz, die aus der vollen Population möglicher Beobachtungen berechnet worden wäre. Das bedeutet das, dass eine Schätzungen Der Mittelwert und die Varianz von einem begrenzten Satz von Beobachtungen unter Verwendung eines Schätzer Gleichung. Der Schätzer ist eine Funktion der Probe von n Beobachtungen ohne Beobachtungszerrung aus dem Ganzen gezeichnet Population potenzieller Beobachtungen. In diesem Beispiel, dass die Stichprobe die tatsächliche Messungen des gestrigen Niederschlags von verfügbaren Regenmessgeräten innerhalb der geografischen Geografie von Interesse sein würde.

Die einfachsten Schätzer für den Mittelwert und die Populationsvarianz sind einfach der Mittelwert und die Varianz der Stichprobe, die Probenmittelwert und (nicht korrigierte) Stichprobenvarianz - diese sind konsequente Schätzer (Sie konvergieren mit zunehmender Anzahl der Proben mit zunehmendem Wert auf den richtigen Wert), können jedoch verbessert werden. Die Schätzung der Populationsvarianz durch die Einnahme der Varianz der Stichprobe ist im Allgemeinen nahezu optimal, kann jedoch auf zwei Arten verbessert werden. Am einfachsten wird die Stichprobenvarianz als Durchschnitt von berechnet quadratische Abweichungen über den (Stichproben) Mittel durch Teilen durch n. Verwenden Sie jedoch andere Werte als n verbessert den Schätzer auf verschiedene Weise. Vier gemeinsame Werte für den Nenner sind n, n- 1, n+1 und n- 1,5: n ist die einfachste (Populationsvarianz der Stichprobe), n- 1 eliminiert Voreingenommenheit, n+1 minimiert mittlere quadratische Fehler für die Normalverteilung und n- 1,5 beseitigt meistens eine Verzerrung in unvoreingenommene Schätzung der Standardabweichung Für die Normalverteilung.

Wenn der wahre Populationsmittelwert unbekannt ist, ist die Stichprobenvarianz (die den Stichprobenmittelwert anstelle des wahren Mittelwerts verwendet) a voreingenommener Schätzer: Es unterschätzt die Varianz um einen Faktor von ((n- 1) / / n; Korrektur durch diesen Faktor (Dividierung durch n- 1 statt von n) wird genannt Bessels Korrektur. Der resultierende Schätzer ist unvoreingenommen und wird als die genannt (korrigierte) Stichprobenvarianz oder Unvoreingenommene Stichprobenvarianz. Zum Beispiel wenn n= 1 Die Varianz einer einzelnen Beobachtung über den Stichprobenmittelwert (selbst) ist unabhängig von der Populationsvarianz offensichtlich Null. Wenn der Mittelwert auf andere Weise als aus denselben Proben bestimmt wird, die zur Abschätzung der Varianz verwendet werden, entsteht nicht diese Verzerrung, und die Varianz kann sicher als die der Proben über den (unabhängig bekannten) Mittelwert geschätzt werden.

Zweitens minimiert die Stichprobenvarianz im Allgemeinen nicht im Allgemeinen mittlere quadratische Fehler zwischen Stichprobenvarianz und Populationsvarianz. Die Korrektur von Vorspannungen verschlechtert dies häufig: Man kann immer einen Skalierungsfaktor auswählen, der besser abschneidet überschüssiger Kurtosis der Bevölkerung (siehe mittlerer quadratischer Fehler: Varianz) und führt eine Voreingenommenheit ein. Dies besteht immer darin, den unvoreingenommenen Schätzer zu skalieren (dividieren durch eine Zahl, die größer als n- 1) und ist ein einfaches Beispiel für a Schrumpfschätzer: Einer "schrumpft" den unvoreingenommenen Schätzer in Richtung Null. Für die Normalverteilung durch Dividierung durch n+1 (statt n- 1 oder n) Minimiert den mittleren quadratischen Fehler. Der resultierende Schätzer ist jedoch voreingenommen und ist als der bekannt Voreingenommene Probenvariation.

Bevölkerungsvarianz

Im Allgemeinen die Bevölkerungsvarianz von a endlich Population von Größe N mit Werten xi wird gegeben von

wo die Bevölkerung bedeutet

Die Bevölkerungsvarianz kann auch mithilfe von berechnet werden

Das ist wahr, weil

Die Populationsvarianz entspricht der Varianz der Erzeugungswahrscheinlichkeitsverteilung. In diesem Sinne kann das Bevölkerungskonzept auf kontinuierliche Zufallsvariablen mit unendlichen Populationen ausgedehnt werden.

Stichprobenvarianz

Voreingenommene Stichprobenvarianz

In vielen praktischen Situationen ist die wahre Varianz einer Bevölkerung nicht bekannt a priori und muss irgendwie berechnet werden. Wenn Sie sich mit extrem großen Populationen befassen, ist es nicht möglich, jedes Objekt in der Bevölkerung zu zählen, sodass die Berechnung auf einem durchgeführt werden muss Probe der Bevölkerung.[10] Die Stichprobenvarianz kann auch auf die Abschätzung der Varianz einer kontinuierlichen Verteilung aus einer Stichprobe dieser Verteilung angewendet werden.

Wir nehmen a Probe mit Ersatz von n Werte Y1, ...,Yn aus der Bevölkerung, wo n<N, und schätzen Sie die Varianz auf der Grundlage dieser Stichprobe.[11] Die direkte Varianz der Stichprobendaten ergibt den Durchschnitt der quadratische Abweichungen:

Hier, bezeichnet die Probenmittelwert:

Seit der Yi werden zufällig ausgewählt, beide und sind zufällige Variablen. Ihre erwarteten Werte können bewertet werden, indem über das Ensemble aller möglichen Stichproben gemittelt wird {Yi} der Größe n aus der Bevölkerung. Zum das gibt:

Somit gibt eine Schätzung der Populationsvarianz an, die durch einen Faktor von voreingenommen wird . Deshalb, wird als die bezeichnet Voreingenommene Stichprobenvarianz.

Unvoreingenommene Stichprobenvarianz

Die Korrektur dieser Tendenz ergibt die Unvoreingenommene Stichprobenvarianz, bezeichnet :

Beide Schätzer können einfach als die bezeichnet werden Stichprobenvarianz Wenn die Version durch den Kontext bestimmt werden kann. Der gleiche Beweis gilt auch für Proben, die aus einer kontinuierlichen Wahrscheinlichkeitsverteilung entnommen wurden.

Die Verwendung des Begriffs n- 1 wird genannt Bessels Korrekturund es wird auch in verwendet Probekovarianz und die Beispiel Standardabweichung (die Quadratwurzel der Varianz). Die Quadratwurzel ist a konkave Funktion und setzt so negative Verzerrungen ein (durch Jensens Ungleichheit), die von der Verteilung abhängt, und damit die korrigierte Probenstandardabweichung (unter Verwendung von Bessel -Korrektur) ist verzerrt. Das unvoreingenommene Schätzung der Standardabweichung ist ein technisch involviertes Problem, jedoch für die Normalverteilung mit dem Begriff n- 1,5 ergibt einen fast unvoreingenommenen Schätzer.

Die unvoreingenommene Stichprobenvarianz ist a U-Statistik für die Funktion ƒ(y1Anwesendy2) = ((y1-y2)2/2, was bedeutet, dass es erhalten wird, indem eine 2-Stichproben-Statistik über 2-Elemente-Untergruppen der Bevölkerung gemittelt wird.

Verteilung der Stichprobenvarianz

Verteilung und kumulative Verteilung von S22für verschiedene Werte von ν = n - 1, wenn die yi sind unabhängig normal verteilt.

Eine Funktion von sein zufällige VariablenDie Stichprobenvarianz ist selbst eine zufällige Variable und es ist natürlich, ihre Verteilung zu untersuchen. Für den Fall, dass Yi sind unabhängige Beobachtungen von a Normalverteilung, Cochrans Theorem zeigt, dass S2 folgt einem skalierten Chi-Quadrat-Verteilung:[12]

Als direkte Folge folgt darauf

und[13]

Wenn die Yi sind unabhängig und identisch verteilt, aber nicht unbedingt normal verteilt, dann[14]

wo κ ist der Kurtosis der Verteilung und μ4 ist der vierte zentraler Moment.

Wenn die Bedingungen der Gesetz der großen Anzahl für die quadratischen Beobachtungen halten, S2 ist ein Konsistenten Schätzer vonσ2. Man kann in der Tat erkennen, dass die Varianz des Schätzers asymptotisch auf Null tendiert. Eine asymptotisch äquivalente Formel wurde in Kenney und Keep (1951: 164), Rose und Smith (2002: 264) und Weisstein (n.d.) gegeben.[15][16][17]

Samuelsons Ungleichheit

Samuelsons Ungleichheit ist ein Ergebnis, das die Werte begrenzt, die individuelle Beobachtungen in einer Stichprobe erfordern können, da der Stichprobenmittelwert und die (verzerrte) Varianz berechnet wurden.[18] Werte müssen innerhalb der Grenzen liegen

Beziehungen zu den harmonischen und arithmetischen Mitteln

Es wurde gezeigt[19] das für ein Beispiel {yi} von positiven reellen Zahlen,,

wo yMax ist das Maximum der Probe, A ist das arithmetische Mittel, H ist der harmonische Mittel der Probe und ist die (voreingenommene) Varianz der Probe.

Diese Grenze wurde verbessert, und es ist bekannt, dass die Varianz durch die Varianz begrenzt wird

wo yMindest ist das Minimum der Probe.[20]

Tests der Gleichheit von Abweichungen

Das Testen auf die Gleichheit von zwei oder mehr Abweichungen ist schwierig. Das F Test und Chi Square Tests werden beide durch Nichtnormalität beeinträchtigt und für diesen Zweck nicht empfohlen.

Es wurden mehrere nicht parametrische Tests vorgeschlagen: Dazu gehören der Barton -David -Ansari -Freund -Siögel -Tukey -Test, der Capon -Test, Stimmungstest, der Klotz -Test und der Sukhatme -Test. Der Sukhatme -Test gilt für zwei Abweichungen und erfordert dies beides Mediane bekannt sein und gleich Null. Die Stimmung, Klotz, Capon und Barton -David -Ansari -Freund -Siegel -Tukey -Tests gelten ebenfalls für zwei Abweichungen. Sie erlauben dem Median unbekannt, erfordern jedoch, dass die beiden Mediane gleich sind.

Der Lehmann -Test ist ein parametrischer Test zweier Abweichungen. Von diesem Test sind mehrere Varianten bekannt. Weitere Tests der Gleichheit von Varianzen umfassen den Box -Test, den Box -Anderson -Test und den Moses -Test.

Resampling -Methoden, die die enthalten Bootstrap und die Klappmesserkann verwendet werden, um die Gleichheit von Varianzen zu testen.

Geschichte

Der Begriff Varianz wurde zuerst von vorgestellt von Ronald Fisher In seiner Zeitung von 1918 Die Korrelation zwischen Verwandten zur Annahme des Mendelschen Erbschaft:[21]

Die große Anzahl verfügbarer Statistiken zeigt uns, dass die Abweichungen von a menschliche Messung von seinem Mittelwert sehr genau dem folgen Normales Fehlergesetzund daher, dass die Variabilität gleichmäßig anhand der Variabilität gemessen werden kann Standardabweichung Entsprechend der Quadratwurzel des mittlerer quadratischer Fehler. Wenn es zwei unabhängige Ursachen für Variabilität gibt, die in ansonsten einheitlichen Bevölkerungsverteilungen mit Standardabweichungen produzieren können und Es wird festgestellt, dass die Verteilung, wenn beide Ursachen zusammen wirken, eine Standardabweichung aufweist . Es ist daher wünschenswert bei der Analyse der Ursachen der Variabilität, um mit dem Quadrat der Standardabweichung als Maß für die Variabilität umzugehen. Wir werden diese Menge die Varianz bezeichnen ...

Geometrische Visualisierung der Varianz einer willkürlichen Verteilung (2, 4, 4, 4, 5, 5, 7, 9):
  1. Eine Frequenzverteilung wird konstruiert.
  2. Der Schwerpunkt der Verteilung gibt ihren Mittelwert.
  3. Ein Quadrat mit Seiten, die der Differenz jedes Wertes vom Mittelwert entsprechen, wird für jeden Wert gebildet.
  4. Anordnen der Quadrate in ein Rechteck mit einer Seite entspricht der Anzahl der Werte, n, führt dazu, dass die andere Seite die Varianz der Verteilung ist, σ2.

Trägheitsmoment

Die Varianz einer Wahrscheinlichkeitsverteilung ist analog zu der Trägheitsmoment in klassische Mechanik einer entsprechenden Massenverteilung entlang einer Linie in Bezug auf die Rotation um den Massenzentrum. Aufgrund dieser Analogie werden Dinge wie die Varianz genannt Momente von Wahrscheinlichkeitsverteilungen. Die Kovarianzmatrix hängt mit der zusammen Trägheitszertifikationsmoment für multivariate Verteilungen. Der Moment der Trägheit einer Wolke von n Punkte mit einer Kovarianzmatrix von wird gegeben von

Dieser Unterschied zwischen dem Trägheitsmoment in der Physik und in Statistiken ist für Punkte klar, die entlang einer Linie gesammelt werden. Angenommen, viele Punkte liegen in der Nähe der x Achse und entlang verteilt. Die Kovarianzmatrix könnte so aussehen

Das heißt, es gibt die größte Abweichung in der x Richtung. Physiker würden dies als einen niedrigen Moment betrachten um das x Achse so der Stivertien-Tensor ist

Semivarianz

Das Semivarianz wird auf die gleiche Weise wie die Varianz berechnet, aber nur die Beobachtungen, die unter den Mittelwert liegen, sind in die Berechnung einbezogen:

Es wird auch als spezifisches Maß in verschiedenen Anwendungsfelds beschrieben. Bei verzerrten Verteilungen kann die Semivaratur zusätzliche Informationen liefern, die eine Abweichung nicht tut.[22]

Für Ungleichheiten, die mit der Semivarianz verbunden sind, siehe Chebyshevs Ungleichheit § Semivarianzen.

Verallgemeinerungen

Für komplexe Variablen

Wenn ist ein Skalar Komplex-Valierte Zufallsvariable mit Werten in Dann ist seine Varianz wo ist der Komplexes Konjugat von Diese Varianz ist ein echter Skalar.

Für Vektor-bewertete Zufallsvariablen

Als Matrix

Wenn ist ein Vektor-Valierte Zufallsvariable mit Werten in und als Säulenvektor gedacht, dann ist eine natürliche Verallgemeinerung der Varianz wo und ist die Transponierung von Und so ist ein Zeilenvektor. Das Ergebnis ist a Positive halb definitive Quadratmatrix, allgemein als die bezeichnet Varianzkovarianzmatrix (oder einfach als das Kovarianzmatrix).

Wenn ist eine vektor- und komplexwerte Zufallsvariable mit Werten in dann ist die Kovarianzmatrix ist wo ist der konjugierte Transponierung von Diese Matrix ist auch positiv halb definitiv und quadratisch.

Als Skalar

Eine weitere Verallgemeinerung der Varianz für durch Vektor bewertete Zufallsvariablen , was eher zu einem skalaren Wert als zu einer Matrix führt, ist die Verallgemeinerte Varianz , das bestimmend der Kovarianzmatrix. Es kann gezeigt werden, dass die verallgemeinerte Varianz mit der mehrdimensionalen Streuung von Punkten um ihren Mittelwert zusammenhängt.[23]

Eine andere Verallgemeinerung wird unter Berücksichtigung der erhalten Euklidische Entfernung zwischen der Zufallsvariablen und ihrem Mittelwert. Das führt zu Welches ist das verfolgen der Kovarianzmatrix.

Siehe auch

Arten der Varianz

Verweise

  1. ^ Wasserman, Larry (2005). Alle Statistiken: ein prägnanter Kurs in statistischer Inferenz. Springer Texte in Statistiken. p. 51. ISBN 9781441923226.
  2. ^ Yuli Zhang, Huaiyu Wu, Lei Cheng (Juni 2012). Einige neue Verformungsformeln über Varianz und Kovarianz. Proceedings der 4. Internationalen Konferenz über Modellierung, Identifizierung und Kontrolle (ICMIC2012). S. 987–992.{{}}: CS1 Wartung: Verwendet Autorenparameter (Link)
  3. ^ Loève, M. (1977) "Wahrscheinlichkeitstheorie", Graduiertentexte in Mathematik, Band 45, 4. Auflage, Springer-Verlag, p. 12.
  4. ^ Bienaymé, I.-J. . COMPTES Rendus de l'Académie des Sciences Paris, 37, p. 309–317; Digitale Kopie verfügbar [1]
  5. ^ Bienaymé, I.-J. . Journal de Mathématiques pures et Applicées, Série 2, Tome 12, p. 158–167; Digitale Kopie verfügbar [2][3]
  6. ^ Cornell, J. R und Benjamin, C a,, Wahrscheinlichkeit, Statistik und Entscheidungen für Bauingenieure, McGraw-Hill, NY, 1970, S. 178-9.
  7. ^ Johnson, Richard; Wichern, Dean (2001). Angewandte multivariate statistische Analyse. Prentice Hall. p.76. ISBN 0-13-187715-1.
  8. ^ Goodman, Leo A. (Dezember 1960). "Über die genaue Varianz der Produkte". Zeitschrift der American Statistical Association. 55 (292): 708–713. doi:10.2307/2281592. JStor 2281592.
  9. ^ Kagan, A.; Shepp, L. A. (1998). "Warum die Varianz?". Statistik und Wahrscheinlichkeitsbriefe. 38 (4): 329–333. doi:10.1016/s0167-7152 (98) 00041-8.
  10. ^ Navidi, William (2006) Statistiken für Ingenieure und Wissenschaftler, McGraw-Hill, S. 14.
  11. ^ Montgomery, D. C. und Runger, G. C. (1994) Angewandte Statistiken und Wahrscheinlichkeit für Ingenieure, Seite 201. John Wiley & Sons New York
  12. ^ Knight K. (2000), Mathematische Statistik, Chapman und Hall, New York. (Satz 2.11)
  13. ^ Casella und Berger (2002) Statistische InferenzBeispiel 7.3.3, p. 331[Vollständiges Zitat benötigt]
  14. ^ Mood, A. M., Graybill, F. A. und Boes, D. C. (1974) Einführung in die Theorie der Statistik, 3. Auflage, McGraw-Hill, New York, p. 229
  15. ^ Kenney, John F.; Halten, E.S. (1951) Mathematik der Statistik. Zweiter Teil. 2. Aufl. D. Van Nostrand Company, Inc. Princeton: New Jersey. http://krishikosh.egranth.ac.in/bitstream/1/2025521/1/g2257.pdf
  16. ^ Rose, Colin; Smith, Murray D. (2002) Mathematische Statistik mit Mathematica. Springer-Verlag, New York. http://www.mathstatica.com/book/mathematical_statistics_with_mathematica.pdf
  17. ^ Weisstein, Eric W. (n.d.) Probenvarianzverteilung. MathWorld - eine Wolfram -Webressource. http://mathworld.wolfram.com/SamparianCernistiBution.html
  18. ^ Samuelson, Paul (1968). "Wie abweichend kannst du sein?". Zeitschrift der American Statistical Association. 63 (324): 1522–1525. doi:10.1080/01621459.1968.10480944. JStor 2285901.
  19. ^ Mercer, A. McD. (2000). "Grenzen für A - G, A - H, G - H und eine Familie von Ungleichheiten des Typs des KY -Fans unter Verwendung einer allgemeinen Methode". J. Math. Anal. Appl. 243 (1): 163–173. doi:10.1006/jmaa.1999.6688.
  20. ^ Sharma, R. (2008). "Einige weitere Ungleichheiten für arithmetisches Mittel, harmonisches Mittel und Varianz". Zeitschrift für mathematische Ungleichheiten. 2 (1): 109–114. Citeseerx 10.1.1.551.9397. doi:10.7153/JMI-02-11.
  21. ^ Ronald Fisher (1918) Die Korrelation zwischen Verwandten zur Annahme des Mendelschen Erbschaft
  22. ^ Fama, Eugene F.; French, Kenneth R. (2010-04-21). "Fragen und Antworten: Semi-Varianz: Ein besseres Risikomaß?". Fama/French Forum.
  23. ^ Kocherlakota, S.; Kocherlakota, K. (2004). "Generalisierte Varianz". Enzyklopädie der statistischen Wissenschaften. Wiley Online -Bibliothek. doi:10.1002/0471667196.ESS0869. ISBN 0471667196.