Falsche positive und falsche Negative
A Falsch positiv ist ein Fehler in Binärklassifizierung in dem ein Testergebnis fälschlicherweise das Vorhandensein einer Erkrankung angibt (z. B. eine Krankheit, wenn die Krankheit nicht vorhanden ist), während a Falsch negativ ist der entgegengesetzte Fehler, bei dem das Testergebnis fälschlicherweise das Fehlen einer Bedingung angibt, wenn es tatsächlich vorhanden ist. Dies sind die beiden Arten von Fehlern in a Binärtestim Gegensatz zu den beiden Arten von korrektem Ergebnis (a Wahre positiv und ein wahre negative). Sie sind auch in der Medizin als medizinisch bekannt Falsch positiv (oder Falsch negativ) Diagnose, und in Statistische Klassifizierung Als ein Falsch positiv (oder Falsch negativ) Error.[1]
Im Statistische Hypothesentests Die analogen Konzepte sind als bekannt als Fehler vom Typ I und Typ II, wo ein positives Ergebnis der Ablehnung des Nullhypotheseund ein negatives Ergebnis entspricht der Nichtablehnung der Nullhypothese. Die Begriffe werden häufig austauschbar verwendet, es gibt jedoch Unterschiede im Detail und in der Interpretation aufgrund der Unterschiede zwischen medizinischen Tests und statistischen Hypothesentests.
Falsch positiver Fehler
A Falsch positiver Fehler, oder Falsch positiv, ist ein Ergebnis, das angibt, dass eine bestimmte Bedingung vorliegt, wenn dies nicht der Fall ist. Zum Beispiel ist ein Schwangerschaftstest, der darauf hinweist, dass eine Frau schwanger ist, wenn sie nicht ist, oder die Überzeugung einer unschuldigen Person.
Ein falscher positiver Fehler ist a Typ I -Fehler Wenn der Test eine einzelne Bedingung überprüft und fälschlicherweise eine positive (positive) Entscheidung gibt. Es ist jedoch wichtig, zwischen der Fehlerrate vom Typ 1 und der Wahrscheinlichkeit eines positiven Ergebnisses falsch zu unterscheiden. Letzteres ist als falsch positives Risiko bekannt (siehe Mehrdeutigkeit in der Definition der falsch positiven Rate unten).[2]
Falsch negativer Fehler
A Falsch negativer Fehler, oder Falsch negativ, ist ein Testergebnis, das fälschlicherweise angibt, dass eine Bedingung nicht gilt. Wenn beispielsweise ein Schwangerschaftstest darauf hinweist, dass eine Frau nicht schwanger ist, aber sie ist oder wenn eine Person, die eines Verbrechens schuldig ist, freigesprochen wird, sind dies falsch negative. Die Bedingung "Die Frau ist schwanger" oder "die Person ist schuldig", aber der Test (der Schwangerschaftstest oder der Prozess vor einem Gericht) realisiert diese Erkrankung nicht und entscheidet fälschlicherweise, dass die Person nicht schwanger oder nicht schwanger ist oder ist nicht schuldig.
Ein falscher negativer Fehler ist a Typ II -Fehler in einem Test auftreten, bei dem ein einzelner Zustand überprüft wird und das Ergebnis des Tests fehlerhaft ist, dass der Zustand fehlt.[3]
Verwandte Begriffe
Falsche positive und falsch negative Raten
Das Falsche positive Rate ist der Anteil aller Negative, die immer noch positive Testergebnisse ergeben, d. H. Die bedingte Wahrscheinlichkeit eines positiven Testergebnisses bei einem Ereignis, das nicht vorhanden war.
Die falsche positive Rate ist gleich der Signifikanzniveau. Das Spezifität des Tests ist gleich zu 1 abzüglich der falsch positiven Rate.
Im Statistische HypothesentestsDieser Bruch erhält der griechische Brief αund 1 -α ist definiert als die Spezifität des Tests. Das Erhöhen der Spezifität des Tests senkt die Wahrscheinlichkeit von Fehlern vom Typ I, kann jedoch die Wahrscheinlichkeit von Fehlern vom Typ II erhöhen (falsch negative, die die alternative Hypothese ablehnen, wenn er wahr ist).[a]
Komplementär, der Falsche negative Rate ist der Anteil der positiven, die mit dem Test negative Testergebnisse ergeben, d. H. Die bedingte Wahrscheinlichkeit eines negativen Testergebnisses, da die gesuchte Bedingung vorhanden ist.
Im Statistische HypothesentestsDieser Bruch erhält der Brief β. Das "Energie" (oder der "Empfindlichkeit") des Tests ist gleich 1 - -β.
Mehrdeutigkeit in der Definition falscher positiver Rate
Der Begriff False Discovery Rate (FDR) wurde von Colquhoun (2014) verwendet[4] um die Wahrscheinlichkeit zu bedeuten, dass ein "signifikantes" Ergebnis falsch positiv war. Später Colquhoun (2017)[2] verwendete den Begriff falsch positives Risiko (FPR) für die gleiche Menge, um Verwirrung mit dem Begriff FDR zu vermeiden, wie von Menschen verwendet, die daran arbeiten Mehrere Vergleiche. Korrekturen für mehrere Vergleiche zielen nur darauf ab, die Fehlerrate vom Typ I zu korrigieren. Das Ergebnis ist also a (korrigiert) p-Wert. Somit sind sie anfällig für dieselbe Fehlinterpretation wie jeder andere p-Wert. Das falsch positive Risiko ist immer höher, oft viel höher als das p-Wert.[4][2]
Verwirrung dieser beiden Ideen, die Fehler der transponierten Bedingung, hat viel Unheil verursacht.[5] Aufgrund der Unklarheit der Notation in diesem Bereich ist es wichtig, die Definition in jedem Papier zu betrachten. Die Gefahren der Abhängigkeit von p-Werte wurde in Colquhoun (2017) hervorgehoben[2] Indem Sie darauf hinweisen, dass sogar eine Beobachtung von p = 0,001 war nicht unbedingt starke Beweise gegen die Nullhypothese. Trotz der Tatsache, dass das Wahrscheinlichkeitsverhältnis zugunsten der alternativen Hypothese über den Null nahezu 100 liegt, wenn die Hypothese unplausibel war, mit einem vorherige Wahrscheinlichkeit eines realen Effekts 0,1, sogar die Beobachtung von p = 0,001 hätte eine falsch positive Rate von 8 Prozent. Es würde nicht einmal das 5 -Prozent -Niveau erreichen. Infolgedessen wurde es empfohlen[2][6] das alles p-Werte sollte von der vorherigen Wahrscheinlichkeit begleitet sein, dass es einen realen Effekt gibt, den es notwendig wäre, anzutreten, um ein falsch positives Risiko von 5%zu erreichen. Zum Beispiel, wenn wir beobachten p = 0,05 In einem einzigen Experiment müssten wir 87% sicher sein, dass es als realer Effekt vor dem Experiment durchgeführt wurde, um ein falsch positives Risiko von 5% zu erreichen.
Empfängerbetriebsmerkmal
Der Artikel "Empfängerbetriebsmerkmal"Erörtert Parameter in der statistischen Signalverarbeitung basierend auf Verhältnissen von Fehlern verschiedener Typen.
Siehe auch
- Falsche positive Rate
- Positive und negative Vorhersagewerte
- Warum die meisten veröffentlichten Forschungsergebnisse falsch sind
Anmerkungen
- ^ Bei der Entwicklung von Erkennungsalgorithmen oder Tests muss ein Gleichgewicht zwischen den Risiken falscher Negative und falsch positiven Aspekte gewählt werden.Normalerweise gibt es eine Schwelle, wie nahe ein Übereinstimmung an eine bestimmte Stichprobe erreicht werden muss, bevor der Algorithmus eine Übereinstimmung berichtet.Je höher dieser Schwellenwert ist, desto mehr falsch negative und weniger falsch positive Ergebnisse.
Verweise
- ^ Falsche positive und falsche Negative
- ^ a b c d e Colquhoun, David (2017). "Die Reproduzierbarkeit der Forschung und die Fehlinterpretation von P-Werten". Royal Society Open Science. 4 (12): 171085. doi:10.1098/rsos.171085. PMC 5750014. PMID 29308247.
- ^ Banerjee, a; Chitnis, UB; Jadhav, SL; Bhawalkar, JS; Chaudhury, S (2009). "Hypothesentests, Typ I und Typ II -Fehler". IND -Psychiatrie j. 18 (2): 127–31. doi:10.4103/0972-6748.62274. PMC 2996198. PMID 21180491.
- ^ a b Colquhoun, David (2014). "Eine Untersuchung der falschen Entdeckungsrate und der Fehlinterpretation von p-Werte". Royal Society Open Science. 1 (3): 140216. Arxiv:1407.5296. Bibcode:2014rsos .... 140216c. doi:10.1098/rsos.140216. PMC 4448847. PMID 26064558.
- ^ Colquhoun, David. "Das Problem mit P-Werten". Äon. Aeon Magazine. Abgerufen 11. Dezember 2016.
- ^ Colquhoun, David (2018)."Das falsch positive Risiko: Ein Vorschlag über das, was mit p -Werten zu tun ist". Der amerikanische Statistiker. 73: 192–201. Arxiv:1802.04888. doi:10.1080/00031305.2018.1529622. S2CID 85530643.