Genauigkeit und Präzision
Genauigkeit und Präzision sind zwei Maßnahmen von Beobachtungsfehler.Genauigkeit ist wie nahe oder weit weg eines bestimmten Satzes von Messungen (Beobachtungen oder Lesungen) sind zu ihrer wahrer Wert, während Präzision ist wie nahe oder verteilt die Messungen aneinander.
Mit anderen Worten, Präzision ist eine Beschreibung von Zufällige Fehler, Ein Maß für Statistische Variabilität. Genauigkeit hat zwei Definitionen:
- Häufiger ist es eine Beschreibung von nur systematische Fehler, Ein Maß für Statistische Voreingenommenheit eines bestimmten Maßes von zentrale Tendenz; Niedrige Genauigkeit verursacht einen Unterschied zwischen einem Ergebnis und a wahrer Wert; ISO nennt das Gleichheit.
- Alternativ definiert ISO[1] Genauigkeit als Beschreibung einer Kombination beider Arten von Beobachtungsfehlern (zufällig und systematisch), sodass eine hohe Genauigkeit sowohl eine hohe Präzision als auch eine hohe Wahrheit erfordert.
In der ersten, häufigeren Definition von "Genauigkeit" oben ist das Konzept unabhängig von "Präzision", sodass ein bestimmter Datensatz als genau, präzise, beide oder weder zu bezeichnen ist.
In einfacher Hinsicht gegeben a Statistische Probe oder Satz von Datenpunkten aus wiederholten Messungen derselben Menge, die Stichprobe oder ein Satz kann sagen genau Wenn ihre Durchschnitt ist nahe am wahren Wert der gemessenen Menge, während der Satz bezeichnet werden kann präzise Wenn ihre Standardabweichung ist relativ klein.
Häufige technische Definition

In den Feldern von Wissenschaft und Ingenieurwesen, die Genauigkeit von a Messung System ist der Grad der Nähe der Messungen von a Anzahl Zu dieser Menge ist wahr Wert.[2] Die Präzision eines Messsystems im Zusammenhang mit Reproduzierbarkeit und Wiederholbarkeit, ist der Grad, in dem wiederholte Messungen unter unveränderten Bedingungen dasselbe zeigen Ergebnisse.[2][3] Obwohl die beiden Wörter Präzision und Genauigkeit sein können gleichbedeutend in umgangssprachlich Verwenden, sie stehen absichtlich im Kontext des wissenschaftliche Methode.
Das Feld von Statistiken, wo die Interpretation von Messungen eine zentrale Rolle spielt, nutzt die Begriffe bevorzugt Voreingenommenheit und Variabilität Anstelle von Genauigkeit und Präzision: Die Verzerrung ist die Höhe der Ungenauigkeit und Variabilität der Ungenauigkeit.
Ein Messsystem kann genau, aber nicht präzise, präzise, aber nicht genau, weder noch beides sein. Zum Beispiel, wenn ein Experiment a enthält systematischer Fehlerdann erhöhen Stichprobengröße Im Allgemeinen erhöht sich die Genauigkeit, verbessert jedoch nicht die Genauigkeit. Das Ergebnis wäre eine konsistente, aber ungenaue Folge von Ergebnissen aus dem fehlerhaften Experiment. Die Beseitigung des systematischen Fehlers verbessert die Genauigkeit, ändert sich jedoch nicht die Präzision.
Ein Messsystem wird berücksichtigt gültig Wenn es beides ist genau und präzise. Verwandte Begriffe umfassen Voreingenommenheit (nicht-zufällig oder gerichtete Effekte, die durch einen Faktor oder Faktoren verursacht werden unabhängige Variable) und Error (zufällige Variabilität).
Die Terminologie wird auch auf indirekte Messungen angewendet - dh Werte, die durch ein Rechenverfahren aus beobachteten Daten erhalten werden.
Zusätzlich zu Genauigkeit und Präzision können Messungen auch a haben Messauflösung, was die kleinste Veränderung der zugrunde liegenden physikalischen Menge ist, die eine Reaktion in der Messung erzeugt.
Im numerische AnalyseGenauigkeit ist auch die Nähe einer Berechnung des wahren Wertes; Während Präzision die Auflösung der Darstellung ist, typischerweise definiert durch die Anzahl der Dezimal- oder Binären Ziffern.
In militärischer Hinsicht bezieht sich die Genauigkeit hauptsächlich auf die Genauigkeit des Feuers (Justesse de Tir), die Präzision des Feuers, der durch die Nähe einer Gruppierung von Schüssen in und um die Mitte des Ziels ausgedrückt wird.[4]
Quantifizierung
In der industriellen Instrumentierung ist Genauigkeit die Messtoleranz oder die Übertragung des Instruments und definiert die Grenzen der Fehler, die bei den normalen Betriebsbedingungen gemacht werden, wenn das Instrument verwendet wird.[5]
Im Idealfall ist ein Messgerät sowohl genau als auch präzise, wobei alle Messungen nahe und eng um den wahren Wert umgezogen werden. Die Genauigkeit und Präzision eines Messprozesses wird normalerweise durch wiederholte Messung einiger festgestellt nachvollziehbar Hinweis Standard. Solche Standards sind in der definiert Internationales System der Einheiten (Abkürzung SI von Französisch: Système International D'Ebités) und von national gehalten Standardsorganisationen so wie die Nationales Institut für Standards und Technologie in den Vereinigten Staaten.
Dies gilt auch, wenn die Messungen wiederholt und gemittelt werden. In diesem Fall der Begriff Standart Fehler wird ordnungsgemäß angewendet: Die Genauigkeit des Durchschnitts entspricht der bekannten Standardabweichung des Prozesses geteilt durch die quadratische Wurzel der gemittelten Anzahl gemittelter Messungen. Ferner das Zentralgrenze Theorem zeigt, dass die Wahrscheinlichkeitsverteilung der gemittelten Messungen liegen näher an einer Normalverteilung als der einzelnen Messungen.
In Bezug auf die Genauigkeit können wir unterscheiden:
- der Unterschied zwischen dem bedeuten der Messungen und des Referenzwerts die Voreingenommenheit. Das Erstellen und Korrektur von Voreingenommenheit ist erforderlich, um Kalibrierung.
- die kombinierte Wirkung von diesem und Präzision.
Eine gemeinsame Konvention in Wissenschaft und Ingenieurwesen besteht darin, Genauigkeit und/oder Präzision implizit mittels von signifikante Zahlen. Wenn nicht explizit angegeben ist, wird die Fehlerquote als die Hälfte des Werts des letzten signifikanten Ortes angesehen. Beispielsweise würde eine Aufzeichnung von 843,6 m oder 843,0 m oder 800,0 m einen Rand von 0,05 m bedeuten (der letzte signifikante Ort ist der Zehntelplatz), während eine Aufzeichnung von 843 m eine Fehlerquote von 0,5 m (eine Fehlerquote implizieren würde (0,5 m Die letzten signifikanten Ziffern sind die Einheiten).
Eine Lesung von 8.000 m mit nachfolgenden Nullen und ohne Dezimalpunkt ist mehrdeutig; Die nachfolgenden Nullen können als signifikante Zahlen bestimmt werden. Um diese Mehrdeutigkeit zu vermeiden, könnte die Zahl in wissenschaftlicher Notation dargestellt werden: 8,0 × 103m zeigt an, dass die erste Null signifikant ist (daher ein Rand von 50 m), während 8.000 × 103M weist darauf hin, dass alle drei Nullen signifikant sind, was einen Rand von 0,5 m ergibt. In ähnlicher Weise kann man ein Vielfaches der grundlegenden Messeinheit verwenden: 8,0 km entspricht 8,0 × 103m. Es zeigt einen Rand von 0,05 km an. Das Vertrauen in diese Konvention kann jedoch zu diesem Übereinkommen führen falsche Präzision Fehler beim Akzeptieren von Daten aus Quellen, die nicht folgen. Eine Quelle, die eine Zahl wie 153.753 mit Genauigkeit +/- 5.000 meldet, sieht so aus, als hätte sie eine Präzision +/- 0,5. Im Rahmen des Konvents wäre es auf 154.000 abgerundet worden.
Alternativ kann man in einem wissenschaftlichen Kontext, wenn der Fehlerrand mit genauerer Präzision angezeigt wird, eine Notation wie 7,54398 (23) × 10 verwenden–10 m, was einen Bereich zwischen 7,54375 und 7,54421 × 10–10 m.
Präzision umfasst:
- Wiederholbarkeit - Die Variation, die sich ergibt, wenn alle Anstrengungen unternommen werden, um die Bedingungen konstant zu halten, indem das gleiche Instrument und denselben Bediener verwendet wird und sich während kurzer Zeit wiederholt. und
- Reproduzierbarkeit - Die Variation, die denselben Messprozess zwischen verschiedenen Instrumenten und Operatoren und über längere Zeiträume ergibt.
Im Ingenieurwesen wird Präzision häufig als dreimal Standardabweichung der ergriffenen Messungen angenommen, was den Bereich darstellt, in dem 99,73% der Messungen innerhalb der Messungen auftreten können.[6] Beispielsweise kann ein Ergonomiker, der den menschlichen Körper misst, zuversichtlich sein, dass 99,73% ihrer extrahierten Messungen innerhalb von ± 0,7 cm fallen - wenn das Gryphon -Verarbeitungssystem - oder ± 13 cm - verwendet wird, wenn unverarbeitete Daten verwendet werden.[7]
ISO -Definition (ISO 5725)

Bei der Veröffentlichung der ISO 5725 -Serie von Standards im Jahr 1994 erschien eine Verschiebung der Bedeutung dieser Begriffe, die sich auch in der Ausgabe 2008 des "BIPM International Vokabular of Metrology" (VIM) (VIM) (VIM) (VIM), Punkte 2.13 und 2.14, widerspiegelt.[2]
Laut ISO 5725-1,[1] Der allgemeine Begriff "Genauigkeit" wird verwendet, um die Nähe einer Messung zum wahren Wert zu beschreiben. Wenn der Begriff auf Messsätze derselben angewendet wird MessungEs handelt sich um eine Komponente des zufälligen Fehlers und eine Komponente des systematischen Fehlers. In diesem Fall ist Wahrheit die Nähe des Mittelwerts einer Reihe von Messungsergebnissen zum tatsächlichen (wahren) Wert und Präzision ist die Nähe der Übereinstimmung zwischen einer Reihe von Ergebnissen.
ISO 5725-1 und VIM vermeiden auch die Verwendung des Begriffs "Voreingenommenheit", zuvor in BS 5497-1 angegeben,[8] Weil es unterschiedliche Konnotationen außerhalb der Bereiche Wissenschaft und Ingenieurwesen hat, wie in Medizin und Recht.
Geringe Genauigkeit aufgrund von geringer Präzision
Geringe Genauigkeit auch bei hoher Präzision
In der Klassifizierung
In binärer Klassifizierung
Genauigkeit wird auch als statistisches Maß dafür verwendet, wie gut a Binärklassifizierung Testen Sie korrekt identifiziert oder schließen Sie eine Bedingung aus. Das heißt, die Genauigkeit ist der Anteil der korrekten Vorhersagen (beide Wahre positive Positive und Wahre Negative) Unter der Gesamtzahl der untersuchten Fälle.[9] Als solche vergleicht es Schätzungen von Vor- und Nach-Test-Wahrscheinlichkeit. Um den Kontext durch die Semantik klar zu machen, wird er oft als "Rand -Genauigkeit" oder "bezeichnet"Rand Index".[10][11][12] Es ist ein Parameter des Tests. Die Formel zur Quantifizierung der binären Genauigkeit lautet:
Beachten Sie, dass in diesem Zusammenhang die durch ISO 5725-1 definierten Konzepte der Wahrheit und Präzision nicht anwendbar sind. Ein Grund dafür ist, dass es keinen einzigen „wahren Wert“ einer Menge gibt, sondern zwei mögliche echte Werte für jeden Fall, während die Genauigkeit in allen Fällen durchschnittlich ist und daher beide Werte berücksichtigt. Der Begriff jedoch Präzision wird in diesem Zusammenhang als eine andere Metrik verwendet, die aus dem Bereich des Informationsabrufs stammt (siehe unten).
In der Klassifizierung von Multiclass
Bei der Computergenauigkeit bei der Klassifizierung von Multiclas ist die Genauigkeit einfach der Bruchteil der korrekten Klassifizierungen:[13]
Genauigkeit wird auch als Top-1-Genauigkeit bezeichnet, um sie von der Top-5-Genauigkeit zu unterscheiden, gemeinsam in Faltungsnetzwerk Auswertung. Um die Top-5-Genauigkeit zu bewerten, muss der Klassifizierer relative Wahrscheinlichkeiten für jede Klasse bieten. Wenn diese sortiert werden, wird eine Klassifizierung als korrekt angesehen, wenn die korrekte Klassifizierung in den Top 5 Vorhersagen des Netzwerks fällt. Die Top-5-Genauigkeit wurde von der populär gemacht Bildnische Herausforderung. Es ist normalerweise höher als die Genauigkeit der Top-1, da alle korrekten Vorhersagen im 2. bis 5. Positionen den Top-1-Score nicht verbessern, sondern die Top-5-Punktzahl verbessern.
In Psychometrie und Psychophysik
Im Psychometrie und Psychophysik, der Begriff Richtigkeit wird austauschbar verwendet mit Gültigkeit und Ständiger Fehler. Präzision ist ein Synonym für Verlässlichkeit und Variabler Fehler. Die Gültigkeit eines Messinstruments oder eines psychologischen Tests wird durch Experiment oder Korrelation mit dem Verhalten festgelegt. Zuverlässigkeit wird mit einer Vielzahl statistischer Techniken festgelegt, klassisch durch einen internen Konsistenztest wie Cronbachs Alpha Um sicherzustellen, dass die verwandten Fragen verwandte Antworten haben, und dann der Vergleich dieser damit verbundenen Fragen zwischen Referenz und Zielpopulation.
In Logiksimulation
Im LogiksimulationEin häufiger Fehler bei der Bewertung genauer Modelle ist der Vergleichen von a Logiksimulationsmodell zu einem Transistor Schaltungssimulationsmodell. Dies ist ein Vergleich von Unterschieden in der Präzision, nicht der Genauigkeit. Die Präzision wird in Bezug auf Details gemessen und die Genauigkeit wird in Bezug auf die Realität gemessen.[14][15]
In Informationssystemen
Informationsabrufsysteme wie z. Datenbanken und Web -Suchmaschinenwerden bewertet von viele verschiedene Metriken, von denen einige von der abgeleitet sind Verwirrung Matrix, die Ergebnisse in echte Positive unterteilt (Dokumente korrekt abgerufen), echte Negative (Dokumente korrekt nicht abgerufen), falsch positive Aspekte (Dokumente falsch abgerufen) und falsch negative (Dokumente falsch nicht abgerufen). Häufig verwendete Metriken umfassen die Begriffe von Präzision und Rückruf. In diesem Zusammenhang ist Präzision als der Bruchteil abgerufener Dokumente definiert, die für die Abfrage relevant sind (wahre Positive, geteilt durch wahre+falsche positive Ergebnisse) unter Verwendung eines Satzes von Grundwahrheit Relevante Ergebnisse, die vom Menschen ausgewählt wurden. Der Rückruf ist definiert als der Bruchteil der relevanten Dokumente im Vergleich zu der Gesamtzahl der relevanten Dokumente (wahre Positive geteilt durch echte positive+falsche Negative). Weniger häufig wird die Genauigkeitsmetrik verwendet, definiert als die Gesamtzahl der korrekten Klassifizierungen (wahre Positive plus echte Negative), geteilt durch die Gesamtzahl der Dokumente.
Keines dieser Metriken berücksichtigt das Ergebnisranking. Ranking ist für Web -Suchmaschinen sehr wichtig, da die Leser selten die erste Seite der Ergebnisse überschreiten, und es gibt zu viele Dokumente im Web, um alle manuell zu klassifizieren, ob sie von einer bestimmten Suche einbezogen oder ausgeschlossen werden sollten. Das Hinzufügen eines Cutoffs bei einer bestimmten Anzahl von Ergebnissen berücksichtigt bis zu einem gewissen Grad. Die Maßnahme Präzision bei kZum Beispiel ist ein Maß für die Präzision, die nur die Top Ten (k = 10) Suchergebnisse betrachtet. Anspruchsvollere Metriken, wie z. ermäßigter kumulativer GewinnBerücksichtigen Sie jedes einzelne Ranking und werden häufiger dort verwendet, wo dies wichtig ist.
Siehe auch
- Vorspannungsvarianz-Kompromiss in Statistiken und maschinellem Lernen
- Akzeptierter und experimenteller Wert
- Datenqualität
- Technische Toleranz
- Genauigkeit (Disambiguation)
- Experimentelle Unsicherheitsanalyse
- F-Score
- Hypothesentests auf Genauigkeit
- Informationsqualität
- Messungsungenauigkeit; Messungsunsicherheit; Messunsicherheit
- Präzision (Statistik)
- Wahrscheinlichkeit
- Zufällige und systematische Fehler
- Empfindlichkeit und Spezifität
- Signifikante Zahlen
- Statistische Signifikanz
Verweise
- ^ a b BS ISO 5725-1: "Genauigkeit (Wahrheit und Präzision) von Messmethoden und Ergebnissen - Teil 1: Allgemeine Prinzipien und Definitionen.", S.1 (1994)
- ^ a b c JCGM 200: 2008 Internationaler Messvokabular der Metrologie - Grund- und allgemeine Konzepte und zugehörige Begriffe (VIM)
- ^ Taylor, John Robert (1999). Eine Einführung in die Fehleranalyse: Die Untersuchung von Unsicherheiten bei physikalischen Messungen. Universitätswissenschaftsbücher. S. 128–129. ISBN 0-935702-75-x.
- ^ Organisation des Nordatlantikvertrags, NATO Standardization Agency AAP-6-Glossar of Begriffe und Definitionen, S. 43.
- ^ Creus, Antonio. Instrumentación Industrial
- ^ Black, J. Temple (21. Juli 2020). Degarmos Materialien und Prozesse in der Herstellung. ISBN 978-1-119-72329-5. OCLC 1246529321.
- ^ Parker, Christopher J.; Gill, Simeon; Harwood, Adrian; Hayes, Steven G.; Ahmed, Maryam (2021-05-19). "Eine Methode zur Erhöhung der Präzision von 3D -Körperscanning: Gryphon und aufeinanderfolgendes Scannen". Ergonomie. 65 (1): 39–59. doi:10.1080/00140139.2021.1931473. ISSN 0014-0139. PMID 34006206.
- ^ BS 5497-1: "Präzision der Testmethoden. Leitfaden zur Bestimmung der Wiederholbarkeit und Reproduzierbarkeit für eine Standard-Testmethode." (1979)
- ^ Metz, CE (Oktober 1978). "Grundprinzipien der ROC -Analyse" (PDF). Semin nucl med. 8 (4): 283–98. doi:10.1016/s0001-2998 (78) 80014-2. PMID 112681.
- ^ "Archivierte Kopie" (PDF). Archiviert von das Original (PDF) Am 2015-03-11. Abgerufen 2015-08-09.
{{}}
: CS1 Wartung: Archiviertes Kopie als Titel (Link) - ^ Powers, David M. W. (2015). "Was die F-Messung nicht misst". Arxiv:1503.06410 [cs.ir].
- ^ David M W Powers. "Das Problem mit Kappa" (PDF). Anthologie.aclweb.org. Abgerufen 11. Dezember 2017.
- ^ "3.3. Metriken und Bewertungen: Quantifizierung der Qualität der Vorhersagen". Scikit-Learn. Abgerufen 17. Mai 2022.
- ^ Acken, John M. (1997). "keiner". Enzyklopädie der Informatik und Technologie. 36: 281–306.
- ^ Glasser, Mark; Mathews, Rob; Acken, John M. (Juni 1990). "1990 Workshop über Modellierung auf Logikebene für ASICs". Sigda Newsletter. 20 (1).
Externe Links
- Bipm - Führer in der Metrologie, Leitfaden für den Ausdruck der Unsicherheit in der Messung (Kaugummi) und zum internationalen Vokabular der Metrologie (VIM)
- "Jenseits der NIST -Rückverfolgbarkeit: Was wirklich die Genauigkeit schafft", Kontrollierte Umgebungen Zeitschrift
- Präzision und Genauigkeit mit drei psychophysikalischen Methoden
- Anhang D.1: Terminologie, Richtlinien zur Bewertung und Ausdrücken der Unsicherheit der NIST -Messergebnisse
- Genauigkeit und Präzision
- Genauigkeit gegen Präzision - Ein kurzes Video von Matt Parker
- Was ist der Unterschied zwischen Genauigkeit und Präzision? von Matt Anticole bei Ted-Ed
- Präzisions- und Genauigkeitsuntersuchungs -Studienhandbuch