Präzision (Informatik)
Im Informatik, das Präzision einer numerischen Menge ist ein Maß für das Detail, in dem die Menge ausgedrückt wird.Dies wird normalerweise in Bits gemessen, aber manchmal in Dezimalstellen.Es hängt mit Präzision in der Mathematik, was die Anzahl der Ziffern beschreibt, die verwendet werden, um einen Wert auszudrücken.
Einige der standardisierten Präzisionsformate sind
- Halbprezisions-Gleitpunktformat
- Einzelprezisions-Gleitpunktformat
- Doppelprezisions-Gleitpunktformat
- Vierfach-Precision-Gleitpunktformat
- Oktuple-Präzisions-Gleitpunktformat
Von diesen wird das Oktuple-Präzisionsformat selten verwendet.Die einzel- und doppelten Präzisionsformate werden auf fast allen Plattformen am häufigsten verwendet und unterstützt.Die Verwendung des Formates zur Halbprezision hat insbesondere im Bereich von zugenommen maschinelles Lernen Da viele maschinelle Lernalgorithmen von Natur aus fehlertolerant sind.
Rundungsfehler
Präzision ist oft die Quelle von Rundungsfehler in Berechnung.Die Anzahl der zum Speichern einer Zahl verwendeten Bits führt häufig zu einem gewissen Verlust der Genauigkeit.Ein Beispiel wäre, "sin (0.1)" im IEEE -Einzelgenauigkeits -Schwimmpunktstandard zu speichern.Der Fehler wird dann häufig vergrößert, da nachfolgende Berechnungen unter Verwendung der Daten durchgeführt werden (obwohl er auch reduziert werden kann).
Siehe auch
- Willkürliche Präzisionsarithmetik
- Erweiterte Präzision
- IEEE754 (IEEE Floating Point Standard)
- Ganzzahl (Informatik)
- Signifikante Zahlen
- Kürzung
- Ungefähres Computer