Quantisierung (Signalverarbeitung)

Der einfachste Weg, ein Signal zu quantisieren, besteht darin, den Wert der digitalen Amplitude zu wählen, das der ursprünglichen analogen Amplitude am nächsten liegt. Dieses Beispiel zeigt das ursprüngliche Analogsignal (grün), das quantisierte Signal (schwarze Punkte), das Signal rekonstruiert aus dem quantisierten Signal (gelb) und der Differenz zwischen dem ursprünglichen Signal und dem rekonstruierten Signal (rot). Der Unterschied zwischen dem ursprünglichen Signal und dem rekonstruierten Signal ist der Quantisierungsfehler und in diesem einfachen Quantisierungsschema eine deterministische Funktion des Eingangssignals.

Quantisierungin Mathematik und digitale Signalverarbeitung, ist der Prozess der Abbildung von Eingangswerten von einem großen Satz (oft ein kontinuierlicher Satz) zu Ausgabewerte in einem (zählbaren) kleineren Satz, oft mit einem endlichen Anzahl der Elemente. Rundung und Kürzung sind typische Beispiele für Quantisierungsprozesse. Die Quantisierung ist in nahezu allen digitalen Signalverarbeitung in gewissem Maße beteiligt, da der Prozess der Darstellung eines Signals in digitaler Form normalerweise eine Rundung beinhaltet. Quantisierung bildet auch den Kern von im Wesentlichen allen Verlustige Komprimierung Algorithmen.

Die Differenz zwischen einem Eingangswert und seinem quantisierten Wert (wie z. Rundenfehler) wird bezeichnet als Quantisierungsfehler. Ein Gerät oder Algorithmische Funktion Das führt eine Quantisierung aus, heißt a Quantisierer. Ein Analog-Digital-Wandler ist ein Beispiel für einen Quantisierer.

Beispiel

Zum Beispiel, Rundung a reelle Zahl Zum nächsten Ganzzahlwert bildet eine sehr grundlegende Art von Quantizer - a Uniform eines. Eine typische (mittelgroß) einheitlicher Quantisierer mit einer Quantisierung Schrittlänge Gleicher Wert kann ausgedrückt werden als

,

wo die Notation bezeichnet die Bodenfunktion.

Die wesentliche Eigenschaft eines Quantisierers besteht darin, eine zählbare Ausgabewerte mit einer Reihe von Ausgangswerten zu haben, die kleiner als der Satz möglicher Eingangswerte sind. Die Mitglieder der Ausgangswerte sind möglicherweise ganzzahlige, rationale oder reale Werte. Für die einfache Rundung zur nächsten Ganzzahl die Schrittgröße ist gleich 1. mit oder mit Dieser Quantisierer entspricht jedem anderen ganzzahligen Wert und verfügt über realbewertete Eingänge und ganzzahlige Ausgänge.

Wenn die Quantisierungsschrittgröße (δ) relativ zur Quantisierung des Signals klein ist, ist es relativ einfach zu zeigen, dass die mittlere quadratische Fehler Der von einem solchen Rundungsvorgang erzeugte wird ungefähr sein .[1][2][3][4][5][6] Der mittlere quadratische Fehler wird auch als Quantisierung bezeichnet Geräuschleistung. Das Hinzufügen eines Bits zum Quantizer halbiert den Wert von δ, wodurch die Rauschleistung durch den Faktor ¼ reduziert wird. Bezüglich decibelsDie Änderung der Geräuschleistung ist

Da der Satz möglicher Ausgangswerte eines Quantisierers zählbar ist, kann jeder Quantisierer in zwei unterschiedliche Phasen zerlegt werden, die als die bezeichnet werden können Einstufung Bühne (oder Vorwärtsquantisierung Stufe) und die Wiederaufbau Bühne (oder inverse Quantisierung Stufe), wobei die Klassifizierungsphase den Eingangswert einer Ganzzahl abstellt Quantisierungsindex und die Rekonstruktionsstufe kartiert den Index zum Rekonstruktionswert Das ist die Ausgangsnäherung des Eingangswerts. Für den oben beschriebenen Beispiel für ein gleichmäßige Quantisierer kann die Vorwärtsquantisierungsstufe ausgedrückt werden als

,

und die Rekonstruktionsphase für dieses Beispiel Quantizer ist einfach

.

Diese Zersetzung ist nützlich für das Design und die Analyse des Quantisierungsverhaltens und zeigt, wie die quantisierten Daten über a kommuniziert werden können Kommunikationskanal - a Quellcodierer Kann die Startphase für die Vorwärtsbewegung durchführen und die Indexinformationen über einen Kommunikationskanal und a senden Decoder Kann die Rekonstruktionsphase durchführen, um die Ausgangsnäherung der ursprünglichen Eingangsdaten zu erzeugen. Im Allgemeinen kann die Vorwärts-Quantisierungsstufe jede Funktion verwenden, die die Eingabedaten in den Ganzzahlraum der Quantisierungsindexdaten abbildert, und die inverse Quantisierungsstufe kann konzeptionell (oder buchstäblich) eine Tabellen-Look-up-Operation sein, um jeden Quantisierungsindex zuzuordnen. ein entsprechender Rekonstruktionswert. Diese zweistufige Zerlegung gilt gleich gut für Vektor sowie Skalarquantizer.

Mathematische Eigenschaften

Weil die Quantisierung eine viel bis schwierige Kartierung ist, ist es eine von Natur aus nichtlinear und irreversibler Prozess (d. H. Da der gleiche Ausgangswert durch mehrere Eingangswerte gemeinsam genutzt wird, ist es im Allgemeinen unmöglich, den genauen Eingangswert wiederherzustellen, wenn nur der Ausgabewert angegeben ist).

Der Satz möglicher Eingangswerte kann unendlich groß sein und möglicherweise kontinuierlich und daher unzähliger (wie die Menge aller reellen Zahlen oder aller realen Zahlen innerhalb eines begrenzten Bereichs). Der Satz möglicher Ausgangswerte kann sein endlich oder Zähler Unendlich unendlich.[6] Die an der Quantisierung beteiligten Eingangs- und Ausgangssätze können auf ziemlich allgemeine Weise definiert werden. Beispielsweise ist die Vektorquantisierung die Anwendung der Quantisierung auf mehrdimensionale (vektorwerte) Eingabedaten.[7]

Typen

2-Bit-Auflösung mit vier Quantisierungsstufen im Vergleich zu Analogon.[8]
3-Bit-Auflösung mit acht Ebenen.

Analog-Digital-Wandler

Ein Analog-Digital-Wandler (ADC) kann als zwei Prozesse modelliert werden: Probenahme und Quantisierung. Die Probenahme konvertiert ein zeitvariantes Spannungssignal in a diskretes Signal, eine Folge realer Zahlen. Die Quantisierung ersetzt jede reelle Zahl durch eine Annäherung aus einem endlichen Satz diskreter Werte. Am häufigsten werden diese diskreten Werte als Festpunktwörter dargestellt. Obwohl eine beliebige Anzahl von Quantisierungsniveaus möglich ist, sind gemeinsame Wortlängen 8 Bit (256 Stufen), 16-Bit (65.536 Niveaus) und 24-Bit (16,8 Millionen Niveaus). Das Quantieren einer Reihenfolge von Zahlen erzeugt eine Sequenz von Quantisierungsfehlern, die manchmal als additive Zufallssignal modelliert wird Quantisierungsrauschen wegen seiner stochastisch Verhalten. Je mehr Pegel ein Quantizer verwendet, desto niedriger ist seine Quantisierungsgeräuschleistung.

Rate -Distortion -Optimierung

Rate -Distortion optimiert Quantisierung wird in angetroffen Quellcodierung Für verlustige Datenkomprimierungsalgorithmen, wobei der Zweck darin besteht, Verzerrungen innerhalb der Grenzen des Bitrate Unterstützt von einem Kommunikationskanal oder einem Speichermedium. Die Analyse der Quantisierung in diesem Zusammenhang beinhaltet die Untersuchung der Datenmenge (typischerweise in Ziffern oder Bits oder Bit gemessen Bewertung), die verwendet werden, um den Ausgang des Quantisierers darzustellen und den Präzisionsverlust zu untersuchen, der durch den Quantisierungsprozess eingeführt wird (der als der bezeichnet wird Verzerrung).

Mid-Riser- und mittelgroße Uniformquantizer

Die meisten einheitlichen Quantizer für signierte Eingabedaten können als eines von zwei Typen eingestuft werden: mitten im Streifen und mittelgroß. Die Terminologie basiert auf dem, was in der Region um den Wert 0 geschieht, und verwendet die Analogie zum Betrachten der Eingabe-Output-Funktion des Quantizers als Treppe. Mid-Tread Quantizer haben ein null Wertes Rekonstruktionsniveau (entsprechend a treten eines Treppenweg Steigleitung einer Treppe).[9]

Die Quantisierung der mittleren Trse beinhaltet Rundung. Die Formeln für die einheitliche Quantisierung mit mittlerer Mitte sind im vorherigen Abschnitt bereitgestellt.

Die Quantisierung mit mittlerer Riser beinhaltet die Kürzung. Die Eingangsausgabeformel für eine gleichmäßige einheitliche Quantisierer mit mittlerer Steigung ist angegeben von:

,

wo die Klassifizierungsregel gegeben wird durch

und die Rekonstruktionsregel ist

.

Beachten Sie, dass einheitliche Mid-Riser-Uniform-Quantizer keinen Nullausgangswert haben-die minimale Ausgangsgröße beträgt die halbe Stufengröße. Im Gegensatz dazu haben Mid-Tread-Quantizer einen Ausgangspegel mit Null. Für einige Anwendungen kann eine Null -Ausgangssignal -Darstellung eine Notwendigkeit sein.

Im Allgemeinen ist ein mittlerer oder mittlerer Quantisierer möglicherweise nicht ein Uniform Quantizer - d. H. Die Größe der Klassifizierung des Quantizers Intervalle Möglicherweise sind nicht alle gleich oder der Abstand zwischen den möglichen Ausgangswerten ist möglicherweise nicht alle gleich. Das Unterscheidungsmerkmal eines mittleren Quantizers besteht darin, dass es einen genau Null ist, und das Unterscheidungsmerkmal eines mittleren Tread-Quantizers ist, dass es einen Rekonstruktionswert hat, der genau Null ist.[9]

Tot-Zonen-Quantizer

A Sackgasse ist eine Art von Mid-Tread-Quantisierer mit symmetrischem Verhalten um 0. Der Bereich um den Nullausgangswert eines solchen Quantisierers wird als die bezeichnet Todeszone oder Totband. Die tote Zone kann manchmal den gleichen Zweck erfüllen wie a Geräuschtor oder Squelch Funktion. Insbesondere für Komprimierungsanwendungen kann der Sackgasse eine andere Breite als die für die anderen Schritte erhalten. Für einen ansonsten ungleichmäßigen Quantisierer kann die Sackgasse auf jeden Wert eingestellt werden unter Verwendung der Vorwärtsquantisierungsregel[10][11][12]

,

wo die Funktion () ist der Zeichenfunktion (auch bekannt als die signalisieren Funktion). Die allgemeine Rekonstruktionsregel für einen solchen Totzonenquantizer ist gegeben durch

,

wo ist ein Rekonstruktions -Offset -Wert im Bereich von 0 bis 1 als Bruchteil der Schrittgröße. Gewöhnlich, Bei der Quantisierung von Eingabedaten mit einem typischen Wahrscheinlichkeitsdichtefunktion (PDF), das um Null symmetrisch ist und seinen Spitzenwert bei Null erreicht (wie z. Gaußscher, Laplace, oder Verallgemeinerte Gaußsche PDF). Obwohl kann abhängen von Im Allgemeinen und kann ausgewählt werden, um die nachstehend beschriebene Optimalitätsbedingung zu erfüllen, wird sie oft einfach auf eine Konstante eingestellt, wie z. . (Beachten Sie, dass in dieser Definition, Aufgrund der Definition der () Funktion, so hat keine Wirkung.)

Ein sehr häufig verwendeter Sonderfall (z. B. das System, das typischerweise in Finanzbuchhaltung und elementarer Mathematik verwendet wird), besteht darin, festgelegt zu werden und für alle . In diesem Fall ist der Quantisierer der Sackgasse auch ein einheitlicher Quantisierer, da die zentrale Sackgasse dieses Quantisierers die gleiche Breite hat wie alle anderen Schritte, und alle seine Rekonstruktionswerte sind ebenfalls gleichberechtigt.

Rauschen und Fehlereigenschaften

Additiv -Rauschmodell

Eine häufige Annahme für die Analyse von Quantisierungsfehler ist, dass es ein Signalverarbeitungssystem auf ähnliche Weise wie das von Additiv beeinflusst weißes Rauschen - eine vernachlässigbare Korrelation mit dem Signal und einem ungefähr flachen spektrale Leistungsdichte.[2][6][13][14] Das additive Rauschmodell wird üblicherweise für die Analyse von Quantisierungsfehler -Effekten in digitalen Filtersystemen verwendet und kann bei einer solchen Analyse sehr nützlich sein. Es wurde gezeigt, dass es ein gültiges Modell in Fällen von hoher Auflösung ist (klein relativ zur Signalstärke) mit glatten PDFs.[2][15]

Das additive Rauschverhalten ist nicht immer eine gültige Annahme. Quantisierungsfehler (für Quantizer, die wie hier beschrieben definiert sind) hängt deterministisch mit dem Signal und nicht vollständig unabhängig davon zusammen. Daher können periodische Signale periodische Quantisierungsrauschen erzeugen. Und in einigen Fällen kann es sogar verursachen Zyklen begrenzen in digitalen Signalverarbeitungssystemen erscheinen. Eine Möglichkeit, eine effektive Unabhängigkeit des Quantisierungsfehlers aus dem Quellsignal zu gewährleisten, besteht darin, durchzuführen Dithered Quantisierung (manchmal mit Geräuschformung), bei der zufällige hinzugefügt wird (oder Pseudo-Random) Rauschen des Signals vor der Quantisierung.[6][14]

Quantisierungsfehlermodelle

Im typischen Fall ist das ursprüngliche Signal viel größer als eins niedrigstwertige Bit (LSB). Wenn dies der Fall ist, ist der Quantisierungsfehler nicht signifikant mit dem Signal korreliert und hat eine ungefähr einheitliche Verteilung. Bei der Quantisierung wird der Quantisierungsfehler a bedeuten von null und der quadratischer Mittelwert (RMS) Wert ist der Standardabweichung dieser Verteilung, gegeben durch . Wenn die Kürzung verwendet wird, hat der Fehler einen Mittelwert ungleich Null von von und der RMS -Wert ist . Obwohl die Rundung einen geringeren RMS -Fehler als Kürzung ergibt, ist der Unterschied nur auf den statischen (DC) Term von zurückzuführen . Die RMS -Werte des Wechselstromfehlers sind in beiden Fällen genau gleich, sodass in Situationen, in denen der Gleichstrombegriff des Fehlers ignoriert werden kann (z. In beiden Fällen ändert sich die Standardabweichung als Prozentsatz des Vollsignalbereichs um den Faktor 2 für jede 1-Bit-Änderung der Anzahl der Quantisierungsbits. Das potenzielle Verhältnis von Signal-zu-Quantisation-Noise-Leistungsverhältnis ändert sich daher um 4 oder , ungefähr 6 dB pro Bit.

Bei niedrigeren Amplituden wird der Quantisierungsfehler vom Eingangssignal abhängig, was zu einer Verzerrung führt. Diese Verzerrung wird nach dem Anti-Aliasing-Filter erzeugt, und wenn diese Verzerrungen über 1/2 der Stichprobenrate liegen, werden sie in das interessierende Band zurückkehren. Um den Quantisierungsfehler unabhängig vom Eingangssignal zu machen, wird das Signal durch Hinzufügen von Rauschen zum Signal getötet. Dies reduziert das Signal -Rausch -Verhältnis leicht, kann die Verzerrung jedoch vollständig beseitigen.

Quantisierungsgeräuschmodell

Vergleich der Quantisierung einer Sinus mit 64 Stufen (6 Bit) und 256 Stufen (8 Bit). Das durch 6-Bit-Quantisierung erzeugte additive Rauschen ist 12 dB größer als das durch 8-Bit-Quantisierung erzeugte Rauschen. Wenn die Spektralverteilung flach ist, wie in diesem Beispiel, manifestiert sich die 12 -dB -Differenz als messbare Differenz in den Rauschböden.

Quantisierungsrauschen ist a Modell des Quantisierungsfehlers durch Quantisierung im ADC. Es handelt sich um einen Rundungsfehler zwischen der analogen Eingangsspannung und dem ADC und dem digitalisierten Ausgangswert. Das Rauschen ist nichtlinear und signifikant abhängig. Es kann auf verschiedene Arten modelliert werden.

In einem idealen ADC, bei dem der Quantisierungsfehler gleichmäßig zwischen –1/2 LSB und +1/2 LSB verteilt ist und das Signal eine einheitliche Verteilung hat, die alle Quantisierungsstufen abdeckt, die, die Signal-zu-Quantisation-Noise-Verhältnis (SQNR) kann aus berechnet werden

wobei Q die Anzahl der Quantisierungsbits ist.

Die häufigsten Testsignale, die dies erfüllen, sind die vollständige Amplitude Dreieckswellen und Sägezahnwellen.

Zum Beispiel a 16-Bit ADC hat ein maximales Verhältnis von Signal-zu-Quantisation-Nr. Von 6,02 × 16 = 96,3 dB.

Wenn das Eingangssignal eine Vollstation ist Sinus Die Verteilung des Signals ist nicht mehr gleichmäßig und die entsprechende Gleichung ist stattdessen

Hier ist das Quantisierungsrauschen wieder einmal vermutet gleichmäßig verteilt sein. Wenn das Eingangssignal eine hohe Amplitude und ein breites Frequenzspektrum aufweist, ist dies der Fall.[16] In diesem Fall hat ein 16-Bit-ADC ein maximales Signal-Rausch-Verhältnis von 98,09 dB. Die 1,761-Differenz im Signal-R-Rausch-Nutzen erfolgt nur, da das Signal eine Sinuswelle in voller Ebene anstelle eines Dreiecks oder Sägenzahns ist.

Für komplexe Signale in hochauflösenden ADCs ist dies ein genaues Modell. Bei ADCs mit niedriger Auflösung, Signalen mit niedrigem Niveau in hochauflösenden ADCs und für einfache Wellenformen ist das Quantisierungsrauschen nicht gleichmäßig verteilt, wodurch dieses Modell ungenau wird.[17] In diesen Fällen wird die Quantisierungsrauschverteilung durch die genaue Amplitude des Signals stark beeinflusst.

Die Berechnungen sind relativ zu Eingabe in vollem Maßstab. Für kleinere Signale kann die relative Quantisierungsverzerrung sehr groß sein. Um dieses Problem zu umgehen, analog Kompagieren Kann verwendet werden, aber dies kann Verzerrungen einführen.

Entwurf

Körnige Verzerrung und Überlastungsverzerrung

Oft beinhaltet das Design eines Quantisierers nur einen begrenzten Bereich möglicher Ausgangswerte und die Durchführung des Ausschnitts, um die Ausgabe auf diesen Bereich zu begrenzen, wenn der Eingang den unterstützten Bereich überschreitet. Der Fehler, der durch diesen Ausschnitt eingeführt wird, wird als bezeichnet als Überlast Verzerrung. Innerhalb der extremen Grenzen des unterstützten Bereichs wird die Menge des Abstands zwischen den wählbaren Ausgangswerten eines Quantisierers als ITS bezeichnet Die Granularitätund der Fehler, der durch diesen Abstand eingeführt wird körnig Verzerrung. Es ist üblich, dass das Design eines Quantisierers das ordnungsgemäße Gleichgewicht zwischen körniger Verzerrung und Überlastverzerrung bestimmt. Für eine gegebene unterstützte Anzahl möglicher Ausgangswerte kann die Reduzierung der durchschnittlichen körnigen Verzerrung die durchschnittliche Überlastverzerrung und umgekehrt beinhalten. Eine Technik zur Steuerung der Amplitude des Signals (oder gleichzeitig die Quantisierungsschrittgröße ) Um das entsprechende Gleichgewicht zu erreichen, ist die Verwendung von automatische gewinn Kontrolle (AGC). In einigen Quantizer -Designs gelten jedoch die Konzepte des Granularfehlers und des Überlastungsfehlers möglicherweise nicht (z. B. für einen Quantisierer mit einem begrenzten Bereich von Eingangsdaten oder mit einem zähligen unendlichen Satz wählbarer Ausgangswerte).[6]

Rate -Distortion Quantizer Design

Ein Skalarquantisierer, der einen Quantisierungsvorgang durchführt, kann normalerweise in zwei Stufen zerlegt werden:

Einstufung
Ein Prozess, der den Eingangssignalbereich einklassifiziert in nicht überlappend Intervalle durch Definition Entscheidungsgrenze Werte , so dass zum , mit den extremen Grenzen durch definiert durch und . Alle Eingänge in einem bestimmten Intervallbereich fallen sind mit demselben Quantisierungsindex verbunden .
Wiederaufbau
Jedes Intervall wird durch a dargestellt Rekonstruktionswert das implementiert die Mapping .

Diese beiden Phasen zusammen sind der mathematische Betrieb von .

Entropie -Codierung Techniken können angewendet werden, um die Quantisierungsindizes von einem Quellcodierer zu kommunizieren, der die Klassifizierungsphase mit einem Decoder ausführt, der die Rekonstruktionsphase ausführt. Eine Möglichkeit, dies zu tun, besteht darin, jeden Quantisierungsindex zu assoziieren mit einem binären Codewort . Eine wichtige Überlegung ist die Anzahl der für jedes Codewort verwendeten Bits, die hier von bezeichnet werden . Infolgedessen die Gestaltung eines -Level Quantizer und ein zugehöriger Satz von Codenwörtern zur Kommunikation seiner Indexwerte erfordert das Finden der Werte von , und die einen ausgewählten Satz von Designbeschränkungen optimal erfüllen wie die Bitrate und Verzerrung .

Angenommen, eine Informationsquelle erzeugt zufällige Variablen mit einem zugehörigen PDF , Die Wahrscheinlichkeit dass die Zufallsvariable innerhalb eines bestimmten Quantisierungsintervalls fällt wird gegeben durch:

.

Die resultierende Bitrate In Einheiten durchschnittlicher Bits pro quantisierter Wert kann dieser Quantisierer wie folgt abgeleitet werden:

.

Wenn angenommen wird, dass die Verzerrung mit mittlerer quadratischer Fehler gemessen wird, wird[a] die Verzerrung D, wird gegeben durch:

.

Eine wichtige Beobachtung ist diese Rate hängt von den Entscheidungsgrenzen ab und die Codewortlängen während die Verzerrung hängt von den Entscheidungsgrenzen ab und die Rekonstruktionsniveaus .

Nach der Definition dieser beiden Leistungsmetriken für den Quantisierer kann eine typische Rate -Distortion -Formulierung für ein Quantizer -Designproblem auf zwei Arten ausgedrückt werden:

  1. Bei einer maximalen Verzerrungsbeschränkung minimieren Sie die Bitrate
  2. Bei einer maximalen Bitrate -Einschränkung minimieren Sie die Verzerrung

Oft kann die Lösung für diese Probleme äquivalent (oder ungefähr) exprimiert und gelöst werden, indem die Formulierung in das nicht eingeschränkte Problem umgewandelt wird bei dem die Lagrange -Multiplikator ist eine nicht negative Konstante, die den geeigneten Gleichgewicht zwischen Rate und Verzerrung festlegt. Das Lösen des nicht eingeschränkten Problems ist gleichbedeutend damit, einen Punkt auf dem zu finden konvexer Rumpf der Lösungsfamilie zu einer äquivalenten eingeschränkten Formulierung des Problems. Jedoch eine Lösung finden - insbesondere a geschlossene Form Lösung - zu diesen drei Problemformulierungen kann schwierig sein. Lösungen, die keine mehrdimensionalen iterativen Optimierungstechniken erfordern, wurden nur für drei PDFs veröffentlicht: die Uniform,[18] exponentiell,[12] und Laplace[12] Verteilungen. Iterative Optimierungsansätze können verwendet werden, um in anderen Fällen Lösungen zu finden.[6][19][20]

Beachten Sie, dass die Rekonstruktionswerte Beeinflussen nur die Verzerrung - sie beeinflussen nicht die Bitrate - und jeder Einzelne leistet einen separaten Beitrag zur Gesamtverzerrung, wie unten gezeigt:

wo

Diese Beobachtung kann verwendet werden, um die Analyse zu erleichtern - angesichts des Satzes von Werte, der Wert von jedem kann separat optimiert werden, um ihren Beitrag zur Verzerrung zu minimieren .

Für das Kriterium für das Mittelquadrat-Fehlerverzerrungskriterium kann leicht gezeigt werden, dass der optimale Satz von Rekonstruktionswerten wird angegeben, indem der Rekonstruktionswert festgelegt wird Innerhalb jedes Intervalls zum bedingter erwarteter Wert (auch als die bezeichnet Schwerpunkt) innerhalb des Intervalls, wie angegeben von:

.

Die Verwendung von ausreichend gut gestalteten Entropie-Codierungstechniken kann zur Verwendung einer Bitrate führen, die dem tatsächlichen Informationsgehalt der Indizes nahe steht so effektiv das

und deshalb

.

Durch die Verwendung dieser Näherung kann das Problem der Entropie -Codierungsdesign vom Design des Quantisierers selbst getrennt werden. Moderne Entropie -Codierungstechniken wie z. arithmetische Kodierung Kann Bitraten erreichen, die der tatsächlichen Entropie einer Quelle sehr nahe stehen, angesichts einer Reihe bekannter (oder adaptiv geschätzter) Wahrscheinlichkeit .

In einigen Entwürfen, anstatt für eine bestimmte Anzahl von Klassifizierungsregionen zu optimieren Das Quantizer -Designproblem kann die Optimierung des Wertes von beinhalten auch. Für einige probabilistische Quellmodelle kann die beste Leistung erzielt werden, wenn nähert sich unendlich.

Vernachlässigung der Entropiebeschränkung: Lloyd -Max -Quantisierung

In der obigen Formulierung, wenn die Bitrate -Einschränkung durch Einstellen vernachlässigt wird gleich 0 oder äquivalent, wenn angenommen wird, dass ein Code mit fester Länge (FLC) verwendet wird, um die quantisierten Daten anstelle von a darzustellen Code variabler Länge (oder eine andere Entropie -Codierungstechnologie wie die arithmetische Kodierung, die im Raten -Verhältnis -Sinne besser als ein FLC ist), reduziert das Optimierungsproblem auf die Minimierung der Verzerrung allein.

Die Indizes, die von einem produziert werden -Der Quantizer-Level-Quantizer kann mit einem Code mit fester Länge verwendet werden Bits/Symbol. Zum Beispiel wenn 256 Stufen, die FLC -Bitrate ist 8 Bit/Symbol. Aus diesem Grund wurde ein solcher Quantisierer manchmal als 8-Bit-Quantisierer bezeichnet. Die Verwendung eines FLC eliminiert jedoch die Kompressionsverbesserung, die unter Verwendung einer besseren Entropie -Codierung erhalten werden kann.

Annahme eines FLC mit Das Niveau, das Rate -Distortion -Minimierungsproblem kann allein auf die Verzerrungsminimierung reduziert werden. Das reduzierte Problem kann wie folgt angegeben werden: Bei einer Quelle mit PDF und die Einschränkung, die der Quantisierer nur verwenden darf Klassifizierungsregionen, finden Sie die Entscheidungsgrenzen und Rekonstruktionsniveaus Um die resultierende Verzerrung zu minimieren

.

Eine optimale Lösung für das obige Problem zu finden, führt zu einem Quantisierer, der manchmal als MMSQE-Lösung (minimaler Mittelwertquantisierungsfehler) bezeichnet wird, und die resultierende PDF-optimierte (ungleichmäßige) Quantisierung wird als als bezeichnet Lloyd -Max Quantizer, benannt nach zwei Personen, die unabhängig iterative Methoden entwickelten[6][21][22] um die beiden Sätze von gleichzeitigen Gleichungen zu lösen, die aus resultieren und , folgendermaßen:

,

wodurch jede Schwelle zum Mittelpunkt zwischen jedem Paar von Rekonstruktionswerten und und

Dadurch wird jeder Rekonstruktionswert in den Schwerpunkt seines zugehörigen Klassifizierungsintervalls (bedingter erwarteter Wert) gelegt.

Lloyds Methode I -Algorithmus, ursprünglich 1957 beschrieben, kann auf einfache Weise für die Anwendung auf Vektordaten verallgemeinert werden. Diese Verallgemeinerung führt in der Linde -Buzo -Gray (LBG) oder k-means Klassifikatoroptimierungsmethoden. Darüber hinaus kann die Technik auf einfache Weise weiter verallgemeinert werden, um auch eine Entropiebeschränkung für Vektordaten einzuschließen.[23]

Einheitliche Quantisierung und 6 dB/Bit -Näherung

Der Lloyd -Max -Quantisierer ist tatsächlich ein gleichmäßiger Quantisierer, wenn der Eingangspdf gleichmäßig über den Bereich verteilt ist . Für eine Quelle, die keine einheitliche Verteilung aufweist, ist der minimale Quantisierer möglicherweise kein einheitlicher Quantisierer. Die Analyse eines einheitlichen Quantisierers, der auf eine gleichmäßig verteilte Quelle angewendet wird, kann in dem folgen zusammengefasst werden:

Eine symmetrische Quelle X kann mit modelliert werden , zum und 0 anderswo. Die Schrittgröße und die Signal -zu -Quantisierungs -Rauschverhältnis (SQNR) des Quantisierers ist

.

Für einen Code mit fester Länge mit Bits, , ergebendAnwesend

oder ungefähr 6 dB pro Bit. Zum Beispiel für = 8 Bit, = 256 Stufen und SQNR = 8 × 6 = 48 dB; und für = 16 Bit, = 65536 und SQNR = 16 × 6 = 96 dB. Die Eigenschaft der 6-dB-Verbesserung der SQNR für jedes zusätzliche Bit, das bei der Quantisierung verwendet wird, ist eine bekannte Verdienstfiguren. Es muss jedoch mit Sorgfalt verwendet werden: Diese Ableitung gilt nur für einen gleichmäßigen Quantisierer, der auf eine gleichmäßige Quelle angewendet wird. Für andere Quellpdfs und andere Quantisiererdesigns kann sich der SQNR je nach Art der PDF, der Art der Quelle, der Quantisierertyp und des Bitrate -Betriebsbereichs etwas von der durch 6 dB/Bit vorhergesagten SQNR unterscheiden.

Es ist jedoch üblich anzunehmen, dass für viele Quellen die Steigung einer Quantizer -SQNR -Funktion bei einer ausreichend hohen Bitrate als 6 dB/Bit angenähert werden kann. Bei asymptotisch hohen Bitraten erhöht das Schneiden der Schrittgröße die Bitrate um ungefähr 1 Bit pro Probe (da 1 Bit erforderlich ist, um anzugeben Der mittlere quadratische Fehler um den Faktor 4 (d. H. 6 dB) basierend auf dem Annäherung.

Bei asymptotisch hohen Bitraten wird die 6 -dB/Bit -Approximation für viele Quellen -PDFs durch strenge theoretische Analyse unterstützt.[2][3][5][6] Darüber hinaus nähert sich die Struktur des optimalen skalaren Quantisierers (im Sinne der Geschwindigkeitsdachung) der eines einheitlichen Quantisierers unter diesen Bedingungen.[5][6]

In anderen Bereichen

Viele physikalische Mengen werden tatsächlich von physischen Einheiten quantisiert. Beispiele für Felder, in denen diese Einschränkung gilt Elektronik (wegen Elektronen), Optik (wegen Photonen), Biologie (wegen DNA), Physik (wegen Planck -Grenzen) und Chemie (wegen Moleküle).

Siehe auch

Anmerkungen

  1. ^ Andere Verzerrungsmaßnahmen können ebenfalls berücksichtigt werden, obwohl der mittlere quadratische Fehler beliebt ist.

Verweise

  1. ^ Sheppard, W. F. (1897). "Bei der Berechnung der wahrscheinlichsten Werte von Frequenzkonstanten für Daten, die gemäß der äquidistanten Teilung einer Skala angeordnet sind". Verfahren der London Mathematical Society. Wiley. S1-29 (1): 353–380. doi:10.1112/PLMS/S1-29.1.353. ISSN 0024-6115.
  2. ^ a b c d W. R. Bennett, "Spektren quantisierter Signale",", Glockensystem Technisches Journal, Vol. 27, S. 446–472, Juli 1948.
  3. ^ a b Oliver, B.M.; Pierce, J. R.; Shannon, C.E. (1948). "Die Philosophie von PCM". Verfahren des Zorns. Institut für Elektro- und Elektronikingenieure (IEEE). 36 (11): 1324–1331. doi:10.1109/jrproc.1948.231941. ISSN 0096-8390.
  4. ^ Seymour Stein und J. Jay Jones, Moderne Kommunikationsprinzipien, McGraw -Hill, ISBN978-0-07-061003-3, 1967 (S. 196).
  5. ^ a b c Gish, H.; Pierce, J. (1968). "Asymptotisch effizientes Quantisieren". IEEE -Transaktionen zur Informationstheorie. Institut für Elektro- und Elektronikingenieure (IEEE). 14 (5): 676–683. doi:10.1109/tit.1968.1054193. ISSN 0018-9448.
  6. ^ a b c d e f g h i Gray, R.M.; Neuhoff, D.L. (1998). "Quantisierung". IEEE -Transaktionen zur Informationstheorie. Institut für Elektro- und Elektronikingenieure (IEEE). 44 (6): 2325–2383. doi:10.1109/18.720541. ISSN 0018-9448.
  7. ^ Allen Gersho; Robert M. Gray (1991). Vektorquantisierung und Signalkompression. Springer. ISBN 978-0-7923-9181-4.
  8. ^ Hodgson, Jay (2010). Aufzeichnungen verstehen, S. 56. ISBN978-1-4411-5607-5. Adaptiert von Franz, David (2004). Aufnahme und Produktion im Heimstudio, S.38-9. Berklee Press.
  9. ^ a b Gersho, A. (1977). "Quantisierung". IEEE Communications Society Magazine. Institut für Elektro- und Elektronikingenieure (IEEE). 15 (5): 16–28. doi:10.1109/mcom.1977.1089500. ISSN 0148-9615.
  10. ^ Rabbani, Majid; Joshi, Rajan L.; Jones, Paul W. (2009). "Abschnitt 1.2.3: Quantisierung, in Kapitel 1: JPEG 2000 -Kerncodierungssystem (Teil 1)". In Schelkens, Peter; Skodras, Athanassios; Ebrahimi, Touradj (Hrsg.). Die JPEG 2000 Suite. John Wiley & Sons. pp.22–24. ISBN 978-0-470-72147-6.
  11. ^ Taubman, David S.; Marcellin, Michael W. (2002). "Kapitel 3: Quantisierung". JPEG2000: Grundlagen, Standards und Praxis für Bildkomprimierung. KLUWER Academic Publishers. p.107. ISBN 0-7923-7519-x.
  12. ^ a b c Sullivan, G.J. (1996). "Effiziente skalare Quantisierung von exponentiellen und laplace -Zufallsvariablen". IEEE -Transaktionen zur Informationstheorie. Institut für Elektro- und Elektronikingenieure (IEEE). 42 (5): 1365–1374. doi:10.1109/18.532878. ISSN 0018-9448.
  13. ^ Wide, B. (1956). "Eine Studie zur Quantisierung der groben Amplitude mittels der Nyquist -Stichprobenentheorie". IRE -Transaktionen zur Schaltungstheorie. Institut für Elektro- und Elektronikingenieure (IEEE). 3 (4): 266–276. doi:10.1109/tct.1956.1086334. ISSN 0096-2007.
  14. ^ a b Bernard Widrow, "Statistische Analyse von amplituden quantisierten untersuchten Datensystemen",", Trans. Aiee pt. II: Appl. Ind., Vol. 79, S. 555–568, Januar 1961.
  15. ^ Marco, D.; Neuhoff, D.L. (2005). "Die Gültigkeit des additiven Rauschmodells für gleichmäßige Skalarquantizer". IEEE -Transaktionen zur Informationstheorie. Institut für Elektro- und Elektronikingenieure (IEEE). 51 (5): 1739–1755. doi:10.1109/tit.2005.846397. ISSN 0018-9448.
  16. ^ Pohlman, Ken C. (1989). Prinzipien der digitalen Audio 2. Ausgabe. Sams. p. 60. ISBN 9780071441568.
  17. ^ Watkinson, John (2001). Die Kunst des digitalen Audio 3. Auflage. Fokuspresse. ISBN 0-240-51587-0.
  18. ^ Farvardin, N.; Modestino, J. (1984). "Optimale Quantisiererleistung für eine Klasse von nicht gaußischen, erinnerlosen Quellen". IEEE -Transaktionen zur Informationstheorie. Institut für Elektro- und Elektronikingenieure (IEEE). 30 (3): 485–497. doi:10.1109/tit.1984.1056920. ISSN 0018-9448.(Abschnitt VI.C und Anhang B)
  19. ^ Berger, T. (1972). "Optimale Quantizer und Permutationscodes". IEEE -Transaktionen zur Informationstheorie. Institut für Elektro- und Elektronikingenieure (IEEE). 18 (6): 759–765. doi:10.1109/tit.1972.1054906. ISSN 0018-9448.
  20. ^ Berger, T. (1982). "Minimale Entropiequantizer und Permutationscodes". IEEE -Transaktionen zur Informationstheorie. Institut für Elektro- und Elektronikingenieure (IEEE). 28 (2): 149–157. doi:10.1109/tit.1982.1056456. ISSN 0018-9448.
  21. ^ Lloyd, S. (1982). "Quantisierung der kleinsten Quadrate in PCM". IEEE -Transaktionen zur Informationstheorie. Institut für Elektro- und Elektronikingenieure (IEEE). 28 (2): 129–137. doi:10.1109/tit.1982.1056489. ISSN 0018-9448. (Arbeiten in einem Manuskript dokumentiert für Kommentare bei Glockenlabors mit einem Abteilungsnotendatum vom 31. Juli 1957 und ebenfalls auf der Sitzung der 1957 vorgestellt Institut für mathematische Statistik, obwohl erst 1982 offiziell veröffentlicht).
  22. ^ Max, J. (1960). "Quantisierung für minimale Verzerrungen". IEEE -Transaktionen zur Informationstheorie. Institut für Elektro- und Elektronikingenieure (IEEE). 6 (1): 7–12. doi:10.1109/tit.1960.1057548. ISSN 0018-9448.
  23. ^ Chou, P. A.; Lookabaugh, T.; Gray, R.M. (1989). "Entropie-eingeschränkte Vektorquantisierung". IEEE -Transaktionen zur Akustik, Sprache und Signalverarbeitung. Institut für Elektro- und Elektronikingenieure (IEEE). 37 (1): 31–42. doi:10.1109/29.17498. ISSN 0096-3518.
  • Sayood, Khalid (2005), Einführung in die Datenkomprimierung, dritte AusgabeMorgan Kaufmann, ISBN 978-0-12-620862-7
  • Jayant, Nikil S.; Noll, Peter (1984), Digitale Codierung von Wellenformen: Prinzipien und Anwendungen für Sprache und Video, Prentice -Hall, ISBN 978-0-13-211913-9
  • Gregg, W. David (1977), Analoge und digitale Kommunikation, John Wiley, ISBN 978-0-471-32661-8
  • Stein, Seymour; Jones, J. Jay (1967), Moderne Kommunikationsprinzipien, McGraw -Hill, ISBN 978-0-07-061003-3

Weitere Lektüre