Datenkompression

Im Informationstheorie, Datenkompression, Quellcodierung,[1] oder Bit-Rate-Reduktion ist der Codierungsprozess Information weniger verwenden Bits als die ursprüngliche Darstellung.[2] Jede bestimmte Komprimierung ist entweder Verlust oder Verlustlos. Verlustlose Komprimierung reduziert die Bits, indem es identifiziert und beseitigt Statistische Redundanz. Bei verlustfreier Komprimierung gehen keine Informationen verloren. Verlustige Komprimierung reduziert die Bits, indem unnötige oder weniger wichtige Informationen entfernt werden.[3] In der Regel wird ein Gerät, das die Datenkomprimierung ausführt, als Encoder bezeichnet, das die Umkehrung des Prozesses (Dekompression) als Decoder durchführt.

Der Prozess der Reduzierung der Größe von a Datendatei wird oft als Datenkomprimierung bezeichnet. Im Zusammenhang mit Datenübertragunges wird als Quellcodierung bezeichnet; Codierung an der Quelle der Daten, bevor sie gespeichert oder übertragen werden.[4] Die Quellcodierung sollte nicht mit verwechselt werden Kanalcodierungfür Fehlererkennung und Korrektur oder Zeilencodierungdie Mittel zum Zuordnen von Daten auf ein Signal.

Die Komprimierung ist nützlich, da sie die Ressourcen reduziert, die zum Speichern und Übertragen von Daten erforderlich sind. Rechenressourcen werden in den Kompressions- und Dekompressionsprozessen konsumiert. Die Datenkomprimierung unterliegt a Weltraum-Zeit-Komplexitätskompromiss. Zum Beispiel, Ein Kompressionsschema für Video Kann teuer erfordern Hardware- Damit das Video schnell genug dekomprimiert werden kann, um sie als dekomprimiert zu betrachten, und die Option, das Video vollständig zu dekomprimieren, bevor es sich ansehen, kann es unpraktisch sein oder zusätzlichen Speicher erfordern. Das Design von Datenkomprimierungsschemata beinhaltet Kompromisse zwischen verschiedenen Faktoren, einschließlich des Komprimierungsgrades, der Einführung der Verzerrung (bei Verwendung Verlustige Datenkomprimierung) und die Rechenressourcen, die zur Komprimierung und Dekomprimierung der Daten erforderlich sind[5]

Verlustlos

Verlustlose Datenkomprimierung Algorithmen Normalerweise ausnutzen Statistische Redundanz Daten darzustellen, ohne etwas zu verlieren Information, damit der Prozess reversibel ist. Verlustlose Komprimierung ist möglich, da die meisten realen Daten eine statistische Redundanz aufweisen. Beispielsweise kann ein Bild Farbbereiche haben, die sich nicht über mehrere Pixel ändern. Anstatt "Red Pixel, Red Pixel, ..." zu codieren, können die Daten als "279 rote Pixel" codiert werden. Dies ist ein grundlegendes Beispiel für Kodierung der Lauflänge; Es gibt viele Programme, um die Dateigröße durch Beseitigung der Redundanz zu reduzieren.

Das Lempel -Ziv (LZ) Komprimierungsmethoden gehören zu den beliebtesten Algorithmen für verlustfreie Speicher.[6] Deflate ist eine Variation von LZ optimiert für die Dekompressionsgeschwindigkeit und das Kompressionsverhältnis, aber die Komprimierung kann langsam sein. Mitte der 1980er Jahre nach Arbeiten von Terry Welch, das Lempel -Ziv -Welch (LZW) Algorithmus wurde schnell zur Methode der Wahl für die meisten allgemeinen Komprimierungssysteme. LZW wird in verwendet GIF Bilder, Programme wie PKZIP und Hardware -Geräte wie Modems.[7] LZ-Methoden verwenden ein Tabellenbasierter Komprimierungsmodell, bei dem Tabelleneinträge durch wiederholte Datenzeichenfolgen ersetzt werden. Für die meisten LZ -Methoden wird diese Tabelle dynamisch aus früheren Daten in der Eingabe generiert. Der Tisch selbst ist oft Huffman codiert. Grammatik-basierte Codes Wie diese kann die äußerst repetitive Eingaben extrem effektiv komprimieren, beispielsweise eine biologische Datenerfassung derselben oder eng verwandten Arten, eine riesige Version des versionierten Dokuments, Internetarchivs usw. Die grundlegende Aufgabe von Grammatik-basierten Codes besteht darin Grammatik abgeleitet eine einzelne Zeichenfolge. Andere praktische Grammatikkomprimierungsalgorithmen umfassen Sequitur und Reparatur.

Die stärkste moderne verlustfreie Kompressoren verwenden probabilistisch Modelle wie z. Vorhersage durch teilweise Matching. Das Burrows -Wheeler -Transformation kann auch als indirekte Form der statistischen Modellierung angesehen werden.[8] In einer weiteren Verfeinerung der direkten Verwendung von Probabilistische Modellierungstatistische Schätzungen können an einen Algorithmus gekoppelt werden arithmetische Kodierung. Die arithmetische Codierung ist eine modernere Codierungstechnik, die die mathematischen Berechnungen von a verwendet Finite-State-Maschine Erzeugen Sie eine Reihe codierter Bits aus einer Reihe von Eingabedatensymbolen. Es kann im Vergleich zu anderen Techniken wie dem bekannteren Huffman-Algorithmus überlegene Komprimierung erzielen. Es verwendet einen internen Speicherzustand, um zu vermeiden, dass eine Eins-zu-Eins-Zuordnung einzelner Eingangssymbole für unterschiedliche Darstellungen durchführt . Die arithmetische Codierung gilt besonders gut für adaptive Datenkomprimierungsaufgaben, bei denen die Statistiken variieren und kontextabhängig sind, da sie leicht mit einem adaptiven Modell der Wahrscheinlichkeitsverteilung der Eingabedaten. Ein frühes Beispiel für die Verwendung der arithmetischen Codierung war in einer optionalen (aber nicht weit verbreiteten) Funktion der JPEG Bildcodierungsstandard.[9] Es wurde seitdem in verschiedenen anderen Designs angewendet, einschließlich H.263, H.264/MPEG-4 AVC und HEVC Für Videocodierung.[10]

Die Archivsoftware kann in der Regel die "Wörterbuchgröße" anpassen, bei der eine größere Größe mehr erfordert Arbeitsspeicher Während der Komprimierung und Dekompression, aber komprimiert stärker, insbesondere bei Wiederholungsmustern im Inhalt von Dateien.[11][12]

Verlust

In den späten 1980er Jahren wurden digitale Bilder häufiger und Standards für verlustfreie Bildkompression aufgetaucht. In den frühen neunziger Jahren wurden verlustige Komprimierungsmethoden weit verbreitet.[13] In diesen Schemata wird ein gewisser Verlust von Informationen akzeptiert, da das Ablegen von nicht wichtigen Details Speicherplatz speichern kann. Es gibt eine entsprechende Abtausch zwischen der Erhaltung von Informationen und der Reduzierung der Größe. Verlustige Datenkomprimierungsschemata werden durch die Untersuchung der Wahrnehmung der fraglichen Daten entwickelt. Zum Beispiel ist das menschliche Auge empfindlicher gegenüber subtilen Variationen in Luminanz als die Farbvariationen. JPEG Die Bildkomprimierung funktioniert teilweise, indem die nicht wichtigen Informationsbits abgerundet werden.[14] Eine Reihe beliebter Komprimierungsformate nutzen diese Wahrnehmungsunterschiede, einschließlich Psychoakustik für Klang und Psychovisuelle Für Bilder und Video.

Die meisten Formen der Verlustkomprimierung basieren auf Transformationskodierung, insbesondere das Diskrete Cosinus -Transformation (DCT). Es wurde erstmals 1972 von vorgeschlagen von Nasir Ahmed, der dann einen Arbeitsalgorithmus mit T. Natarajan und entwickelte K. R. Rao 1973, bevor es im Januar 1974 eingeführt wurde.[15][16] DCT ist die am weitesten verbreitete verlustkomprimierende Methode und wird in Multimedia -Formaten für verwendet Bilder (wie zum Beispiel JPEG und Heif),[17] Video (wie zum Beispiel MPEG, AVC und HEVC) und Audio (wie z. MP3, AAC und Vorbis).

Verlust Bildkompression wird in verwendet Digitalkameras, um die Lagerkapazitäten zu erhöhen. Ähnlich, DVDs, Blu-Ray und ein Video streamen Verwenden Sie Verlust Videocodierungsformate. Verlusthafte Komprimierung wird im Video ausführbar verwendet.

In der verlustigen Audiokomprimierung werden Methoden der Psychoakustik verwendet, um nicht-lebbare (oder weniger hörbare) Komponenten der zu entfernen Audiosignal. Die Komprimierung der menschlichen Sprache wird häufig mit noch spezialisierteren Techniken durchgeführt. Sprachcodierung wird als separate Disziplin von der allgemeinen Audiokompression unterschieden. Sprachcodierung wird in verwendet Internet -TelefonieZum Beispiel wird die Audiokomprimierung für das CD -Riss verwendet und von den Audio -Playern dekodiert.[8]

Verlustige Komprimierung kann verursachen Generierungsverlust.

Theorie

Die theoretische Grundlage für die Komprimierung wird von bereitgestellt Informationstheorie und genauer gesagt, Algorithmische Informationstheorie für verlustfreie Komprimierung und Rate -Distortion -Theorie für eine verlustige Komprimierung. Diese Studienbereiche wurden im Wesentlichen von geschaffen von Claude Shannon, der in den späten 1940er und frühen 1950er Jahren grundlegende Artikel zu diesem Thema veröffentlichte. Weitere Themen, die mit Komprimierung verbunden sind Codierungstheorie und statistische Inferenz.[18]

Maschinelles Lernen

Es besteht eine enge Verbindung zwischen maschinelles Lernen und Komprimierung. Ein System, das die vorhersagt hintere Wahrscheinlichkeiten einer Sequenz angesichts ihrer gesamten Geschichte kann zur optimalen Datenkomprimierung verwendet werden (unter Verwendung arithmetische Kodierung auf der Ausgangsverteilung). Ein optimaler Kompressor kann zur Vorhersage verwendet werden (indem das Symbol findet, das angesichts der Vorgeschichte am besten komprimiert). Diese Äquivalenz wurde als Rechtfertigung für die Verwendung von Datenkomprimierung als Benchmark für "allgemeine Intelligenz" verwendet.[19][20][21]

Eine alternative Ansicht kann Komprimierungsalgorithmen zeigen, die Zeichenfolgen implizit zugeordnet sind Space Space Vectorsund Kompressionsbasis-Ähnlichkeitsmessungen berechnen die Ähnlichkeit in diesen Merkmalsräumen. Für jeden Kompressor C (.) Definieren wir einen zugehörigen Vektorraum ℵ, so dass c (.) Eine Eingangszeichenfolge x ordnet, die der Vektornorm || ~ x || entspricht. Eine umfassende Untersuchung der Merkmalsräume, die allen Kompressionsalgorithmen zugrunde liegen, wird durch den Raum ausgeschlossen; Stattdessen untersuchen Feature -Vektoren drei repräsentative verlustfreie Komprimierungsmethoden, LZW, LZ77 und PPM.[22]

Entsprechend Aixi Theorie, eine Verbindung, die direkter erklärt wurde in Hutter -PreisDie bestmögliche Komprimierung von X ist die kleinstmögliche Software, die x generiert. In diesem Modell enthält die komprimierte Größe einer ZIP -Datei beispielsweise sowohl die ZIP -Datei als auch die Entpackungssoftware, da Sie sie nicht ohne beide entpacken können, aber es kann möglicherweise noch kleineres kombiniertes Formular vorliegen.

Data differencing

Datenkomprimierung kann als Sonderfall von angesehen werden Datendifferenzierung.[23][24] Datendifferenzierung besteht aus der Erzeugung a Unterschied angenommen Quelle und ein Ziel, mit Patching reproduzieren die Ziel angenommen Quelle und ein Unterschied. Da die Datenkomprimierung keine separate Quelle und kein separates Ziel gibt, kann die Datenkomprimierung als Datenunterschieden mit leeren Quelldaten berücksichtigt werden, die komprimierte Datei, die einem Unterschied zu nichts entspricht. Dies ist das gleiche wie ein Absolut Entropie (entsprechend der Datenkomprimierung) als Sonderfall von relative Entropie (entsprechend Datendifferenzierung) ohne Anfangsdaten.

Der Begriff Differentialkomprimierung wird verwendet, um die Datendifferenzierungsverbindung zu betonen.

Verwendet

Bild

Entropie -Codierung entstand in den 1940er Jahren mit der Einführung von Shannon -Fano -Codierung,[25] die Grundlage für Huffman -Codierung das wurde 1950 entwickelt.[26] Transformationskodierung stammt aus den späten 1960er Jahren mit der Einführung von Schnelle Fourier-Transformation (FFT) Codierung im Jahr 1968 und der Hadamard -Transformation 1969.[27]

Ein wichtiger Bildkompression Technik ist die Diskrete Cosinus -Transformation (DCT), eine Technik, die in den frühen 1970er Jahren entwickelt wurde.[15] DCT ist die Grundlage für JPEG, a Verlustige Komprimierung Format, das durch die eingeführt wurde Gemeinsame fotografische Expertengruppe (JPEG) 1992.[28] JPEG reduziert die Datenmenge erheblich, um ein Bild auf Kosten einer relativ geringen Verringerung der Bildqualität darzustellen, und ist die am häufigsten verwendete Verwirklichung geworden Bilddateiformat.[29][30] Sein hocheffizienter DCT-basierter Komprimierungsalgorithmus war weitgehend für die breite Proliferation von verantwortlich Digitale Bilder und Digitale Fotos.[31]

Lempel -Ziv -Welch (LZW) ist a Verlustfreie Kompression Algorithmus entwickelte sich 1984. Es wird in der verwendet GIF Format, eingeführt 1987.[32] Deflate, ein 1996 angegebener verlustfreier Komprimierungsalgorithmus wird in der verwendet Tragbare Netzwerkgrafiken (PNG) Format.[33]

Wavelet -Komprimierung, die Verwendung von Wavelets Bei der Bildkomprimierung begann nach der Entwicklung der DCT -Codierung.[34] Das JPEG 2000 Standard wurde im Jahr 2000 eingeführt.[35] Im Gegensatz zum DCT -Algorithmus, der vom ursprünglichen JPEG -Format verwendet wird, verwendet JPEG 2000 stattdessen Diskrete Wavelet -Transformation (DWT) Algorithmen.[36][37][38] JPEG 2000 -Technologie, zu der auch die gehört Motion JPEG 2000 Erweiterung wurde als die ausgewählt Videocodierungsstandard zum Digitales Kino in 2004.[39]

Audio

Audiodatenkomprimierung, nicht zu verwechseln mit Dynamikbereichskompressionhat das Potenzial, die Übertragung zu reduzieren Bandbreite und Speicheranforderungen für Audiodaten. Audio -Komprimierungsalgorithmen werden in implementiert Software als Audio Codecs. Sowohl in verlustiger als auch in verlustloser Kompression, Informationsredenz wird reduziert, unter Verwendung von Methoden wie z. Codierung, Quantisierung, Diskrete Cosinus -Transformation und lineare Vorhersage Reduzierung der Anzahl der Informationen, die zur Darstellung der unkomprimierten Daten verwendet werden.

Verlustige Audiokomprimierungsalgorithmen liefern eine höhere Komprimierung und werden in zahlreichen Audioanwendungen, einschließlich Vorbis und MP3. Diese Algorithmen verlassen sich fast alle auf Psychoakustik Um die Genauigkeit weniger hörbarer Geräusche zu beseitigen oder zu verringern, reduziert sie den Platz, der zum Speichern oder Übertragen erforderlich ist.[2][40]

Der akzeptable Kompromiss zwischen dem Verlust der Audioqualität und der Übertragung oder der Speichergröße hängt von der Anwendung ab. Zum Beispiel eine 640 MB Compact Disc (CD) hält ungefähr eine Stunde unkomprimiert Hi-Fi Musik, weniger als 2 Stunden Musik komprimiert verlustlos oder 7 Stunden Musik, die in der komprimiert sind MP3 Format in einem Medium Bitrate. Ein digitaler Soundrekorder kann in der Regel in 640 MB rund 200 Stunden klar verständlicher Sprache speichern.[41]

Verlustlose Audiokomprimierung erzeugt eine Darstellung digitaler Daten, die zu einem genauen digitalen Duplikat des Originals dekodiert werden können. Die Kompressionsverhältnisse betragen etwa 50–60% der ursprünglichen Größe,[42] Dies ähnelt denen für generische verlustfreie Datenkomprimierung. Verlustlose Codecs verwenden Kurvenanpassung oder lineare Vorhersage als Grundlage zur Schätzung des Signals. Parameter, die die Schätzung und die Differenz zwischen der Schätzung und dem tatsächlichen Signal beschreiben, werden separat codiert.[43]

Es gibt eine Reihe von verlustfreien Audiokomprimierungsformaten. Sehen Liste der verlustfreien Codecs Für eine Auflistung. Einige Formate sind mit einem bestimmten System verbunden, wie z. Direktstream -Übertragung, benutzt in Super Audio -CD und Meridian verlustfreies Verpacken, benutzt in DVD-Audio, Dolby Truehd, Blu-Ray und HD DVD.

Etwas Audiodateiformate verfügen über eine Kombination aus einem verlustigen Format und einer verlustfreien Korrektur; Dies ermöglicht das Entfernen der Korrektur, um problemlos eine verlustige Datei zu erhalten. Solche Formate umfassen MPEG-4 SLS (Skalierbar zu verlustlos), Wavpack, und Optimfrog Dualstream.

Wenn Audiodateien verarbeitet werden sollen, entweder durch weitere Komprimierung oder für BearbeitungEs ist wünschenswert, aus einem unveränderten Original (unkomprimiert oder verlustlos komprimiert) zu arbeiten. Die Verarbeitung einer verlustkomprimierten Datei für einen bestimmten Zweck führt normalerweise zu einem Endergebnis, das der Erstellung derselben komprimierten Datei aus einem unkomprimierten Original unterliegt. Neben der Schallbearbeitung oder -mischung wird häufig eine verlustfreie Audiokomprimierung für den Archivspeicher oder als Master -Kopien verwendet.

Verlustige Audiokomprimierung

Vergleich von Spektrogramme von Audio in einem unkomprimierten Format und mehreren verlustigen Formaten. Die Verlustspektrogramme zeigen Bandlimiting von höheren Frequenzen eine gemeinsame Technik, die mit einer verlustenden Audiokomprimierung verbunden ist.

Verlustige Audiokomprimierung wird in einer Vielzahl von Anwendungen verwendet. Zusätzlich zu eigenständigen Anwendungen von Audio-Anwendungen der Datei-Wiedergabe in MP3-Playern oder Computern werden digital komprimierte Audio-Streams in den meisten Video-DVDs, digitalem Fernsehen, verwendet, und streamen Medien auf dem InternetSatelliten und Kabelradio und zunehmend in terrestrischen Radiosendungen. Die verlustige Komprimierung erreicht typischerweise eine weitaus größere Kompression als eine verlustfreie Komprimierung psychoakustisch Optimierungen.[44]

Die Psychoakustik erkennt an, dass nicht alle Daten in einem Audiostrom vom Menschen wahrgenommen werden können Hörsystem. Die meisten Verlustkomprimierung verringern die Redundanz, indem er zuerst evaler -irrelevante Geräusche identifiziert, dh Geräusche, die sehr schwer zu hören sind. Typische Beispiele sind hohe Frequenzen oder Geräusche, die gleichzeitig lauteren Geräuschen auftreten. Diese irrelevanten Geräusche werden mit verringerter Genauigkeit oder gar nicht codiert.

Aufgrund der Natur verlustiger Algorithmen, Audio Qualität leidet a Verlust der digitalen Generation Wenn eine Datei dekomprimiert und empfohlen wird. Dies macht eine verlustige Komprimierung für die Speicherung der Zwischenergebnisse in professionellen Audio -Engineering -Anwendungen wie Tonbearbeitung und Multitrack -Aufnahme ungeeignet. Verlustige Formate wie jedoch wie MP3 sind bei Endbenutzern sehr beliebt, da die Dateigröße auf 5-20% der ursprünglichen Größe reduziert wird und ein Megabyte ungefähr eine Minute Musik in angemessener Qualität speichern kann.

Codierungsmethoden

Um zu bestimmen, welche Informationen in einem Audiosignal wahrnehmend irrelevant sind, verwenden die meisten verlustigen Komprimierungsalgorithmen Transformationen wie die modifizierte diskrete Cosinus -Transformation (MDCT) Um konvertieren Zeitdomäne Abgetastete Wellenformen in eine Transformationsdomäne, typischerweise die Frequenzbereich. Nach der Transformation können Komponentenfrequenzen entsprechend der hörbaren Priorität priorisiert werden. Die Hörbarkeit von Spektralkomponenten wird mit dem bewertet Absolute Hörschwelle und die Prinzipien von gleichzeitige Maskierung- Das Phänomen, bei dem ein Signal durch ein anderes Signal maskiert wird, das durch Frequenz getrennt ist - und in einigen Fällen, zeitliche Maskierung- Wo ein Signal durch ein anderes Signal maskiert wird, das durch die Zeit getrennt ist. Gleichberechtigte Konturen kann auch verwendet werden, um die Wahrnehmungsbedeutung von Komponenten abzuwägen. Modelle der Kombination aus menschlichem Gehirn mit solchen Effekten werden häufig genannt Psychoakustische Modelle.[45]

Andere Arten von verlustigen Kompressoren, wie die Lineare Vorhersagecodierung (LPC), das mit Sprache verwendet wird, sind Quellbasis-basierte Codierer. LPC verwendet ein Modell des menschlichen Stimmtrakts, um Sprachgeräusche zu analysieren und die vom Modell verwendeten Parameter zu schließen, um sie Moment zu Moment zu erzeugen. Diese sich ändernden Parameter werden übertragen oder gespeichert und verwendet, um ein anderes Modell im Decoder zu fahren, das den Klang reproduziert.

Verlustige Formate werden häufig für die Verteilung von Audio oder interaktiver Kommunikation (z. B. in Handy -Netzwerken) verwendet. In solchen Anwendungen müssen die Daten als die Daten fließt und nicht nach dem gesamten Datenstrom übertragen werden. Nicht alle Audio -Codecs können für Streaming -Anwendungen verwendet werden.[44]

Latenz wird durch die Methoden eingeführt, die zur codierenden und dekodierenden Daten verwendet werden. Einige Codecs analysieren ein längeres Segment, das als a genannt wird rahmen, der Daten zur Optimierung der Effizienz und dann auf eine Weise, die ein größeres Datensegment gleichzeitig erfordert, um zu dekodieren. Die inhärente Latenz des Codierungsalgorithmus kann kritisch sein; Wenn beispielsweise eine Zwei-Wege-Übertragung von Daten vorliegt, z. B. bei einem Telefongespräch, können erhebliche Verzögerungen die wahrgenommene Qualität ernsthaft verschlechtern.

Im Gegensatz zur Komprimierungsgeschwindigkeit, die proportional zur Anzahl der vom Algorithmus erforderlichen Operationen ist, bezieht sich die Latenz auf die Anzahl der Stichproben, die vor einem Audioblock analysiert werden müssen. Im Mindestfall beträgt die Latenz Nullproben (z. B. wenn der Codierer/Decoder einfach die Anzahl der Bits reduziert, die zur Quantisierung des Signals verwendet werden). Zeitdomänenalgorithmen wie LPC haben auch häufig niedrige Latenzen, daher ihre Popularität in der Sprachcodierung für die Telefonie. In Algorithmen wie MP3 muss jedoch eine große Anzahl von Proben analysiert werden, um ein psychoakustisches Modell in der Frequenzdomäne zu implementieren, und die Latenz liegt in der Größenordnung von 23 ms.

Sprachcodierung

Sprachcodierung ist eine wichtige Kategorie der Audiodatenkomprimierung. Die Wahrnehmungsmodelle, die verwendet werden, um zu schätzen, welche Aspekte der Sprache ein menschliches Ohr hören können, unterscheiden sich im Allgemeinen etwas von denen, die für Musik verwendet werden. Der Bereich der Frequenzen, die erforderlich sind, um die Geräusche einer menschlichen Stimme zu vermitteln, ist normalerweise weitaus schmaler als die für Musik benötigte, und der Klang ist normalerweise weniger komplex. Infolgedessen kann die Sprache mit hoher Qualität unter Verwendung einer relativ niedrigen Bitrate codiert werden.

Dies wird im Allgemeinen durch eine Kombination von zwei Ansätzen erreicht:

  • Nur codierende Geräusche, die von einer einzelnen menschlichen Stimme gemacht werden könnten.
  • Werfen Sie mehr von den Daten im Signal weg - um eine "verständliche" Stimme zu rekonstruieren und nicht den vollen Frequenzbereich des Menschen zu rekonstruieren Hören.

Die frühesten Algorithmen, A-Law-Algorithmus und die μ-Law-Algorithmus.

Geschichte

Solidyne 922: Die weltweit erste kommerzielle Audio -Bitkomprimierung Soundkarte Für PC, 1990

Frühe Audioforschung wurde bei durchgeführt Bell Labs. Dort im Jahr 1950, C. Chapin Cutler lagte das Patent auf Differentialpulscode-Modulation (DPCM).[46] 1973,, Adaptive DPCM (ADPCM) wurde von P. Cummiskey eingeführt, Nikil S. Jayant und James L. Flanagan.[47][48]

Wahrnehmungscodierung wurde zuerst für verwendet für Sprachcodierung Kompression, mit Lineare Vorhersagecodierung (LPC).[49] Erste Konzepte für LPC stammen aus der Arbeit von Fumitada itakura (Universität Nagoya) und Shuzo Saito (Nippon Telegraph und Telefon) im Jahr 1966.[50] In den 1970er Jahren, Bishnu S. Atal und Manfred R. Schroeder bei Bell Labs entwickelte eine Form von LPC genannt Adaptive Vorhersagecodierung (APC), ein Wahrnehmungscodierungsalgorithmus, der die Maskierungseigenschaften des menschlichen Ohrs ausnutzte, folgte Anfang der 1980er Jahre mit dem Code angeregte lineare Vorhersage (Celp) -Algorithmus, der einen signifikanten erreichte Kompressionsrate für seine Zeit.[49] Wahrnehmungscodierung wird von modernen Audio -Komprimierungsformaten verwendet, wie z. MP3[49] und AAC.

Diskrete Cosinus -Transformation (DCT), entwickelt von Nasir AhmedT. Natarajan und K. R. Rao 1974,,[16] vorausgesetzt die Grundlage für die modifizierte diskrete Cosinus -Transformation (MDCT) verwendet von modernen Audiokomprimierungsformaten wie MP3,[51] Dolby Digital,[52][53] und AAC.[54] MDCT wurde 1987 von J. P. Princen, A. W. Johnson und A. B. Bradley vorgeschlagen,[55] Nach früheren Arbeiten von Princen und Bradley im Jahr 1986.[56]

Der erste Werbespot der Welt Rundfunkautomatisierung Das Audiokomprimierungssystem wurde von Oscar Bonello, einem Ingenieurprofessor am Ingenieurprofessor, entwickelt Universität Buenos Aires.[57][Fehlgeschlagene Überprüfung] 1983 unter Verwendung des psychoakustischen Prinzips der Maskierung kritischer Bands, die 1967 erstmals veröffentlicht wurden,[58] Er begann, eine praktische Anwendung zu entwickeln, die auf dem kürzlich entwickelten Basis basiert IBM PC Computer und das Sendungsautomationssystem wurden 1987 unter dem Namen gestartet Audikom. Zwanzig Jahre später verwendeten fast alle Radiosender der Welt ähnliche Technologien, die von einer Reihe von Unternehmen hergestellt wurden.

Ein Literaturkompendium für eine Vielzahl von Audio -Codierungssystemen wurde im IEEE's veröffentlicht Journal über ausgewählte Bereiche in Kommunikation (JSAC) im Februar 1988. Während es einige Papiere von vor dieser Zeit gab, dokumentierte diese Sammlung eine Vielzahl von fertigen, arbeitenden Audio-Codierern, fast alle mit Wahrnehmungstechniken und einer Art Frequenzanalyse und Back-End-Codierung.[59]

Video

Unkomprimiertes Video erfordert eine sehr hohe Datenrate. Obwohl Verlustlose Videokomprimierung Codecs werden mit einem Kompressionsfaktor von 5 bis 12 durchgeführt, einem typischen H.264 Verlustiges Komprimierungsvideo hat einen Kompressionsfaktor zwischen 20 und 200.[60]

Die beiden wichtigsten Videokomprimierungstechniken Videocodierungsstandards sind die Diskrete Cosinus -Transformation (DCT) und Bewegungskompensation (MC). Die meisten Videocodierungsstandards wie die H.26X und MPEG Formate verwenden typischerweise Bewegungskompensierte DCT-Videocodierung (Blockbewegungskompensation).[61][62]

Die meisten Video-Codecs werden neben Audio-Komprimierungstechniken verwendet, um die separaten, aber komplementären Datenströme als ein kombiniertes Paket mit so genannten Paket zu speichern Containerformate.[63]

Codierungstheorie

Videodaten können als eine Reihe von Standbildrahmen dargestellt werden. Solche Daten enthalten normalerweise reichlich räumliche und zeitliche Mengen Redundanz. Videokomprimierungsalgorithmen versuchen, Redundanz zu reduzieren und Informationen kompakter zu speichern.

Die meisten Videokomprimierungsformate und Codecs sowohl räumliche als auch zeitliche Redundanz ausnutzen (z. B. durch Differenzcodierung mit Bewegungskompensation). Ähnlichkeiten können kodiert werden, indem nur Unterschiede zwischen z. zeitlich benachbarte Frames (Inter-Frame-Codierung) oder räumlich benachbarte Pixel (Intra-Frame-Codierung). Zwischenrahmen Komprimierung (ein zeitlicher Delta -Codierung) (Re) verwendet Daten von einem oder mehreren früheren oder späteren Rahmen in einer Sequenz, um den aktuellen Frame zu beschreiben. Intra-Frame-CodierungAndererseits verwendet nur Daten aus dem aktuellen Rahmen, was effektiv noch ist.Bildkompression.[45]

Das Intra-Frame-Videocodierungsformate Wird in Camcorder und Videobearbeitung verwendet, verwenden eine einfachere Komprimierung, bei der nur die Intra-Frame-Vorhersage verwendet wird. Dies vereinfacht die Videobearbeitungssoftware, da sie eine Situation verhindert, in der sich ein komprimierter Frame auf Daten bezieht, die der Editor gelöscht hat.

Normalerweise verwendet die Videokomprimierung zusätzlich Verlustige Komprimierung Techniken wie Quantisierung Das reduzieren Aspekte der Quelldaten, die (mehr oder weniger) für die menschliche visuelle Wahrnehmung irrelevant sind, indem er Wahrnehmungsmerkmale des menschlichen Sehens ausnutzt. Beispielsweise sind kleine Farbunterschiede schwieriger zu erkennen als Veränderungen in der Helligkeit. Komprimierungsalgorithmen können eine Farbe in diesen ähnlichen Bereichen auf ähnliche Weise wie in der in verwendeten durchschnittlich JPEG Bildkompression.[9] Wie bei allen verlustigen Kompression gibt es a Abtausch zwischen Videoqualität und Bitrate, Kosten für die Verarbeitung der Komprimierung und Dekompression sowie der Systemanforderungen. Hoch komprimiertes Video kann sichtbar oder ablenkend aufweisen Artefakte.

Andere andere Methoden als die vorherrschenden DCT-basierten Transformate, wie z. Fraktale Kompression, passende Verfolgung und die Verwendung von a Diskrete Wavelet -Transformation (DWT) waren Gegenstand einiger Untersuchungen, werden jedoch in der Regel nicht in praktischen Produkten verwendet. Wavelet -Komprimierung wird in still-image-Codierern und Videocodierern ohne Bewegungskompensation verwendet. Das Interesse an der fraktalen Komprimierung scheint aufgrund der jüngsten theoretischen Analyse zu schwinden, die einen vergleichenden Mangel an Wirksamkeit solcher Methoden zeigt.[45]

Inter-Frame-Codierung

Bei der Codierung zwischen den Frames werden einzelne Frames einer Videosequenz von einem Frame zum nächsten und der verglichen Videokomprimierungscodec zeichnet die auf Unterschiede zum Referenzrahmen. Wenn der Rahmen Bereiche enthält, in denen sich nichts bewegt hat, kann das System einfach einen kurzen Befehl ausgeben, der diesen Teil des vorherigen Frame in den nächsten kopiert. Wenn sich die Abschnitte des Rahmens auf einfache Weise bewegen, kann der Kompressor einen (etwas längeren) Befehl aussenden, der dem Dekompressor aufweist, die Kopie zu verschieben, zu drehen, aufzuhellen oder zu verdunkeln. Dieser längere Befehl bleibt immer noch viel kürzer als Daten, die durch Intra-Frame-Komprimierung generiert werden. Normalerweise überträgt der Encoder auch ein Restsignal, das die verbleibenden subtileren Unterschiede in den Referenzbildern beschreibt. Mithilfe der Entropie -Codierung haben diese Rückstandssignale eine kompaktere Darstellung als das vollständige Signal. In Bereichen von Videos mit mehr Bewegung muss die Komprimierung mehr Daten codieren, um mit der größeren Anzahl von Pixel zu bleiben, die sich ändern. Bei Explosionen, Flammen, Tierenherden und bei einigen Schwenkschüssen führt das Hochfrequenzdetail zu einer Qualität ab oder zu zunehmender Erhöhung der in der Variable Bitrate.

Hybrid-blockbasierte Transformationsformate

Verarbeitungsstadien eines typischen Video -Encoders

Heute, fast alle häufig verwendeten Videokomprimierungsmethoden (z. B. die in Standards, die von der genehmigt wurden Itu-t oder ISO) Teilen Sie die gleiche grundlegende Architektur, die auf ausgehen H.261 was 1988 durch die ITU-T standardisiert wurde. Sie stützen sich hauptsächlich auf die DCT, die auf rechteckige Blöcke benachbarter Pixel angewendet werden, und die zeitliche Vorhersage unter Verwendung Bewegungsvektorensowie heutzutage auch ein In-Loop-Filterschritt.

In der Vorhersagephase verschiedene Deduplizierung Es werden Differenzkodierungstechniken angewendet, mit denen Dekorrelatdaten helfen und neue Daten basierend auf bereits übertragenen Daten beschreiben.

Dann rechteckige verbleibende Blöcke Pixel Die Daten werden in die Frequenzdomäne umgewandelt. In der Hauptverarbeitungsphase der Hauptverlust werden Frequenzdomänendaten quantisiert, um Informationen zu reduzieren, die für die visuelle Wahrnehmung des Menschen irrelevant sind.

Im letzten Stadium wird die statistische Redundanz weitgehend von einem beseitigt Entropiecodierer die häufig irgendeine Form der arithmetischen Kodierung anwendet.

In einer zusätzlichen In-Loop-Filterstufe können verschiedene Filter auf das rekonstruierte Bildsignal angewendet werden. Durch Berechnen dieser Filter auch in der Codierungsschleife können sie bei der Komprimierung helfen, da sie auf Referenzmaterial angewendet werden können, bevor sie im Vorhersageprozess verwendet werden und mit dem ursprünglichen Signal geführt werden können. Das beliebteste Beispiel sind Filter entblockieren Diese verwischten die Blockierung von Artefakten aus Quantisierungsdiskontinuitäten an Transformationsblockgrenzen.

Geschichte

Im Jahr 1967 schlugen A. H. Robinson und C. Cherry a vor a Kodierung der Lauflänge Bandbreitenkomprimierungsschema für die Übertragung analoge Fernsehsignale.[64] Diskrete Cosinus -Transformation (DCT), was für die moderne Videokomprimierung von grundlegender Bedeutung ist,[65] wurde vorgestellt von Nasir AhmedT. Natarajan und K. R. Rao 1974.[16][66]

H.261, das 1988 debütierte, führte kommerziell die vorherrschende grundlegende Architektur der Videokomprimierungstechnologie ein.[67] Es war das erste Video -Codierungsformat Basierend auf der DCT -Kompression.[65] H.261 wurde von einer Reihe von Unternehmen entwickelt, einschließlich Hitachi, Picturetel, Ntt, Bt und Toshiba.[68]

Die beliebtesten Videocodierungsstandards Für Codecs wurden die verwendet MPEG Standards. MPEG-1 wurde von der entwickelt Filmexpertengruppe (MPEG) 1991 und es wurde entwickelt, um zu komprimieren VHS-qualität Video. Es wurde 1994 von dem Nachfolger von abgelöst MPEG-2/H.262,[67] die von einer Reihe von Unternehmen vor allem entwickelt wurde Sony, Thomson und Mitsubishi Electric.[69] MPEG-2 wurde zum Standard-Videoformat für DVD und SD Digital Television.[67] 1999 folgte es MPEG-4/H.263.[67] Es wurde auch von einer Reihe von Unternehmen entwickelt, hauptsächlich Mitsubishi Electric, Hitachi und Panasonic.[70]

H.264/MPEG-4 AVC wurde 2003 von einer Reihe von Organisationen entwickelt, hauptsächlich Panasonic, Godo Kaisha Ip Bridge und LG -Elektronik.[71] AVC stellte die Moderne kommerziell vor Kontext-adaptive binäre arithmetische Kodierung (CABAC) und Kontext-adaptive Codierung variabler Länge (CAVLC) Algorithmen. AVC ist der Haupt -Video -Codierungsstandard für Blu-ray-Discsund wird häufig von Video -Sharing -Websites und Streaming von Internetdiensten wie zum Beispiel verwendet Youtube, Netflix, Vimeo, und iTunes Store, Websoftware wie z. Adobe Flash Player und Microsoft Silverlightund verschiedene HDTV Sendungen über terrestrisches und satellitendes Fernsehen.

Genetik

Genetik -Komprimierungsalgorithmen sind die neueste Generation von verlustfreien Algorithmen, die Daten (typischerweise Sequenzen von Nukleotiden) unter Verwendung herkömmlicher Komprimierungsalgorithmen und genetischen Algorithmen komprimieren, die an den spezifischen Datenatyp angepasst sind. Im Jahr 2012 veröffentlichte ein Team von Wissenschaftlern der Johns Hopkins University einen genetischen Komprimierungsalgorithmus, der kein Referenzgenom zur Komprimierung verwendet. Hapzipper war auf zu maßgeschneidert Hapmap Daten und erreicht eine über 20-fache Komprimierung (95% Reduzierung der Dateigröße), wobei 2- bis 4-fach eine bessere Komprimierung liefert und weniger rechnerisch intensiv ist als die führenden allgemeinen Komprimierungsversorgungsunternehmen. Zu diesem Zweck führten Chanda, Elhaik und Bader die MAF-basierte Codierung (MAFE) vor, die die Heterogenität des Datensatzes durch Sortieren von SNPs durch ihre Minor-Allel-Frequenz reduziert und so den Datensatz homogenisiert.[72] Andere Algorithmen, die 2009 und 2013 entwickelt wurden (DNAZIP und Genomezip), weisen eine Kompressionsverhältnisse von bis zu 1200-fach auf und 3 Milliarden Basispair-diploide menschliche Genome, die in 2,5 Megabyte gespeichert werden sollen (im Vergleich zu einem Referenzgenom oder über viele Genome).[73][74] Für einen Benchmark in Genetics/Genomics -Datenkompressoren siehe [75]

Outlook und derzeit ungenutzte Potenzial

Es wird geschätzt, dass die Gesamtmenge der Daten, die auf den Speichergeräten der Welt gespeichert sind, durch einen verbleibenden Durchschnittsfaktor von 4,5: 1 mit vorhandenen Komprimierungsalgorithmen weiter komprimiert werden könnten.[76] Es wird geschätzt, dass die kombinierte technologische Kapazität der Welt zum Speichern von Informationen 1.300 liefert Exabyte von Hardware -Ziffern im Jahr 2007, aber wenn der entsprechende Inhalt optimal komprimiert ist, entspricht dies nur 295 Exabyte von Shannon -Informationen.[77]

Siehe auch

Verweise

  1. ^ Wade, Graham (1994). Signalcodierung und Verarbeitung (2 ed.). Cambridge University Press. p. 34. ISBN 978-0-521-42336-6. Abgerufen 2011-12-22. Das breite Ziel der Quellcodierung ist es, "ineffiziente" Redundanz in der "ineffizient" zu nutzen oder zu entfernen PCM Quelle und damit eine Verringerung der Gesamtquellrate R.
  2. ^ a b Mahdi, O.A.; Mohammed, M. A.; Mohamed, A.J. (November 2012). "Implementieren eines neuartigen Ansatzes Eine Konvertitus -Audiokomprimierung in die Textcodierung über Hybridtechnik" (PDF). Internationales Journal of Information Issues. 9 (6, Nr. 3): 53–59. Abgerufen 6. März 2013.
  3. ^ Pujar, J.H.; Kadlaskar, L. M. (Mai 2010). "Eine neue verlustfreie Methode zur Bildkomprimierung und Dekompression unter Verwendung von Huffman -Codierungstechniken" (PDF). Journal of Theoretical and Applied Information Technology. 15 (1): 18–23.
  4. ^ Salomon, David (2008). Eine kurze Einführung in die Datenkomprimierung. Berlin: Springer. ISBN 9781848000728.
  5. ^ Panzer, M.K. (2011). "Implementierung des Lempel-Ziv-Algorithmus zur verlustfreien Komprimierung mit VHDL". Implementierung des Limpel-Ziv-Algorithmus für eine verlustfreie Komprimierung unter Verwendung von VHDL. ThinkQuest 2010: Verfahren der ersten internationalen Konferenz über Konturen der Computertechnologie. Berlin: Springer. S. 275–283. doi:10.1007/978-81-8489-989-4_51. ISBN 978-81-8489-988-7.
  6. ^ Navqi, Saud; Naqvi, R.; Riaz, R.A.; Siddiqui, F. (April 2011). "Optimiertes RTL -Design und -implementierung des LZW -Algorithmus für Anwendungen mit hoher Bandbreite" (PDF). Elektrische Überprüfung. 2011 (4): 279–285.
  7. ^ Stephen, Wolfram (2002). Neue Art von Wissenschaft. Champaign, il. p. 1069. ISBN 1-57955-008-8.
  8. ^ a b Mahmud, Salauddin (März 2012). "Eine verbesserte Datenkomprimierungsmethode für allgemeine Daten" (PDF). Internationales Journal of Scientific & Engineering Research. 3 (3): 2. Abgerufen 6. März 2013.
  9. ^ a b Lane, Tom. "JPEG Bildkomprimierung FAQ, Teil 1". Internet -FAQ -Archive. Unabhängige JPEG -Gruppe. Abgerufen 6. März 2013.
  10. ^ G. J. Sullivan; J.-R. Ohm; W J. Han; T. Wiegand (Dezember 2012). "Überblick über die hocheffiziente Video -Codierung (HEVC) Standard". IEEE -Transaktionen zu Schaltkreisen und Systemen für die Videotechnik. IEEE. 22 (12): 1649–1668. doi:10.1109/tcsvt.2012.2221191.
  11. ^ "So wählen Sie optimale Archivierungseinstellungen - Winrar".
  12. ^ "(Komprimierungsmethode festlegen) Switch - 7zip".
  13. ^ Wolfram, Stephen (2002). Eine neue Art von Wissenschaft. Wolfram Media, Inc. p.1069. ISBN 978-1-57955-008-0.
  14. ^ Arcangel, Cory. "Auf Kompression" (PDF). Abgerufen 6. März 2013.
  15. ^ a b Ahmed, Nasir (Januar 1991). "Wie ich mich mit der diskreten Cosinus -Transformation ausgedacht habe". Digitale Signalverarbeitung. 1 (1): 4–5. doi:10.1016/1051-2004 (91) 90086-Z.
  16. ^ a b c Nasir Ahmed; T. Natarajan; Kamisetty Ramamohan Rao (Januar 1974). "Diskrete Cosinus -Transformation" (PDF). IEEE -Transaktionen auf Computern. C-23 (1): 90–93. doi:10.1109/t-c.1974.223784. S2CID 149806273.
  17. ^ CCITT -Studiengruppe VIII. Und die Joint Photographic Experten Group (JPEG) von ISO/IEC Joint Technical Committee 1/Unterausschuss 29/Arbeitsgruppe 10 (1993), "Anhang D - Arithmetische Codierung", Empfehlung T.81: Digitale Komprimierung und Codierung von ständigen Standbildern-Anforderungen und Richtlinien (PDF), S. 54 ff, abgerufen 2009-11-07
  18. ^ Marak, Laszlo. "Bildkomprimierung" (PDF). Universität von Marne La Vallee. Archiviert von das Original (PDF) am 28. Mai 2015. Abgerufen 6. März 2013.
  19. ^ Mahoney, Matt. "Begründung für einen großen Textkompressions -Benchmark". Florida Institute of Technology. Abgerufen 5. März 2013.
  20. ^ Shmilovici a.; Kahiri Y.; Ben-Gal.; Hauser S. (2009). "Messung der Effizienz des Intraday Forex -Marktes mit einem universellen Datenkomprimierungsalgorithmus" (PDF). Computerökonomie. 33 (2): 131–154. Citeseerx 10.1.1.627.3751. doi:10.1007/s10614-008-9153-3. S2CID 17234503.
  21. ^ I. Ben-Gal (2008). "Bei der Verwendung von Datenkomprimierungsmaßnahmen zur Analyse robuster Designs" (PDF). IEEE -Transaktionen zur Zuverlässigkeit. 54 (3): 381–388. doi:10.1109/tr.2005.853280. S2CID 9376086.
  22. ^ D. Scully; Carla E. Brodley (2006). "Komprimierung und maschinelles Lernen: Eine neue Perspektive auf den Feature -Raum -Vektoren". Datenkompressionskonferenz, 2006: 332. doi:10.1109/dcc.2006.13. ISBN 0-7695-2545-8. S2CID 12311412.
  23. ^ Korn, D.; et al. "RFC 3284: Das VCDIFF -Format für generische Differenzierungs- und Komprimierungsdatenformat". Internettechnik-Arbeitsgruppe. Abgerufen 5. März 2013.
  24. ^ Korn, D.G.; Vo, K.P. (1995). B. Krishnamurthy (Hrsg.). Vdelta: Unterscheidung und Komprimierung. Praktische wiederverwendbare Unix -Software. New York: John Wiley & Sons, Inc.
  25. ^ Claude Elwood Shannon (1948). Alcatel-Lucent (Hrsg.). "Eine mathematische Kommunikationstheorie" (PDF). Glockensystem Technisches Journal. 27 (3–4): 379–423, 623–656. doi:10.1002/j.1538-7305.1948.tb01338.x. HDL:11858/00-001M-0000-002C-4314-2. Abgerufen 2019-04-21.
  26. ^ David Albert Huffman (September 1952), "Eine Methode zur Konstruktion von Codes mit Minimum-Redundanz" (PDF), Verfahren des Zorns, vol. 40, nein. 9, S. 1098–1101, doi:10.1109/jrproc.1952.273898
  27. ^ Pratt, W.K.; Kane, J.; Andrews, H.C. (1969). "Hadamard -Transformation Bildcodierung". Proceedings of the IEEE. 57: 58–68. doi:10.1109/proc.1969.6869.
  28. ^ "T.81-Digitale Komprimierung und Codierung von ständigen Standbildern-Anforderungen und Richtlinien" (PDF). Ccitt. September 1992. Abgerufen 12. Juli 2019.
  29. ^ "Das JPEG -Bildformat erklärt". Bt.com. BT -Gruppe. 31. Mai 2018. archiviert von das Original am 5. August 2019. Abgerufen 5. August 2019.
  30. ^ Baraniuk, Chris (15. Oktober 2015). "Kopierschutz könnte zu JPEGs kommen". BBC News. BBC. Abgerufen 13. September 2019.
  31. ^ "Was ist ein JPEG? Das unsichtbare Objekt, das Sie jeden Tag sehen". Der Atlantik. 24. September 2013. Abgerufen 13. September 2019.
  32. ^ "Die GIF -Kontroverse: Die Perspektive eines Softwareentwicklers". Abgerufen 26. Mai 2015.
  33. ^ L. Peter Deutsch (Mai 1996). Deflate komprimierte Datenformatspezifikation Version 1.3. Ietf. p. 1 Sek. Abstrakt. doi:10.17487/rfc1951. RFC 1951. Abgerufen 2014-04-23.
  34. ^ Hoffman, Roy (2012). Datenkomprimierung in digitalen Systemen. Springer Science & Business Media. p. 124. ISBN 9781461560319. Grundsätzlich ist die Wavelet-Codierung eine Variante der DCT-basierten Transformationskodierung, die einige seiner Einschränkungen reduziert oder beseitigt. (...) Ein weiterer Vorteil ist, dass die Wavelet-Codierung gleichzeitig das gesamte Bild komprimieren kann, anstatt mit 8 × 8 Pixelblöcken zu arbeiten, ebenso wie JPEG und andere blockbasierte DCT-Techniken.
  35. ^ Taubman, David; Marcellin, Michael (2012). JPEG2000 Bildkomprimierung Grundlagen, Standards und Praxis: Grundlagen, Standards und Praxis Bildkomprimierung. Springer Science & Business Media. ISBN 9781461507994.
  36. ^ Usser, M.; Blu, T. (2003). "Mathematische Eigenschaften der JPEG2000 -Wavelet -Filter". IEEE -Transaktionen zur Bildverarbeitung. 12 (9): 1080–1090. Bibcode:2003itip ... 12.1080U. doi:10.1109/Tipp.2003.812329. PMID 18237979. S2CID 2765169.
  37. ^ Sullivan, Gary (8.–12. Dezember 2003). "Allgemeine Merkmale und Konstruktionsüberlegungen für die zeitliche Subband -Videocodierung". Itu-t. Videocodierungsexperten Gruppe. Abgerufen 13. September 2019.
  38. ^ Bovik, Alan C. (2009). Die wesentliche Anleitung zur Videoverarbeitung. Akademische Presse. p. 355. ISBN 9780080922508.
  39. ^ Swartz, Charles S. (2005). Digitales Kino verstehen: Ein professionelles Handbuch. Taylor & Francis. p. 147. ISBN 9780240806174.
  40. ^ Cunningham, Stuart; McGregor, Iain (2019). "Subjektive Bewertung der mit dem Acer -Codec komprimierten Musik im Vergleich zu AAC, MP3 und unkomprimiertem PCM". Internationales Journal of Digital Multimedia Broadcasting. 2019: 1–16. doi:10.1155/2019/8265301.
  41. ^ Der digitale Sprechrekorder von Olympus WS-120 kann laut seinem Handbuch etwa 178 Stunden Audio im .WMA-Format in 500 MB Flash-Speicher speichern.
  42. ^ Coalson, Josh. "FLAC -Vergleich". Abgerufen 2020-08-23.
  43. ^ "Formatübersicht". Abgerufen 2020-08-23.
  44. ^ a b Jaiswal, R.C. (2009). Audio-Video-Engineering. Pune, Maharashtra: Nirali Prakashan. p. 3.41. ISBN 9788190639675.
  45. ^ a b c Faxin Yu; Hao Luo; Zheming Lu (2010). Dreidimensionale Modellanalyse und Verarbeitung. Berlin: Springer. p.47. ISBN 9783642126512.
  46. ^ US -Patent 2605361, C. Chapin Cutler, "Differentialquantisierung von Kommunikationssignalen", herausgegeben 1952-07-29 
  47. ^ Cummiskey, P.; Jayant, N. S.; Flanagan, J. L. (1973). "Adaptive Quantisierung in der differentiellen PCM -Codierung der Sprache". Glockensystem Technisches Journal. 52 (7): 1105–1118. doi:10.1002/j.1538-7305.1973.tb02007.x.
  48. ^ Cummiskey, P.; Jayant, Nikil S.; Flanagan, J. L. (1973). "Adaptive Quantisierung in der differentiellen PCM -Codierung der Sprache". Das Bell System Technical Journal. 52 (7): 1105–1118. doi:10.1002/j.1538-7305.1973.tb02007.x. ISSN 0005-8580.
  49. ^ a b c Schroeder, Manfred R. (2014). "Bell Laboratories". Akustik, Informationen und Kommunikation: Gedenkvolumen zu Ehren von Manfred R. Schroeder. Springer. p. 388. ISBN 9783319056609.
  50. ^ Gray, Robert M. (2010). "Eine Geschichte der digitalen Real -Real -Sprache in Paketnetzwerken: Teil II der linearen Vorhersagecodierung und des Internet -Protokolls" (PDF). Gefunden. Trendssignalprozess. 3 (4): 203–303. doi:10.1561/2000000036. ISSN 1932-8346.
  51. ^ Guckert, John (Frühjahr 2012). "Die Verwendung von FFT und MDCT in MP3 -Audiokomprimierung" (PDF). Universität von Utah. Abgerufen 14. Juli 2019.
  52. ^ Luo, FA-Long (2008). Mobile Multimedia -Rundfunkstandards: Technologie und Praxis. Springer Science & Business Media. p. 590. ISBN 9780387782638.
  53. ^ Britanak, V. (2011). "Über Eigenschaften, Beziehungen und vereinfachte Implementierung von Filterbanken in den Dolby Digital (Plus) AC-3-Audio-Codierungsstandards". IEEE -Transaktionen zu Audio-, Sprach- und Sprachverarbeitung. 19 (5): 1231–1241. doi:10.1109/tasl.2010.2087755. S2CID 897622.
  54. ^ Brandenburg, Karlheinz (1999). "MP3 und AAC erklärten" (PDF). Archiviert (PDF) vom Original am 2017-02-13.
  55. ^ Princen, J.; Johnson, A.; Bradley, A. (1987). "Subband-/Transformationskodierung mithilfe der Filterbankdesigns basierend auf der Aliasing -Stornierung von Zeitdomänen". ICASSP '87. IEEE Internationale Konferenz über Akustik, Sprache und Signalverarbeitung. Vol. 12. S. 2161–2164. doi:10.1109/ICASSP.1987.1169405. S2CID 58446992.
  56. ^ Princen, J.; Bradley, A. (1986). "Analyse-/Synthese -Filterbankdesign basierend auf dem Zeitungsdomänen -Aliasing -Stornieren". IEEE -Transaktionen zur Akustik, Sprache und Signalverarbeitung. 34 (5): 1153–1161. doi:10.1109/tASP.1986.1164954.
  57. ^ "Zusammenfassung einiger der Beiträge von Solidyne zum Broadcast Engineering". Kurze Geschichte von Solidyne. Buenos Aires: Solidyne. Archiviert von das Original am 8. März 2013. Abgerufen 6. März 2013.[Selbstveröffentlichte Quelle?]
  58. ^ Zwicker, Eberhard; et al. (1967). Das Ohr als Kommunikationsempfänger. Melville, NY: Acoustical Society of America. Archiviert von das Original Am 2000-09-14. Abgerufen 2011-11-11.
  59. ^ "Dateikomprimierungsmöglichkeiten". Eine kurze Anleitung zur Komprimierung einer Datei auf 4 verschiedene Arten. 17. Februar 2017.
  60. ^ Dmitriy Vatolin; et al. (Grafik- und Medienlabor -Videogruppe) (März 2007). Verlustloser Video -Codecs -Vergleich '2007 (PDF) (Bericht). Moskauer Staatsuniversität.
  61. ^ Chen, Jie; KOC, UT-VA; Liu, KJ Ray (2001). Design digitaler Videocodierungssysteme: Ein vollständiger komprimierter Domänenansatz. CRC Press. p. 71. ISBN 9780203904183.
  62. ^ Li, Jian Ping (2006). Proceedings der Internationalen Computerkonferenz 2006 über Wavelet Active Media Technology und Information Processing: Chongqing, China, 29.-31. August 2006. Welt wissenschaftlich. p. 847. ISBN 9789812709998.
  63. ^ "Videocodierung". CSIP -Website. Zentrum für Signal- und Informationsverarbeitung, Georgia Institute of Technology. Archiviert von das Original am 23. Mai 2013. Abgerufen 6. März 2013.
  64. ^ Robinson, A. H.; Cherry, C. (1967). "Ergebnisse eines Prototyps -Fernsehbandbreitenkomprimierungsschemas". Proceedings of the IEEE. IEEE. 55 (3): 356–364. doi:10.1109/proc.1967.5493.
  65. ^ a b Ghanbari, Mohammed (2003). Standard -Codecs: Bildkomprimierung zur erweiterten Videocodierung. Institution für Ingenieurwesen und Technologie. S. 1–2. ISBN 9780852967102.
  66. ^ Leser Cliff (2016-08-31). "Patentlandschaft für Lizenzgebührenfreie Videocodierung". In Tescher, Andrew G (Hrsg.). Anwendungen der digitalen Bildverarbeitung xxxix. Anwendungen der digitalen Bildverarbeitung XXXIX. Vol. 9971. San Diego, Kalifornien: Society of Photo-optical Instrumentation Engineers. S. 99711b. Bibcode:2016spie.9971e..1br. doi:10.1117/12.2239493. Archiviert von das Original Am 2016-12-08. Vortragsaufzeichnung von 3:05:10.
  67. ^ a b c d "Die Geschichte der Videodateiformate Infografik - Realplayer". 22. April 2012.
  68. ^ "Patenterklärung Deklaration als H261-07 registriert". Itu. Abgerufen 11. Juli 2019.
  69. ^ "MPEG-2 Patentliste" (PDF). Mpeg la. Abgerufen 7. Juli 2019.
  70. ^ "MPEG -4 Visual - Patentliste" (PDF). Mpeg la. Abgerufen 6. Juli 2019.
  71. ^ "AVC/H.264 - Patentliste" (PDF). Mpeg la. Abgerufen 6. Juli 2019.
  72. ^ Chanda P, Bader JS, Elhaik E (27. Juli 2012). "Hapzipper: Teilen von Hapmap -Populationen wurde einfach einfacher". Nukleinsäurenforschung. 40 (20): e159. doi:10.1093/nar/gks709. PMC 3488212. PMID 22844100.
  73. ^ Christley S, Lu Y, Li C, Xie X (15. Januar 2009). "Menschliche Genome als E -Mail -Anhänge". Bioinformatik. 25 (2): 274–5. doi:10.1093/bioinformatics/btn582. PMID 18996942.
  74. ^ Pavlichin DS, Weissman T, Yona G (September 2013). "Das menschliche Genom ist wieder zusammengekommen". Bioinformatik. 29 (17): 2199–202. doi:10.1093/bioinformatics/btt362. PMID 23793748.
  75. ^ Hosseini, Morteza; Pratas, Diogo; Pinho, Armando (2016). "Eine Umfrage zu Datenkomprimierungsmethoden für biologische Sequenzen". Information. 7 (4): 56. doi:10.3390/info7040056.
  76. ^ "Datenkomprimierung über die logische Synthese" (PDF).
  77. ^ Hilbert, Martin; López, Priscila (1. April 2011). "Die technologische Fähigkeit der Welt, Informationen zu speichern, zu kommunizieren und zu berechnen". Wissenschaft. 332 (6025): 60–65. Bibcode:2011sci ... 332 ... 60h. doi:10.1126/Science.1200970. PMID 21310967. S2CID 206531385.

Externe Links