Video -Codierungsformat
, Videocodierer Decoder.
A Video -Codierungsformat[a] (oder manchmal Videokomprimierungsformat) ist ein Inhaltsdarstellungsformat zur Speicherung oder Übertragung von Digital Videoinhalt (wie in einer Datendatei oder Bitstream). Es verwendet normalerweise eine standardisierte Video-Kompression Algorithmus, am häufigsten basierend auf Diskrete Cosinus -Transformation (DCT) Codierung und Bewegungskompensation. Eine bestimmte Software, Firmwareoder Hardware -Implementierung, die zum Komprimieren oder Dekompression zu/aus einem bestimmten Videocodierungsformat in der Lage ist, wird als a genannt Video-Codec.
Einige Videocodierungsformate werden durch ein detailliertes dokumentiert Technische Spezifikation Dokument bekannt als a Videocodierungsspezifikation. Einige solche Spezifikationen werden von geschrieben und genehmigt von Standardisierungsorganisationen wie Technische Standardsund sind daher als a bekannt Videocodierungsstandard. Der Begriff "Standard" wird manchmal auch für verwendet de facto Standards sowie formelle Standards.
Videoinhalte, die mit einem bestimmten Video -Codierungsformat codiert werden Audio -Codierungsformat) in einem Multimedia -Containerformat wie zum Beispiel Avi, MP4, Flv, Realmedia, oder Matroska. Daher hat der Benutzer normalerweise keine H.264 Datei, aber stattdessen einen .mp4 hat Videodatei, das ist ein MP4-Container, der H.264-codiertes Video enthält, normalerweise neben AAC-Coded Audio. Multimedia -Containerformate können eine von verschiedenen Videocodierungsformaten enthalten. Zum Beispiel kann das MP4 -Containerformat Video in beiden enthalten MPEG-2 Teil 2 oder das H.264 -Video -Codierungsformat unter anderem. Ein weiteres Beispiel ist die anfängliche Spezifikation für den Dateityp Webm, das das Containerformat (Matroska) spezifizierte, aber auch genau welches Video (VP8) und Audio (Vorbis) Komprimierungsformat wird im Matroska -Behälter verwendet, obwohl das Matroska -Containerformat selbst andere Video -Codierungsformate enthalten kann (FormateVP9 Video und Opus Der Audiounterstützung wurde später zu dem hinzugefügt Webm Spezifikation).
Unterschied zwischen Format und Codec
A Format ist der Layoutplan für Daten, die von a erstellt oder konsumiert werden Codec.
Obwohl Videocodierungsformate wie H.264 manchmal als als bezeichnet werden CodecsEs gibt einen klaren konzeptionellen Unterschied zwischen einer Spezifikation und ihren Implementierungen. Videocodierungsformate sind in Spezifikationen und Software beschrieben. Firmware, oder Hardware zum Codieren/Dekodieren von Daten in einem bestimmten Video -Codierungsformat von/zu unkomprimierten Videos sind Implementierungen dieser Spezifikationen. Als Analogie das Video -Codierungsformat H.264 (Spezifikation) ist zu der Codec OpenH264 (Spezifische Implementierung) Was die C Programmiersprache (Spezifikation) ist für den Compiler GCC (Spezifische Implementierung). Beachten Sie, dass für jede Spezifikation (z. H.264), es kann viele Codecs geben, die diese Spezifikation implementieren (z. x264, OpenH264, H.264/MPEG-4 AVC-Produkte und -implementierungen).
Diese Unterscheidung spiegelt sich in der Literatur nicht konsequent terminologisch wider. Die H.264 -Spezifikationsaufrufe H.261, H.262, H.263, und H.264 Videocodierungsstandards und enthält das Wort nicht Codec.[2] Das Allianz für offene Medien unterscheidet deutlich zwischen den AV1 Video -Codierungsformat und die damit verbundenen Codec, die sie entwickeln, aber das Video -Codierungsformat selbst aufruft a Video-Codec Spezifikation.[3] Das VP9 Die Spezifikation ruft das Video -Codierungsformat VP9 selbst a auf Codec.[4]
Als Beispiel für Verschmelzung Chroms's[5] und Mozilla[6] Seiten, auf denen der Video -Format aufgelistet ist, unterstützen Sie beide Ruf -Video -Codierungsformate wie H.264 Codecs. Als weiteres Beispiel in Cisco-Ankündigung eines free-as-in-Beer-Video-Codec bezieht sich die Pressemitteilung auf das H.264-Video-Codierungsformat als eine Codec ("Auswahl eines gemeinsamen Video -Codec")), ruft jedoch die Implementierung eines H.264 -Encoders/Decoders von Cisco auf Codec Kurz darauf ("Open-Source unserem H.264 Codec").[7]
Ein Video -Codierungsformat diktiert nicht alle Algorithmen verwendet von a Codec Implementierung des Formats. Zum Beispiel ist ein großer Teil der Funktionsweise der Videokomprimierung normalerweise durch das Finden Ähnlichkeiten zwischen Videorahmen (Block-Matching) und dann die Komprimierung durch zuvor codierte ähnliche Subimages (z. B.,,, z. Makroblocks) und bei Bedarf kleine Unterschiede hinzufügen. Das Finden optimaler Kombinationen solcher Prädiktoren und Unterschiede ist ein Np-harte Problem,[8] Dies bedeutet, dass es praktisch unmöglich ist, eine optimale Lösung zu finden. Während das Video-Codierungs-Format eine solche Komprimierung zwischen den Frames im Bitstream-Format unterstützen muss, indem bestimmte Algorithmen nicht unnötig vorgeschrieben werden, um solche Blockanpassungen und andere Codierungsschritte zu finden von Algorithmen. In Abschnitt 0.5 der H.264 -Spezifikation heißt es beispielsweise, dass Codierungsalgorithmen nicht Teil der Spezifikation sind.[2] Die freie Auswahl des Algorithmus ermöglicht auch unterschiedliche Raum -Zeit -Komplexität Kompromisse für das gleiche Video-Codierungsformat, sodass ein Live-Feed einen schnellen, aber räumlichen Algorithmus verwenden kann, während ein einmaliger DVD Codierung für die spätere Massenproduktion kann eine lange Codierungszeit gegen platzeffiziente Codierung handeln.
Geschichte
Das Konzept von Analoges Video Komprimierung stammt aus 1929, als R.D. Kell in Großbritannien schlug das Konzept vor, nur die Teile der Szene zu übertragen, die sich von Frame-zu-Frame änderten. Das Konzept von digitales Video Komprimierung stammt aus dem Jahr 1952, wann Bell Labs Forscher B.M. Oliver und C. W. Harrison schlug die Verwendung von vor Differentialpulscode-Modulation (DPCM) in der Videocodierung. 1959 das Konzept von Zwischenrahmen Bewegungskompensation wurde vorgeschlagen von NHK Forscher Y. Taki, M. Hatori und S. Tanaka, die eine prädiktive Zwischenrahmen-Videocodierung in der vorgeschlagen hatten zeitliche Dimension.[9] 1967,, Universität von London Forscher A. H. Robinson und C. Cherry schlugen vor Kodierung der Lauflänge (Rle), a Verlustfreie Kompression Schema, um die Übertragungsbandbreite von zu verringern analoges Fernseher Signale.[10]
Die frühesten digitalen Video -Codierungsalgorithmen waren entweder für Unkomprimiertes Video oder verwendet Verlustfreie Kompressionsowohl ineffiziente als auch unpraktische Methoden für die digitale Videocodierung.[11][12] Digitales Video wurde in den 1970er Jahren eingeführt,[11] zunächst mit unkomprimiertem Pulscode-Modulation (PCM), das hoch erfordert Bitraten ungefähr 45–200 Mbit/s zum Standarddefinition (SD) Video,[11][12] das war bis zu 2.000 -mal höher als die Telekommunikation Bandbreite (bis zu 100 kbit/s) Bis in die 1990er Jahre verfügbar.[12] Ebenso unkomprimiert hochauflösend (HD) 1080p Video erfordert Bitraten, die mehr als 1 überschreiten Gbit/s, deutlich größer als die in der verfügbare Bandbreite 2000er Jahre.[13]
Bewegungskompensierte DCT
Praktisch Video-Kompression tauchte mit der Entwicklung von auf Bewegung kompensiert DCT (MC DCT) Codierung,[12][11] auch Block Motion Compensation (BMC) bezeichnet[9] oder DCT -Bewegungskompensation. Dies ist ein Hybrid -Codierungsalgorithmus,[9] das kombiniert zwei Schlüssel Datenkompression Techniken: Diskrete Cosinus -Transformation (DCT) Codierung[12][11] in dem räumliche Dimensionund prädiktiv Bewegungskompensation in dem zeitliche Dimension.[9]
DCT -Codierung ist a Verlust Blockkomprimierung Transformationskodierung Technik, die zuerst vorgeschlagen wurde von Nasir Ahmed, wer beabsichtigte es anfangs für Bildkompression, während er bei arbeitete Kansas State University 1972. Es wurde dann zu einem praktischen Bildkomprimierungsalgorithmus von Ahmed mit T. Natarajan und entwickelt K. R. Rao Bei der Universität von Texas 1973 und wurde 1974 veröffentlicht.[14][15][16]
Die andere Schlüsselentwicklung war die motion-kompensierte Hybridcodierung.[9] 1974 Ali Habibi am Universität von Südkalifornien eingeführte Hybridcodierung,[17][18][19] Dies kombiniert prädiktive Codierung mit Transformationskodierung.[9][20] Er untersuchte mehrere Transformationskodierungstechniken, einschließlich des DCT, Hadamard -Transformation, Fourier-Transformation, schräge Transformation und Karhunen-Loeve Transform.[17] Sein Algorithmus war jedoch zunächst beschränkt Intra-Frame Codierung in der räumlichen Dimension. 1975 verlängerte John A. Roese und Guner S. Robinson den Hybrid -Codierungsalgorithmus von Habibi in die zeitliche Dimension unter Verwendung der Transformationskodierung in der räumlichen Dimension und der prädiktiven Codierung in der zeitlichen Dimension, die sich entwickeln Zwischenrahmen Bewegungskompensierte Hybridcodierung.[9][21] Für die räumliche Transformationskodierung experimentierten sie mit unterschiedlichen Transformationen, einschließlich des DCT und der Schnelle Fourier-Transformation (FFT), die für sie interrahmen Hybrid-Codierer entwickeln, und stellte fest, dass der DCT aufgrund seiner reduzierten Komplexität am effizientesten ist, was die Bilddaten auf 0,25 komprimiert kann.bisschen pro Pixel Für ein Videotelephone Szene mit Bildqualität vergleichbar mit einem typischen Intra-Frame-Coder, der 2-Bit pro Pixel erfordert.[22][21]
Der DCT wurde von Wen-Hsiung Chen auf Video-Codierung angewendet,[23] der einen schnellen DCT -Algorithmus mit C.H. Smith und S. C. Fralick im Jahr 1977,[24][25] und gegründet Kompressionslabors DCT -Technologie zu kommerzialisieren.[23] 1979,, Anil K. Jain und Jaswant R. Jain entwickelte weiter mit Bewegungskompensierung der DCT-Videokomprimierung.[26][9] Dies führte dazu, dass Chen 1981 einen praktischen Videokomprimierungsalgorithmus entwickelte, der als Motion-kompensierte DCT oder adaptive Szenencodierung bezeichnet wurde.[9] Motion-kompensierte DCT wurde später zur Standardcodierungstechnik für die Videokomprimierung ab Ende der 1980er Jahre.[11][27]
Videocodierungsstandards
Der erste digitale Video -Codierungsstandard war H.120, entwickelt von der Ccitt (jetzt itu-t) 1984.[28] H.120 war in der Praxis nicht nutzbar, da seine Leistung zu schlecht war.[28] H.120 Verwendete Bewegungskompensierte DPCM-Codierung,[9] Ein verlustfreier Komprimierungsalgorithmus, der für die Videocodierung ineffizient war.[11] In den späten 1980er Jahren begannen einige Unternehmen zu experimentieren Diskrete Cosinus -Transformation (DCT) Codierung, eine viel effizientere Form der Komprimierung für die Videocodierung. Der CCITT erhielt 14 Vorschläge für DCT-basierte Videokomprimierungsformate im Gegensatz zu einem einzigen Vorschlag basierend auf Vektorquantisierung (VQ) Komprimierung. Das H.261 Der Standard wurde basierend auf der Bewegungskompensierung der DCT-Kompression entwickelt.[11][27] H.261 war der erste praktische Video -Codierungsstandard.[28] und verwendet Patente lizenziert von einer Reihe von Unternehmen, einschließlich Hitachi, Picturetel, Ntt, Bt, und Toshiba, unter anderen.[29] Seit H.261 wurde die Motion-kompensierte DCT-Komprimierung von allen wichtigen Videocodierungsstandards (einschließlich der H.26X und MPEG Formate) folgte.[11][27]
MPEG-1, entwickelt von der Filmexpertengruppe (MPEG), gefolgt von 1991 und wurde entwickelt, um zu komprimieren VHS-qualität Video.[28] Es wurde 1994 von dem Nachfolger von abgelöst MPEG-2/H.262,[28] die mit Patenten entwickelt wurde, die von einer Reihe von Unternehmen lizenziert wurden, hauptsächlich Sony, Thomson und Mitsubishi Electric.[30] MPEG-2 wurde zum Standard-Videoformat für DVD und SD Digital Television.[28] Sein Bewegungskompensierter DCT-Algorithmus konnte a erreichen Kompressionsrate von bis zu 100: 1, um die Entwicklung von zu ermöglichen digitale Medien Technologien wie Video auf Nachfrage (VOD)[12] und Hochdefinitionsfernseher (HDTV).[31] 1999 folgte es MPEG-4/H.263, was ein großer Sprung nach vorne für die Videokomprimierungstechnologie war.[28] Es verwendet Patente, die von einer Reihe von Unternehmen lizenziert wurden, hauptsächlich Mitsubishi, Hitachi und Panasonic.[32]
Das am weitesten verbreitete Video -Codierungsformat ab 2019[aktualisieren] ist H.264/MPEG-4 AVC.[33] Es wurde 2003 entwickelt und verwendet Patente, die von einer Reihe von Organisationen lizenziert wurden, hauptsächlich Panasonic, Godo Kaisha Ip Bridge und LG -Elektronik.[34] Im Gegensatz zu dem von seinen Vorgängern verwendeten Standard -DCT verwendet AVC die Ganzzahl DCT.[23][35] H.264 ist einer der Video -Codierungsstandards für Blu-ray-Discs; Alle Blu-ray-Disc-Spieler müssen in der Lage sein, H.264 zu dekodieren. Es wird auch häufig durch Streaming von Internetquellen verwendet, wie z. B. Videos von Youtube, Netflix, Vimeo, und die iTunes Store, Websoftware wie die Adobe Flash Player und Microsoft Silverlightund auch verschiedene HDTV Sendungen über terrestrisch (Standards des Advanced Television Systems Committee, Isdb-t, DVB-T oder DVB-T2), Kabel (DVB-C) und Satellit (DVB-S2).[36]
Ein Hauptproblem für viele Video -Codierungsformate war Patenteund es teuer zu verwenden, eine Patentklage zu verwenden oder möglicherweise zu riskieren U -Boot -Patente. Die Motivation hinter vielen kürzlich entworfenen Videocodierungsformaten wie z. Theora, VP8 und VP9 haben eine (libre) Video-Codierungsstandard, die nur von lizenzfreien Patenten abgedeckt werden.[37] Der Patentstatus war auch ein wichtiger Streitpunkt für die Auswahl, welche Videos der Mainstream format Internetbrowser wird in der Unterstützung unterstützen HTML5 -Video Schild.
Das Video-Codierungsformat der aktuellen Generation ist HEVC (H.265), eingeführt 2013. Während AVC den Ganzzahl DCT mit 4x4- und 8x8 -Blockgrößen verwendet, verwendet HEVC Integer DCT und Dst transformiert mit unterschiedlichen Blockgrößen zwischen 4x4 und 32x32.[38] HEVC ist stark patentiert, wobei die meisten Patente gehören Samsung Electronics, Ge, Ntt und JVC Kenwood.[39] Es wird derzeit durch das zielgerichtete Ziel in Frage gestellt AV1 Format. Ab 2019[aktualisieren], AVC ist bei weitem das am häufigsten verwendete Format für die Aufzeichnung, Komprimierung und Verteilung von Videoinhalten, die von 91% der Videoentwickler verwendet wird, gefolgt von HEVC, das von 43% der Entwickler verwendet wird.[33]
Liste der Videocodierungsstandards
Verlustlose, verlust- und unkomprimierte Video -Codierungsformate
Verbrauchervideo wird im Allgemeinen mit Verwendung komprimiert Verlust Video -Codecs, da dies zu deutlich kleineren Dateien führt als Verlustlos Kompression. Während es Videocodierungsformate gibt, die explizit entweder für verlust- oder verlustfreie Komprimierung entwickelt wurden, sind einige Video -Codierungsformate wie Dirac und H.264 Unterstützung beides.[49]
Unkomprimiertes Video Formate wie z. Reinigen Sie HDMI, ist eine Form von verlustfreiem Video, das unter bestimmten Umständen verwendet wird, z. B. beim Senden von Video an eine Anzeige über a HDMI Verbindung. Einige High-End-Kameras können auch Video direkt in diesem Format erfassen.
Intra-Frame-Videocodierungsformate
Die Interframe -Komprimierung kompliziert die Bearbeitung einer codierten Videosequenz.[50] Eine Unterklasse relativ einfacher Videocodierungsformate sind die Intra-Frame Videoformate, wie z. Dv, in dem jeder Frame des Videostreams unabhängig komprimiert wird, ohne sich auf andere Frames im Stream zu beziehen, und es wird kein Versuch unternommen, Korrelationen zwischen aufeinanderfolgenden Bildern im Laufe der Zeit für eine bessere Komprimierung zu nutzen. Ein Beispiel ist Bewegung JPEG, was einfach eine Sequenz von individuell ist JPEG-komprimierte Bilder. Dieser Ansatz ist schnell und einfach. Auf Kosten ist das codierte Video viel größer als ein Video -Codierungsformat unterstützend Zwischenrahmen Codierung.
Da die Interframe -Komprimierung Daten von einem Frame zum anderen kopiert, können die folgenden Frames nicht ordnungsgemäß rekonstruiert werden, wenn der ursprüngliche Rahmen einfach ausgeschnitten ist (oder in der Übertragung verloren). Machen Sie "Schnitte" in intraframe-komprimierten Videos währenddessen Videobearbeitung ist fast so einfach wie das Bearbeiten von unkomprimiertem Video: Man findet den Anfang und das Ende jedes Frame und kopiert einfach jeden Frame, den man behalten möchte, und verwaltet die Rahmen, die man nicht will. Ein weiterer Unterschied zwischen Intraframe und Interframe -Komprimierung besteht darin, dass bei Intraframe -Systemen jeder Frame eine ähnliche Datenmenge verwendet. In den meisten Interframe -Systemen bestimmte Rahmen (wie "wie" "Ich rahmt" in MPEG-2) dürfen Daten nicht aus anderen Rahmen kopieren, daher benötigen sie viel mehr Daten als andere Rahmen in der Nähe.[51]
Es ist möglich, einen computergestützten Video-Editor zu erstellen, der Probleme entdeckt, die verursacht werden, wenn ich Rahmen bearbeitet wird, während andere Rahmen sie benötigen. Dies hat neuere Formate wie ermöglicht wie HDV zum Bearbeiten verwendet werden. Dieser Prozess erfordert jedoch viel mehr Rechenleistung als das Bearbeiten von intraframe komprimiertem Video mit der gleichen Bildqualität. Diese Komprimierung ist jedoch nicht sehr effektiv für ein Audio -Format.[52]
Profile und Ebenen
Ein Video -Codierungsformat kann optionale Einschränkungen für codiertes Video definieren, das heißt mit dem Namen Profile und Ebenen. Es ist möglich, einen Decoder zu haben, der nur die Dekodierung einer Teilmenge von Profilen und Ebenen eines bestimmten Videoformats unterstützt, beispielsweise, um das Decoder -Programm/die Hardware zu verdanken, einfacher, einfacher oder schneller.[53]
A Profil Einschränkungen, welche Codierungstechniken zulässig sind. Zum Beispiel enthält das H.264 -Format die Profile Grundlinie, hauptsächlich und hoch (und andere). Während P-Slices (die auf der Grundlage der vorhergehenden Schnitte vorhergesagt werden können) werden in allen Profilen unterstützt, B-Slices (die auf der Grundlage sowohl vorhergehender als auch auf den folgenden Scheiben vorhergesagt werden können) werden in der unterstützt hauptsächlich und hoch Profile, aber nicht in Grundlinie.[54]
A eben ist eine Einschränkung der Parameter wie maximaler Auflösung und Datenraten.[54]
Siehe auch
- Vergleich der Behälterformate
- Datenkomprimierung#Video
- Bildschirmauflösung
- Liste der Videokomprimierungsformate
- Videodateiformat
Anmerkungen
- ^ Der Begriff Videocodierung kann in z. die Namen Erweiterte Videocodierung, Hocheffizienz Videocodierung, und Videocodierungsexperten Gruppe[1]
Verweise
- ^ Thomas Wiegand; Gary J. Sullivan; Gisle Bjontegaard & Ajay Luthra (Juli 2003). "Überblick über den H.264 / AVC -Video -Codierungsstandard" (PDF). IEEE -Transaktionen zu Schaltkreisen und Systemen für die Videotechnik.
- ^ a b "Serie H: Audiovisuelle und Multimedia -Systeme: Infrastruktur der audiovisuellen Dienste - Codierung des beweglichen Videos: Erweiterte Videocodierung für generische audiovisuelle Dienste". Itu.int. Abgerufen 6. Januar 2015.
- ^ "Titelseite". Allianz für offene Medien. Abgerufen 2016-05-23.
- ^ Adrian Grange; Peter de Rivaz & Jonathan Hunt. "VP9 Bitstream & Decodierungsprozessspezifikation" (PDF).
- ^ "Audio/Video". Die Chromprojekte. Abgerufen 2016-05-23.
- ^ "Medienformate, die von den HTML -Audio- und Videoelementen unterstützt werden", ". Mozilla. Abgerufen 2016-05-23.
- ^ Rowan Trollope (2013-10-30). "Open-Sourced H.264 entfernt Barrieren für Webrtc". Cisco. Abgerufen 2016-05-23.
- ^ "Kapitel 3: Modifizierte einen* PRUNE-Algorithmus zum Finden von K-MCSP in der Videokomprimierung" (PDF). Shodhganga.inflibnet.ac.in. Abgerufen 2015-01-06.
- ^ a b c d e f g h i j "Geschichte der Videokomprimierung". Itu-t. Joint Video Team (JVT) von ISO/IEC MPEG & ITU-T VCEG (ISO/IEC JTC1/SC29/WG11 und ITU-T SG16 Q.6). Juli 2002. S. 11, 24–9, 33, 40–1, 53–6. Abgerufen 3. November 2019.
- ^ Robinson, A. H.; Cherry, C. (1967). "Ergebnisse eines Prototyps -Fernsehbandbreitenkomprimierungsschemas". Proceedings of the IEEE. IEEE. 55 (3): 356–364. doi:10.1109/proc.1967.5493.
- ^ a b c d e f g h i Ghanbari, Mohammed (2003). Standard -Codecs: Bildkomprimierung zur erweiterten Videocodierung. Institution für Ingenieurwesen und Technologie. S. 1–2. ISBN 9780852967102.
- ^ a b c d e f Lea, William (1994). Video on Demand: Forschungspapier 94/68. House of Commons Library. Abgerufen 20. September 2019.
- ^ Lee, Jack (2005). Skalierbare kontinuierliche Medien -Streaming -Systeme: Architektur, Design, Analyse und Implementierung. John Wiley & Sons. p. 25. ISBN 9780470857649.
- ^ Ahmed, Nasir (Januar 1991). "Wie ich mich mit der diskreten Cosinus -Transformation ausgedacht habe". Digitale Signalverarbeitung. 1 (1): 4–5. doi:10.1016/1051-2004 (91) 90086-Z.
- ^ Ahmed, Nasir; Natarajan, T.; Rao, K. R. (Januar 1974), "Discrete Cosinus Transform", IEEE -Transaktionen auf Computern, C-23 (1): 90–93, doi:10.1109/t-c.1974.223784
- ^ Rao, K. R.; Yip, P. (1990), Diskrete Cosinus -Transformation: Algorithmen, Vorteile, Anwendungen, Boston: Akademische Presse, ISBN 978-0-12-580203-1
- ^ a b Habibi, Ali (1974). "Hybrid -Codierung von Bilddaten". IEEE -Transaktionen zur Kommunikation. 22 (5): 614–624. doi:10.1109/tcom.1974.1092258.
- ^ Chen, Z.; Er, T.; Jin, X.; Wu, F. (2019). "Lernen für Videokomprimierung". IEEE -Transaktionen zu Schaltkreisen und Systemen für die Videotechnik. 30 (2): 566–576. Arxiv:1804.09869. doi:10.1109/tcsvt.2019.2892608. S2CID 13743007.
- ^ Pratt, William K. (1984). Fortschritte in der Elektronik und Elektronenphysik: Ergänzung. Akademische Presse. p. 158. ISBN 9780120145720.
Bei der Einführung des Konzepts der Hybridtransformation/DPCM -Codierung trat ein signifikanter Fortschritt der Bildcodierungsmethodik auf (Habibi, 1974).
- ^ Ohm, Jens-Rainer (2015). Multimedia -Signalcodierung und Übertragung. Springer. p. 364. ISBN 9783662466919.
- ^ a b Roese, John A.; Robinson, Guner S. (30. Oktober 1975). "Kombinierte räumliche und zeitliche Codierung digitaler Bildsequenzen". Effiziente Übertragung von Bildinformationen. Internationale Gesellschaft für Optik und Photonik. 0066: 172–181. Bibcode:1975spie ... 66..172r. doi:10.1117/12.965361. S2CID 62725808.
- ^ Huang, T. S. (1981). Bildsequenzanalyse. Springer Science & Business Media. p. 29. ISBN 9783642870378.
- ^ a b c Stanković, Radomir S.; Astola, Jaakko T. (2012). "Erinnerungen an die frühen Arbeiten in DCT: Interview mit K. R. Rao" (PDF). Nachdrucke aus den frühen Tagen der Informationswissenschaften. 60. Abgerufen 13. Oktober 2019.
- ^ Chen, Wen-Hsiung; Smith, C. H.; Fralick, S. C. (September 1977). "Ein schneller Rechenalgorithmus für die diskrete Cosinus -Transformation". IEEE -Transaktionen zur Kommunikation. 25 (9): 1004–1009. doi:10.1109/tcom.1977.1093941.
- ^ "T.81-Digitale Komprimierung und Codierung von ständigen Standbildern-Anforderungen und Richtlinien" (PDF). Ccitt. September 1992. Abgerufen 12. Juli 2019.
- ^ Cianci, Philip J. (2014). High Definition Television: Die Erstellung, Entwicklung und Implementierung der HDTV -Technologie. McFarland. p. 63. ISBN 9780786487974.
- ^ a b c Li, Jian Ping (2006). Proceedings der Internationalen Computerkonferenz 2006 über Wavelet Active Media Technology und Information Processing: Chongqing, China, 29.-31. August 2006. Welt wissenschaftlich. p. 847. ISBN 9789812709998.
- ^ a b c d e f g "Die Geschichte der Videodateiformate Infografik". RealNetworks. 22. April 2012. Abgerufen 5. August 2019.
- ^ a b "ITU-T-Empfehlung deklarierte Patent (en)". Itu. Abgerufen 12. Juli 2019.
- ^ a b "MPEG-2 Patentliste" (PDF). Mpeg la. Abgerufen 7. Juli 2019.
- ^ Shishikui, Yoshiaki; Nakanishi, Hiroshi; Imaizumi, Hiroyuki (26. bis 28. Oktober 1993). "Ein HDTV-Codierungsschema mit adaptivdimensionalem DCT". Signalverarbeitung von HDTV: Verfahren des Internationalen Workshops zu HDTV '93, Ottawa, Kanada. Elsevier: 611–618. doi:10.1016/b978-0-444-81844-7.50072-3. ISBN 9781483298511.
- ^ a b c "MPEG -4 Visual - Patentliste" (PDF). Mpeg la. Abgerufen 6. Juli 2019.
- ^ a b c "Video Developer Report 2019" (PDF). Bitmovin. 2019. Abgerufen 5. November 2019.
- ^ a b "AVC/H.264 - Patentliste" (PDF). Mpeg la. Abgerufen 6. Juli 2019.
- ^ Wang, Hanli; Kwong, S.; Kok, C. (2006). "Effizienter Vorhersagealgorithmus der Ganzzahl -DCT -Koeffizienten für H.264/AVC -Optimierung". IEEE -Transaktionen zu Schaltkreisen und Systemen für die Videotechnik. 16 (4): 547–552. doi:10.1109/tcsvt.2006.871390. S2CID 2060937.
- ^ "Digital Video Broadcasting (DVB); Spezifikation für die Verwendung von Video- und Audiocodierung in DVB -Diensten, die direkt über IP geliefert werden." (PDF).
- ^ "Welt, treffe Thor - ein Projekt, um ein Lizenzgebührenfree -Video -Codec auszuhämmern.". 11. August 2015.
- ^ Thomson, Gavin; Shah, Athar (2017). "Heif und HEVC einführen" (PDF). Apple Inc. Abgerufen 5. August 2019.
- ^ a b "HEVC -Patentliste" (PDF). Mpeg la. Abgerufen 6. Juli 2019.
- ^ ISO. "Heim". Internationale Standards Orginisierung. ISO. Abgerufen 3. August 2022.
- ^ "ISO -Standards und Patente". ISO. Abgerufen 10. Juli 2019.
- ^ Davis, Andrew (13. Juni 1997). "Die Übersicht über die Empfehlung von H.320". EE mal. Abgerufen 7. November 2019.
- ^ IEEE Wescanex 97: Kommunikation, Strom und Computer: Konferenzbereitschaft. Universität Manitoba, Winnipeg, Manitoba, Kanada: Institut für Elektro- und Elektronikingenieure. 22. bis 23. Mai 1997. p. 30. ISBN 9780780341470.
H.263 ist ähnlich, aber komplexer als H.261. Es ist derzeit der am häufigsten verwendete internationale Video -Komprimierungsstandard für die Videufiseponie auf Telefonleitungen ISDN (Integrated Services Digital Network).
- ^ "Motion JPEG 2000 Teil 3". Joint Photographic Experten Group, JPEG und Joint BIEvel-Bild-Experten-Gruppe, JBIG. Archiviert von das Original am 5. Oktober 2012. Abgerufen 21. Juni 2014.
- ^ Taubman, David; Marcellin, Michael (2012). JPEG2000 Bildkomprimierung Grundlagen, Standards und Praxis: Grundlagen, Standards und Praxis Bildkomprimierung. Springer Science & Business Media. ISBN 9781461507994.
- ^ Swartz, Charles S. (2005). Digitales Kino verstehen: Ein professionelles Handbuch. Taylor & Francis. p. 147. ISBN 9780240806174.
- ^ "VC-1 Patentliste" (PDF). Mpeg la. Abgerufen 11. Juli 2019.
- ^ "HEVC Advance Patentliste". HEVC Advance. Abgerufen 6. Juli 2019.
- ^ "RFC 8761 - Video -Codec -Anforderungen und Bewertungsmethoden". DataTracker.ietf.org. Abgerufen 2022-02-10.
- ^ Bhojani, D.R. "4.1 Videokomprimierung" (PDF). Hypothese. Abgerufen 6. März 2013.
- ^ Jaiswal, R.C. (2009). Audio-Video-Engineering. Pune, Maharashtra: Nirali Prakashan. p. 3.55. ISBN 9788190639675.
- ^ "Webcodecs". www.w3.org. Abgerufen 2022-02-10.
- ^ "Video -Rendering - Ein Überblick | ScienceDirect -Themen". www.sciencedirect.com. Abgerufen 2022-02-10.
- ^ a b Jan Ozer. "Codierungsoptionen für H.264 Video". Adobe.com. Abgerufen 6. Januar 2015.