Video
Video ist ein elektronisch Medium für die Aufnahme, Kopieren, Wiedergabe, Rundfunk-und Anzeige von ziehen um visuell Medien.[1] Video wurde zuerst für entwickelt für mechanisches Fernsehen Systeme, die schnell durch ersetzt wurden durch Kathodenstrahlröhre (CRT) -Systeme, die wiederum durch ersetzt wurden durch Flachpanel Anzeigen von mehreren Arten.
Videosysteme variieren in Bildschirmauflösung, Seitenverhältnis, Aktualisierungsrate, Farbfähigkeiten und andere Eigenschaften. Es gibt analoge und digitale Varianten und können für eine Vielzahl von Medien durchgeführt werden, einschließlich Radioübertragung, Magnetband, optische Scheiben, Computerdateien, und Netzwerk -Streaming.
Geschichte
Analoges Video

Die Videotechnologie wurde zuerst für entwickelt für mechanisches Fernsehen Systeme, die schnell durch ersetzt wurden durch Kathodenstrahlröhre (CRT) Fernsehen Systeme, aber mehrere neue Technologien für Video Anzeigegeräte seitdem erfunden worden. Video war ursprünglich ausschließlich a live Technologie. Charles Ginsburg führte an Ampex Forschungsteam entwickelt eines der ersten praktischen Videobandrekorder (VTR). 1951 erfasste der erste VTR Live -Bilder von Fernsehkameras durch das Schreiben des elektrischen Signals der Kamera auf Magnet videotape.
Videorekorder wurden 1956 für 50.000 US-Dollar verkauft, und Videobänder kosten 300 US-Dollar pro einstündiger Rolle.[2] Die Preise gingen jedoch im Laufe der Jahre allmählich zurück. 1971 begann Sony zu verkaufen Video Kassetten Rekorder (VCR) Decks und Bänder in die Verbrauchermarkt.[3]
Digitales Video
Digitales Video ist in der Lage, eine höhere Qualität und letztendlich viel niedrigere Kosten als frühere analoge Technologie. Nach der Erfindung der DVD 1997 und später die Blu-Ray Disc Im Jahr 2006 sank der Verkauf von Videoband und Aufnahmeausrüstung. Fortschritte in der Computer Technologie ermöglicht sogar kostengünstig persönliche Computer und Smartphones Digitales Video erfassen, speichern, bearbeiten und übertragen, um die Kosten von weiter zu senken Video Produktion, um Programmierer und Rundfunkveranstalter zu ermöglichen, zu dem Umzug Tapeless Produktion. Das Aufkommen von digitaler Rundfunk und die nachfolgende Digitalfernseher Übergang ist dabei, analoges Video zum Status von a zu bringen Legacy -Technologie In den meisten Teilen der Welt. Die Entwicklung hochauflösender Videokameras mit verbesserter Dynamikbereich und Farbspielezusammen mit der Einführung von hochdynamischer Reichweite digitales Zwischenprodukt Datenformate mit verbesserten Farbtiefe, hat dazu geführt, dass die digitale Videotechnologie mit der Filmtechnologie konvergiert. Seit 2013,[aktualisieren] die Verwendung von Digitalkameras in Hollywood hat Films übertroffen.[4]
Eigenschaften von Videoströmen
Anzahl der Frames pro Sekunde
BildrateDie Anzahl der stills Bilder pro Zeiteinheit des Videos reicht von sechs oder acht Bildern pro Sekunde (Rahmen/s) für alte mechanische Kameras bis 120 oder mehr Frames pro Sekunde für neue professionelle Kameras. KUMPEL Standards (Europa, Asien, Australien usw.) und Secam (Frankreich, Russland, Teile Afrikas usw.) Geben Sie 25 Frame/s an, während Ntsc Standards (USA, Kanada, Japan usw.) geben 29,97 Rahmen/s an.[5] Der Film wird mit einer langsameren Bildrate von 24 Frames pro Sekunde gedreht, was den Prozess der Übertragung eines filmischen Films auf Video leicht erschwert. Die Mindestrahmenrate, um eine komfortable Illusion von a zu erreichen bewegendes Bild ist ungefähr sechzehn Frames pro Sekunde.[6]
Interlaced gegen progressiv
Video kann sein verschachtelt oder progressiv. In progressiven Scan -Systemen aktualisiert jeder Aktualisierungszeitraum alle Scan -Zeilen in jedem Frame nacheinander. Bei der Anzeige eines nativ progressiven Sendung oder eines aufgezeichneten Signals ist das Ergebnis eine optimale räumliche Auflösung sowohl der stationären als auch der beweglichen Teile des Bildes. Das Interlacing wurde erfunden, um das Flackern frühzeitig zu reduzieren mechanisch und Crt Video wird angezeigt, ohne die Anzahl der vollständigen Vervollständigungen zu erhöhen Bilder pro Sekunde. Interlacing behält Details bei, während er niedriger ist Bandbreite im Vergleich zum progressiven Scannen.
In Interlaced Video die Horizontale Scanlinien von jedem vollständigen Rahmen werden so behandelt, als ob sie nummeriert und als zwei erfasst werden Felder: ein ungerade Feld (oberes Feld) bestehend aus den ungeraden Zeilen und einem sogar Feld (unteres Feld) bestehend aus den geraden Linien. Analoge Anzeiggeräte reproduzieren jeden Frame und verdoppeln die Bildrate effektiv, was zu einem wahrnehmbaren Gesamtflackern geht. Wenn das Bild -Erfassungsgerät die Felder nacheinander erfasst, anstatt nach dem Aufnehmen einen vollständigen Rahmen aufzuteilen Wenn Sie auf einem Interlaced CRT -Display betrachtet werden.
NTSC, PAL und SECAM sind miteinander verbundene Formate. Abkürzte Videoauflösungsspezifikationen enthalten häufig eine i Um Interlacing anzuzeigen. Zum Beispiel wird das Pal -Video -Format oft als beschrieben als 576i50, wo 576 Gibt die Gesamtzahl der horizontalen Scan -Linien an, i zeigt Interlacing an und 50 Zeigt 50 Felder (halbe Rahmen) pro Sekunde an.
Bei der Anzeige eines nativ -Verzögerungssignals auf einem progressiven Scan -Gerät wird die räumliche Auflösung durch einfaches Abbau durch einfache Zeilenverdoppelung- Artifakte wie Flackern oder "Kamm" -Effekte in beweglichen Teilen des Bildes, die erscheinen, es sei denn, eine spezielle Signalverarbeitung beseitigt sie. Ein Verfahren als bekannt als als Deinterlasieren Kann die Anzeige eines Interlaced -Videosignals von einer analogen, DVD- oder Satellitenquelle auf einem progressiven Scan -Gerät wie einem optimieren LCD -Fernseher, Digital Beamer oder Plasma -Panel. Deeinterlacing kann jedoch nicht produzieren Videoqualität Das entspricht dem echten progressiven Scan -Quellmaterial.
Seitenverhältnis

Seitenverhältnis beschreibt die proportionale Beziehung zwischen der Breite und der Höhe von Videobildschirmen und Videobildelementen. Alle beliebten Videoformate sind rechteckigund kann auch durch ein Verhältnis zwischen Breite und Höhe beschrieben werden. Die Verhältnisbreite zu Höhe für einen herkömmlichen Fernsehbildschirm beträgt 4: 3 oder ca. 1,33: 1. High Definition -Fernseher verwenden ein Seitenverhältnis von 16: 9 oder etwa 1,78: 1. Das Seitenverhältnis eines vollständigen 35 -mm -Filmrahmens mit Soundtrack (auch bekannt als der Akademieverhältnis) ist 1,375: 1.
Pixel auf Computermonitoren sind normalerweise quadratisch, aber Pixel verwendet in digitales Video häufig nicht quadratische Seitenverhältnisse haben, wie sie bei den PAL- und NTSC-Varianten der PAL und NTSC verwendet werden CCIR 601 Digitaler Videostandard und die entsprechenden anamorphen Breitbildformate. Das 720 x 480 Pixel Raster verwendet dünne Pixel auf einem Seitenverhältnis von 4: 3 und Fettpixeln auf einem 16: 9 -Display.
Die Popularität des Betrachtens von Videos auf Mobiltelefonen hat zum Wachstum von geführt vertikales Video. Mary Meeker, Partnerin bei Silicon Valley Venture Capital Firm Kleiner Perkins Caufield & Byers, hob das Wachstum der vertikalen Video -Anzeige in ihrem Internet -Trends -Bericht 2015 hervor - von 5% der Videoansicht im Jahr 2010 auf 29% im Jahr 2015. Vertikale Videoanzeigen wie SnapchatEs werden in ihren gesamten neunmal häufiger angesehen als Landschaftsvideoanzeigen.[7]
Farbmodell und Tiefe

Das Farbmodell Die Video -Farbdarstellung und die Karten kodierten Farbwerte für sichtbare Farben, die vom System reproduziert wurden. Es gibt mehrere solche Darstellungen in der allgemeinen Verwendung: normalerweise Yiq wird im NTSC -Fernsehen verwendet, Yuv wird im PAL -Fernsehen verwendet, Ydbdr wird von Secam Television und verwendet YCBCR wird für digitales Video verwendet.
Die Anzahl der unterschiedlichen Farben, die ein Pixel darstellen kann Farbtiefe ausgedrückt in der Anzahl der Bits pro Pixel. Ein häufiger Weg, um die Datenmenge zu reduzieren, die in digitalem Video erforderlich ist, ist durch Chroma -Subsampling (z. B. 4: 4: 4, 4: 2: 2 usw.). Da das menschliche Auge weniger empfindlich gegenüber Details in Farbe als Helligkeit ist, werden die Luminanzdaten für alle Pixel beibehalten, während die Chrominanzdaten für eine Reihe von Pixeln in einem Block gemittelt werden und für alle der gleiche Wert verwendet wird. Dies führt beispielsweise zu einer Verringerung der Chrominanzdaten um 50% unter Verwendung von 2-Pixel-Blöcken (4: 2: 2) oder 75% unter Verwendung von 4-Pixel-Blöcken (4: 2: 0). Dieser Prozess verringert nicht die Anzahl der möglichen Farbwerte, die angezeigt werden können, aber er verringert die Anzahl der unterschiedlichen Punkte, an denen sich die Farbe ändert.
Videoqualität
Videoqualität kann mit formalen Metriken gemessen werden wie Peak-Signal-Rausch-Verhältnis (Psnr) oder durch Subjektive Videoqualität Bewertung mit Expertenbeobachtung. Viele subjektive Videoqualitätsmethoden werden in der beschrieben Itu-t Empfehlung BT.500. Eine der standardisierten Methoden ist die Doppelstimulus -Beeinträchtigungskala (DSIS). In DSIS betrachtet jeder Experte eine unbeeinträchtigt Referenzvideo gefolgt von einem beeinträchtigte Version desselben Videos. Der Experte bewertet dann die beeinträchtigte Videos mit einer Skala, die von "Beeinträchtigungen sind nicht wahrnehmbar" bis "Beeinträchtigungen sind sehr nervig".
Videokomprimierungsmethode (nur digital)
Unkomprimiertes Video liefert maximale Qualität, aber sehr hoch Datenrate. Eine Vielzahl von Methoden wird verwendet, um Videostreams zu komprimieren, wobei die effektivsten mit a Gruppe von Bildern (GOP), um räumliche und zeitliche Reduzierung zu reduzieren Redundanz. Im Großen und Ganzen wird die räumliche Redundanz reduziert, indem Unterschiede zwischen Teilen eines einzelnen Rahmens registriert werden. Diese Aufgabe ist bekannt als Intraframe Kompression und ist eng verwandt mit Bildkompression. Ebenso kann die zeitliche Redundanz durch die Registrierung von Unterschieden zwischen Frames reduziert werden. Diese Aufgabe ist bekannt als Interframe Kompression, einschließlich Bewegungskompensation und andere Techniken. Die häufigsten modernen Kompressionsstandards sind MPEG-2, benutzt für DVD, Blu-Ray und Satelliten Fernsehen, und MPEG-4, benutzt für Avchd, Mobiltelefone (3GP) und Internet.
Stereoskopisch
Stereoskopisch Video für 3D -Film und andere Anwendungen können mit verschiedenen Methoden angezeigt werden:
- Zwei Kanäle: ein rechter Kanal für das rechte Auge und ein linker Kanal für das linke Auge. Beide Kanäle können gleichzeitig mit Verwendung betrachtet werden Lichtpolarisierungsfilter 90 Grad Off-Achse voneinander bei zwei Videoprojektoren. Diese separat polarisierten Kanäle werden mit Brillen mit passenden Polarisationsfiltern angesehen.
- Anaglyphe 3d wobei ein Kanal mit zwei farbcodierten Schichten überlagert wird. Diese Technik für die linke und rechte Ebene wird gelegentlich für Netzwerkübertragung oder aktuelle Anaglyphen -Releases von 3D -Filmen auf DVD verwendet. Einfache rote/cyan -Plastikgläser bieten die Mittel, um die Bilder diskret zu sehen, um eine stereoskopische Ansicht des Inhalts zu bilden.
- Ein Kanal mit abwechselnden linken und rechten Frames für das entsprechende Auge mit Verwendung LCD -Shutterbrille Das synchronisieren mit dem Video, um das Bild abwechselnd für jedes Auge zu blockieren, sodass das entsprechende Auge den richtigen Rahmen sieht. Diese Methode ist am häufigsten auf dem Computer vorhanden virtuelle Realität Anwendungen wie in a Automatische virtuelle Höhle -Umgebungreduziert aber eine effektive Video -Frameration um den Faktor zwei.
Formate
Verschiedene Videoübertragungen und Speicherschichten bieten jeweils ihre eigenen Formate zur Auswahl.
Für die Übertragung gibt es ein physikalisches Stecker und ein Signalprotokoll (siehe Liste der Videoanschlüsse). Eine bestimmte physische Verbindung kann bestimmt tragen Anzeigestandards die eine bestimmte Aktualisierungsrate festlegen, Bildschirmauflösung, und Farbraum.
Viele analog und digital Aufnahmeformate sind verwendet und digital Videoclips kann auch auf einem gespeichert werden Computerdateisystem als Dateien, die ihre eigenen Formate haben. Zusätzlich zu dem von der verwendeten physikalischen Format Datenspeichergerät oder Übertragungsmedium, der Strom der gesendeten Einsen und Nullen müssen in einem bestimmten Digitalen sein Video -Codierungsformatvon denen eine Zahl verfügbar ist.
Analoges Video
Analoges Video ist ein Videosignal, das durch einen oder mehrere dargestellt wird Analoge Signale. Zu den analogen Farbvideosignalen gehören Luminanz, Helligkeit (y) und Chrominanz (C). Wenn unter anderem in einem Kanal kombiniert, wie es der Fall ist Ntsc, KUMPEL und Secam es wird genannt zusammengesetzter Video. Analoges Video kann in separaten Kanälen wie in zwei Kanals durchgeführt werden S-video (YC) und Mehrkanal Komponentenvideo Formate.
Analoges Video wird sowohl im Verbraucher als auch im Profi verwendet Fernsehproduktion Anwendungen.
Zusammengesetzter Video
(Einzelkanal RCA)S-video
(2-Kanal YC)Komponentenvideo
(3-Kanal Ypbpr))
Digitales Video
Digitales Video Signalformate wurden angewendet, einschließlich Serielle digitale Schnittstelle (SDI), Digitale visuelle Schnittstelle (DVI), Hochdefinitions-Multimedia-Schnittstelle (HDMI) und DisplayPort Schnittstelle.
Transportmittel
Video kann auf verschiedene Weise übertragen oder transportiert werden, einschließlich Wireless terrestrisches Fernsehen Als analoges oder digitales Signal, Koaxialkabel in einem geschlossenen Kreislaufsystem als analoges Signal. Rundfunk- oder Studiokameras verwenden ein einzelnes oder duales Koaxialkabelsystem mit Serielle digitale Schnittstelle (SDI). Sehen Liste der Videoanschlüsse Informationen zu physischen Anschlüssen und verwandten Signalstandards.
Das Video kann beispielsweise über Netzwerke und andere gemeinsam genutzte digitale Kommunikationsverbindungen transportiert werden. MPEG -Transportstrom, SMPTE 2022 und SMPTE 2110.
Anzeigestandards
Digitaler Fernseher
Digitaler Fernseher Sendungen verwenden die MPEG-2 und andere Videocodierungsformate und beinhalten:
- Atsc - Vereinigte Staaten, Kanada, Mexiko, Korea
- Digitale Video Übertragung (DVB) - Europa
- ISDB – Japan
- ISDB-TB -verwendet das MPEG-4-Video-Codierungsformat-- Brasilien, Argentinien
- Digital Multimedia Broadcasting (DMB) - Korea
Analoges Fernseher
Analoges Fernseher Sendungsstandards umfassen:
- Feldsequentieller Farbsystem (FCS) - US, Russland; obsolet
- Multiplexierte analoge Komponenten (MAC) - Europa; obsolet
- Mehrere sub-nyquist-Stichprobencodierung (Muse) - Japan
- Ntsc – Vereinigte Staaten, Kanada, Japan
- KUMPEL – Europa, Asien, Ozeanien
- RS-343 (Militär)
- Secam – Frankreich, früher, vormalig Sovietunion, Zentralafrika
- CCIR -System a
- CCIR -System b
- CCIR -System g
- CCIR -System h
- CCIR -System i
- CCIR -System m
Ein analoges Videoformat besteht aus mehr Informationen als dem sichtbaren Inhalt des Rahmens. Vor und nach dem Bild sind Linien und Pixel, die Metadaten- und Synchronisationsinformationen enthalten. Dieser umgebende Rand ist als ein bekannt Blankungsintervall oder Blanking Region; das horizontale und vertikale Veranda und hintere Veranda sind die Bausteine des Blankenintervalls.
Computeranzeigen
Computeranzeigestandards Geben Sie eine Kombination aus Seitenverhältnis, Anzeigegröße, Anzeigeauflösung, Farbtiefe und Aktualisierungsrate an. EIN Liste der gemeinsamen Auflösungen ist verfügbar.
Aufzeichnung

Das frühe Fernsehen war fast ausschließlich ein Live -Medium mit einigen Programmen, die zur Verteilung historischer Zwecke verwendet wurden Kinescope. Das Analog Videokassettenrekorder wurde 1951 kommerziell eingeführt. In ungefährer chronologischer Reihenfolge. Alle aufgeführten Formate wurden an Sender, Videoproduzenten oder Verbraucher verkauft und verwendet. oder waren historisch wichtig (Vera).
- 2 "Quadruplex -Videoband (Ampex 1956)
- Vera (BBC Versuchsformat ca. 1958)
- 1 "Geben Sie ein Videoband ein (Ampex)
- 1/2 "EIAJ (1969)
- U-Matic 3/4 "(Sony)
- 1/2 "Pattrivision (Avco)
- VCR, VCR-LP, SVR
- 1 "Typ B Videoape (Robert Bosch GmbH)
- 1 "Typ -C -Videoband (Ampex, Marconi und Sony)
- Betamax (Sony)
- VHS (JVC)
- Video 2000 (Philips)
- 2 "Helical Scan -Videoband (IVC)
- 1/4 "CVC (Funai)
- Betacam (Sony)
- HDVs (Sony)[8]
- Betacam sp (Sony)
- Video8 (Sony) (1986)
- S-VHS (JVC) (1987)
- VHS-C (JVC)
- Pixelvision (Fisher Price)
- Unihi 1/2 "HD (Sony)[8]
- Hi8 (Sony) (Mitte der 1990er Jahre)
- W-VHS (JVC) (1994)
Digitale Videobandrekorder boten eine verbesserte Qualität im Vergleich zu analogen Rekordern.
Optische Speichermedien boten eine Alternative, insbesondere in Verbraucheranwendungen, zu sperrigen Bandformaten.
- Blu-Ray Disc (Sony)
- China Blue High Definition Disc (CBHD)
- DVD (war Super -Dichte -Scheibe, DVD -Forum)
- Professionelle Scheibe
- Universal Media Disc (UMD) (Sony)
- Verbesserte vielseitige Scheibe (EVD, von der chinesischen Regierung gesponserte)
- HD DVD (NEC und Toshiba)
- HD-VMD
- Kapazität Elektronische Scheibe
- Laserdisc (MCA und Philips)
- Fernseh -Elektronikscheibe (Teldec und Telefunkeln)
- VHD (JVC)
Digitale Codierungsformate
Siehe auch
- Allgemein
- Videoformat
- Videoverbrauch
- Videobildschirm -Aufzeichnungssoftware
Verweise
- ^ "Video - Hidef Audio und Video". hideFnj.com. Archiviert vom Original am 2017-05-14. Abgerufen 2017-03-30.
- ^ Elen, Richard. "TV -Technologie 10. Roll VTR". Archiviert vom Original am 2011-10-27.
- ^ "Vintage UMatic VCR-Sony VO-1600. The Worlds First VCR. 1971". Rückspulenmuseum. Archiviert Aus dem Original am 22. Februar 2014. Abgerufen 21. Februar 2014.
- ^ Folgt Stephen (11. Februar 2019). "Die Verwendung von digitalem vs Zelluloidfilm auf Hollywood -Filmen". Abgerufen 2022-02-19.
- ^ Soseman, Ned. "Was ist der Unterschied zwischen 59,94 fps und 60 fps?". Archiviert von das Original am 29. Juni 2017. Abgerufen 12. Juli 2017.
- ^ Watson, Andrew B. (1986). "Zeitliche Empfindlichkeit" (PDF). Sensorische Prozesse und Wahrnehmung. Archiviert von das Original (PDF) am 2016-03-08.
- ^ Constine, Josh (27. Mai 2015). "Die wichtigsten Einblicke aus dem Internet -Trends -Bericht von Mary Meeker 2015". Techcrunch. Archiviert Aus dem Original am 4. August 2015. Abgerufen 6. August, 2015.
- ^ a b "Sony HD Formats Guide (2008)" (PDF). pro.sonony.com. Archiviert (PDF) Aus dem Original am 6. März 2015. Abgerufen 16. November 2014.