Multi-Exposition HDR-Erfassung

Tone kartierte hochdynamische Reichweite (HDR) Bild der St. Kentigern's Church in Blackpool, Lancashire, England

Im Fotografie und Videografie, Multi-Exposition HDR-Erfassung ist eine Technik, die erfasst werden kann Hoher Dynamikbereich (HDR) Bilder durch Aufnahme und Kombinieren mehrere verschiedene Expositionen des gleichen Themas.

Von Kameras aufgenommene Bilder ermöglichen die Differenzierung nur innerhalb eines bestimmten Bereichs von Helligkeit. Außerhalb dieser Reichweite sind keine Merkmale sichtbar, da in den helleren Bereichen alles rein weiß und in den dunkleren Bereichen rein schwarz ist. Das Verhältnis zwischen dem Maximum und dem Minimum des Tonwerts in einem Bild wird als die bezeichnet Dynamikbereich. Durch die Kombination verschiedener, engerer Reichweite führt die Expositionen zu einem Bild mit einem größeren Dynamikbereich als möglich, indem eine einzige Belichtung möglich ist. HDR ist nützlich, um viele reale Szenen aufzunehmen, die ein sehr helles, direktes Sonnenlicht bis zu extremem Schatten oder sehr schwach enthalten Nebel.[1][2][3][4]

Der Begriff "HDR" kann sich auch auf den Gesamtprozess des Aufnehmens von HDR -Bildern aus mehreren Expositionen beziehen. Viele Smartphones verfügen über eine integrierte HDR-Funktion, die den Prozess automatisiert für die Fotoaufnahme durchführt. Die Technik kann auch verwendet werden, um Videos zu erfassen, indem mehrere Expositionen für jeden Frame des Videos aufgenommen und kombiniert werden.

Aufgrund der Einschränkungen des Druckens und AnzeigekontrastDer erweiterte Leuchtkraftbereich von Eingangs -HDR -Bildern muss komprimiert werden, um sie sichtbar zu machen. Die Methode zum Rendern eines Bildes mit hohem Dynamikbereich in einem Standardmonitor oder Druckgerät wird aufgerufen Tonzuordnung. Diese Methode reduziert den Gesamtkontrast eines HDR -Bildes, um die Anzeige auf Geräten oder Ausdrücken mit niedrigerem Dynamikbereich zu erleichtern. Es kann angewendet werden, um Bilder mit konserviertem lokalem Kontrast oder übertriebener lokaler Kontrast für künstlerische Effekte zu produzieren.

In der Fotografie wird der Dynamikbereich in gemessen Belichtungswert (Ev) Unterschiede, bekannt als Stopps.

Vorteile

Ein Ziel von HDR ist es, einen ähnlichen Bereich von zu präsentieren Luminanz zu dem erlebt durch den Menschen visuelles System. Das menschliche Auge durch nichtlineare Reaktion, Anpassung des Irisund andere Methoden passen sich ständig an eine breite Palette an Luminanz an, die in der Umwelt vorhanden ist. Das Gehirn interpretiert diese Informationen kontinuierlich, damit ein Betrachter unter einer Vielzahl von Lichtbedingungen sehen kann.

Dynamische Bereiche gemeinsamer Geräte
Gerät Stopps Kontrastverhältnis
Einzelbelastung
Menschliches Auge: Enge Objekte 07.5 00150 ... 200
Menschliches Auge: 4 ° Winkeltrennung 13 08000 ... 10000
Menschliches Auge (statisch) 10 ... 14[5] 01000 ... 15000
Negativer Film (Kodak Vision3)) 13[6] 08000
1/1,7 "Kamera (Nikon Coolpix P340) 11.9[7] 03800
1 "Kamera (Canon Powershot G7 x)) 12.7[7] 06600
Vier Drittel DSLR-Kamera (Panasonic Lumix DC-GH5)) 13.0[7] 08200
APS DSLR -Kamera (Nikon D7200)) 14.6[7] 24800
DSLR-Kamera Vollframe (Nikon D810)) 14.8[7] 28500

Die meisten Kameras können diesen Expositionswerte innerhalb einer einzigen Belichtung aufgrund ihres niedrigen Dynamikbereichs nicht bereitstellen. Standardfotografische und Bildtechniken ermöglichen die Differenzierung nur innerhalb eines bestimmten Bereichs der Helligkeit. Außerhalb dieses Bereichs sind keine Merkmale sichtbar, da es in hellen Bereichen keine Differenzierung gibt, da alles nur rein weiß erscheint und es in dunkleren Bereichen keine Differenzierung gibt, da alles rein schwarz erscheint. Nicht-HDR-Kameras machen Fotos mit einem begrenzten Expositionsbereich, der als Low Dynamic Range (LDR) bezeichnet wird, was zum Detailverlust in den Highlights führt oder Schatten.

Multi-Exposition HDR wird in der Fotografie und auch in extremen Dynamikbereichsanwendungen wie Schweißen oder Automobilarbeit verwendet. In Überwachungskameras ist der Begriff anstelle von HDR "Wide Dynamic Range".

Modern CMOs Bildsensoren kann oft einen hohen dynamischen Bereich von einer einzigen Belichtung erfassen[8] Reduzierung der Notwendigkeit, Multi-Exposition HDR durchzuführen. Negative und Folien von Farbfilmen bestehen aus mehreren Filmschichten, die unterschiedlich auf Licht reagieren. Originalfilm (insbesondere Negative gegen Transparents oder Folien) bieten einen sehr hohen Dynamikbereich (in der Reihenfolge von 8 für Negative und 4 bis 4,5 für Folien).

Verfahren

Hochdynamische Fotos werden im Allgemeinen durch Aufnehmen mehrerer Standard-Expositionsbilder erreicht, häufig verwendet Expositionsklammerund dann später sie verschmelzen in ein einzelnes HDR -Bild, normalerweise innerhalb eines Foto-Manipulation Programm.

Erfassen mehrerer Bilder (Belichtungsklammer)

Jede Kamera, die eine manuelle Belichtungsregelung ermöglicht Automatische Belichtungsklammer (AEB) ist weitaus besser geeignet. Bilder von Filmkameras sind weniger geeignet, da sie häufig zuerst digitalisiert werden müssen, damit sie später mit Software -HDR -Methoden verarbeitet werden können.

Eine Erhöhung eines EV oder eines Stopps stellt eine Verdoppelung der Lichtmenge dar. Umgekehrt stellt eine Abnahme eines EV eine Halbierung der Lichtmenge dar. Daher erfordert das Aufdecken von Details im dunkelsten Schatten hoch ExpositionenDas Aufrechterhalten von Details in sehr hellen Situationen erfordert jedoch sehr niedrige Expositionen.

In den meisten Bildgebungsvorrichtungen, die auf das aktive Element angewendete Lichtbelastung angewendet werden (sei es Film oder CCD) kann auf zwei Arten verändert werden: entweder erhöht/verringert die Größe der Öffnung oder durch Erhöhen/Verringern der Zeit jeder Exposition. Die Expositionsschwankung in einem HDR -Set wird nur durch Veränderung der Expositionszeit und nicht durch die Aperturgröße durchgeführt. Dies liegt daran, dass die Veränderung der Aperturgröße auch die beeinflusst Tiefenschärfe Und so wären die resultierenden Mehrfachbilder sehr unterschiedlich und verhindern ihre endgültige Kombination zu einem einzelnen HDR -Bild.

Eine wichtige Einschränkung für die HDR-Fotografie mit mehreren Expositionen besteht darin, dass jede Bewegung zwischen aufeinanderfolgenden Bildern den Erfolg bei der Kombination von Anschlüssen beeinträchtigt oder verhindert. Auch wenn man mehrere Bilder (oft drei oder fünf und manchmal mehr) erstellen muss, um das gewünschte zu erhalten Luminanz Reichweite, ein solch eine vollständige Reihe von Bildern braucht zusätzliche Zeit. Fotografen haben Berechnungsmethoden und -techniken entwickelt, um diese Probleme teilweise zu überwinden, aber die Verwendung eines robusten Stativs wird zumindest empfohlen.

Einige Kameras haben eine Automatischauslagerung (AEB) Feature mit einem weitaus größeren Dynamikbereich als andere, von 0,6 am unteren Ende bis 18 EV in Top -professionellen Kameras ab 2020.[9]

Zusammenführen der Bilder in ein HDR -Bild

Speicherung

Informationen, die in Bildern mit hohem Dynamikstand gespeichert sind, entsprechen typischerweise den physikalischen Werten von Luminanz oder Glanz Das kann in der realen Welt beobachtet werden. Dies unterscheidet sich von traditionell Digitale Bilder, die Farben darstellen, wie sie auf einem Monitor oder einem Papierdruck erscheinen sollten. Daher werden HDR -Bildformate oft genannt szenenbezogenim Gegensatz zu traditionellen digitalen Bildern, die sind Gerätsbezogen oder Ausgabe. Darüber hinaus werden traditionelle Bilder normalerweise für den Menschen kodiert visuelles System (Maximierung der visuellen Informationen, die in der festen Anzahl von Bits gespeichert sind), die normalerweise aufgerufen werden Gamma -Codierung oder Gamma-Korrektur. Die für HDR -Bilder gespeicherten Werte sind oft Gamma komprimiert (Machtgesetz) oder logarithmisch codiert, oder Schwimmpunkt lineare Werte seitdem Fixpunkt Lineare Kodierungen werden über höhere dynamische Bereiche zunehmend ineffizienter.[10][11][12]

HDR -Bilder verwenden oft keine festen Bereiche pro Farbe Kanal- Andere als herkömmliche Bilder - um viele weitere Farben über einen viel breiteren Dynamikbereich (mehrere Kanäle) darzustellen. Zu diesem Zweck verwenden sie keine Ganzzahlwerte, um die einzelnen Farbkanäle darzustellen (z. B. 0–255 in einem 8 -Bit -pro -Pixel -Intervall für Rot, Grün und Blau), sondern stattdessen eine schwimmende Punktdarstellung. Gemeinsam sind 16-Bit (halbe Präzision) oder 32-Bit Schwimmpunkt Zahlen zur Darstellung von HDR -Pixeln. Wenn jedoch die angemessenen Übertragungsfunktion wird verwendet, HDR -Pixel für einige Anwendungen können mit a dargestellt werden Farbtiefe Das hat nur 10–12 Bit für Luminanz und 8 Bit für Chrominanz ohne sichtbare Quantisierungsartefakte einzulegen.[10][13]

Tonzuordnung

Die Tonzuordnung reduziert den Dynamikbereich oder das Kontrastverhältnis eines gesamten Bildes, während der lokalisierte Kontrast beibehält. Obwohl es sich um einen eindeutigen Betrieb handelt, wird die Tonzuordnung häufig von demselben Softwarepaket auf HDR -Dateien angewendet.

Die Tonzuordnung ist häufig erforderlich, da der dynamische Bereich der elektronischen Darstellung, die die Anzeige empfangen kann, häufig niedriger ist als der Dynamikbereich des erfassten Bildes.[8] HDR zeigt an kann ein höheres Dynamikbereichssignal empfangen als SDR -AnzeigenReduzierung der Notwendigkeit einer Tonzuordnung.

Auf den PC-, MAC- und Linux -Plattformen sind mehrere Softwareanwendungen verfügbar, um HDR -Dateien und töne zugeordnete Bilder zu produzieren. Bemerkenswerte Titel sind:

Eingebauter Prozess

Mit zunehmender Beliebtheit dieser Bildgebungsmethode bieten mehrere Kamerathersteller jetzt ein integrierte Multi-Exposition-HDR-Funktionen an. Zum Beispiel die Pentax K-7 DSLR verfügt über einen HDR -Modus, in dem 3 oder 5 Schüsse und Ausgaben (nur) ein Tonkarton in einer JPEG -Datei abgebildet werden.[14] Das Canon PowerShot G12, Canon Powershot S95, und Canon Powershot S100 Bieten Sie ähnliche Funktionen in einem kleineren Format an.[15] Der Ansatz von Nikon wird als "aktive D-Licht" bezeichnet, die die Expositionsausgleich und die Tonzuordnung auf das Bild anwenden, da es aus dem Sensor stammt, wobei der Schwerpunkt auf der Erzeugung eines realistischen Effekts liegt.[16]

Etwas Smartphones Stellen Sie HDR -Modi an und die meisten Mobile Plattformen Haben Sie Apps, die ein Multi-Exposition-HDR-Bild bieten.[17]

Einige der Sensoren auf modernen Telefonen und Kameras können sogar die beiden Bilder auf dem Chip kombinieren, sodass dem Benutzer ein breiterer Dynamikbereich ohne In-Pixel-Komprimierung direkt zur Anzeige oder Verarbeitung verfügbar ist.

Arten von HDR

HDR kann über verschiedene Methoden erfolgen:

  • DOL: Digitale Überlappung[18]
  • BME: Multiplexed Exposition[18]
  • KMU: Räumlich multiplexierte Exposition[18]
  • QBC: Quad Bayer -Codierung[19][unzuverlässige Quelle?]

Beispiele

Dies ist ein Beispiel für vier Standardbilder für Dynamikbereiche, die kombiniert werden, um drei zu erzeugen Ton zugeordnet Bilder:

Exponierte Bilder:
Ergebnisse nach der Verarbeitung:

Dies ist ein Beispiel für eine Szene mit einem sehr weiten dynamischen Bereich:

Exponierte Bilder:
Ergebnisse nach der Verarbeitung:

Resultierende Anomalien

Dieses von einem Smartphone erfasste Bild profitierte von der HDR-Capture mit mehreren Exposition, indem sie sowohl das schattierte Gras als auch den hellen Himmel korrekt freigelegt hat, aber der sich schnell bewegende Golfschwung führte zu einem "Ghost" -Club.

Ein sich schnell bewegendes Subjekt (oder eine instationäre Kamera) führt zu einem "Ghost" -Effekt oder einem gestaffelten Blur-Strobe-Effekt, da die zusammengeführten Bilder nicht identisch sind, sondern dass jedes das bewegende Thema zu einem anderen Zeitpunkt erfasst. mit seiner Position geändert. Plötzliche Änderungen der Beleuchtungsbedingungen (Strohmarke LED -Licht) können auch die gewünschten Ergebnisse beeinträchtigen, indem sie eine oder mehrere HDR -Schichten erzeugen, die die von einem automatisierte HDR -System erwartete Leuchtkraft haben, obwohl man möglicherweise noch ein angemessenes HDR -Bild erzeugen kann Manuell in der Software, indem die Bildschichten in der Reihenfolge ihrer tatsächlichen Leuchtkraft verschmolzen werden.

Aufgrund der Nichtlinearität einiger Sensoren kann Bildartefakte üblich sein.

Kameraeigenschaften wie z. Gamma -Kurven, Sensorauflösung, Rauschen, photometrisch Kalibrierung und Farbkalibrierung Auswirkungen resultierender hochdynamischer Bilder.[20]

Videografie

Beispiel für HDR Zeitraffer Video

Obwohl es nicht so etabliert ist wie für die Erfassung der Fotografie, ist es auch möglich, mehrere Bilder für jeden Frame eines Videos zu erfassen und zu kombinieren, um den von der Kamera erfassten dynamischen Bereich zu erhöhen.[21] Dies kann über mehrere Methoden erfolgen:

  • Ein ... Erstellen Zeitraffer von individuellen Bildern, die über die Multi-Exposition-HDR-Technik erstellt wurden.[22]
  • Nachfolgend zwei unterschiedlich exponierte Bilder durch Schneiden der Bildrate in zwei Hälften aufnehmen.[18]
  • Gleichzeitig zwei unterschiedlich exponierte Bilder durch Schneiden der Auflösung in zwei Hälften.[18]
  • Gleichzeitig zwei unterschiedlich exponierte Bilder mit voller Auflösung und Bildrate über einen Sensor mit Doppelgewinnarchitektur. Zum Beispiel: Arri AlexaSensor,[23] Samsung Sensoren mit Smart-Iso Pro.[24]

Einige Kameras, die für die Verwendung in Sicherheitsanwendungen entwickelt wurden, können automatisch zwei oder mehr Bilder für jeden Frame mit sich ändernder Belichtung bereitstellen. Beispielsweise gibt ein Sensor für 30 -fps -Video 60 fps mit den ungeraden Frames zu einer kurzen Belichtungszeit und den ausgeglichenen Rahmen zu einer längeren Belichtungszeit aus.

Im Jahr 2020, Qualcomm angekündigt Snapdragon 888, Ein Handy SOC in der Lage, eine rechnerische Multi-Exposition-HDR-Videoaufnahme in 4K durchzuführen und sie auch in einem Format aufzunehmen, das kompatibel ist mit HDR zeigt an.[25]

Im Jahr 2021 die Xiaomi Mi 11 Ultra Smartphone ist in der Lage, HDR für die Multi-Exposition für die Videoaufnahme durchzuführen.[26]

Geschichte

Mitte des 19. Jahrhunderts

Ein Foto von 1856 von 1856 von Gustave Le Grey

Die Idee, mehrere Expositionen zu verwenden, um einen zu extremen Bereich von angemessen zu reproduzieren Luminanz wurde bereits in den 1850er Jahren von Pionierarbeit von Pionierarbeit von Pionierarbeit Gustave Le Grey Meerescapes zu rendern, die sowohl den Himmel als auch das Meer zeigen. Ein solches Rendering war zu dieser Zeit mit Standardmethoden unmöglich, da der Leuchtkraftbereich zu extrem war. Le Grey verwendete ein negatives Negativ für den Himmel und eine andere mit einer längeren Exposition für das Meer und kombinierte die beiden zu einem positiven Bild.[27]

Mitte des 20. Jahrhunderts

Externes Bild
image icon Schweitzer an der Lampe, durch W. Eugene Smith[28][29]

Manuelles Tonzuordnung wurde durch erreicht Ausweichen und Brennen- Selektiv Erhöhen oder Verringerung der Exposition von Regionen des Fotos, um eine bessere Tonalität zu reproduktieren. Dies war wirksam, da der Dynamikbereich des Negativen signifikant höher ist als beim fertigen positiven Papierdruck, wenn dies über das Negative auf einheitliche Weise ausgesetzt ist. Ein ausgezeichnetes Beispiel ist das Foto Schweitzer an der Lampe durch W. Eugene Smithaus seinem 1954 Foto Essay Ein Mann der Barmherzigkeit an Albert Schweitzer und seine humanitäre Arbeit im französischen Äquatorialafrika. Das Bild dauerte fünf Tage, um den Tonbereich der Szene zu reproduzieren, der von einer hellen Lampe (relativ zur Szene) bis zu einem dunklen Schatten reicht.[29]

Ansel Adams Erhöhtes Ausweichen und Brennen in eine Kunstform. Viele seiner berühmten Drucke wurden in der Dunkelkammer mit diesen beiden Methoden manipuliert. Adams schrieb ein umfassendes Buch über Produkte mit dem Titel "Produzierende Drucke" Der Druck, was prominent ausweichen und brennen, im Kontext seiner Zonensystem.

Mit dem Aufkommen der Farbfotografie war die Tonzuordnung in der Dunkelkammer aufgrund des spezifischen Zeitpunkts, der während des sich entwickelnden Prozess des Farbfilms benötigt wurde, nicht mehr möglich. Die Fotografen suchten auf Filmhersteller, um neue Filmaktien mit verbesserter Reaktion zu entwerfen, oder fotografierten weiterhin in Schwarzweiß, um die Methoden der Tonzuordnung zu verwenden.

Expositions-/Dichteeigenschaften von Wyckoffs Erweiterte Expositions -Reaktionsfilm. Man kann beachten, dass jede Kurve eine hat Sigmoidalform und folgt a Hyperbolische Tangente, oder ein Logistische Funktion gekennzeichnet durch eine Induktionsperiode (Initiierung), eine quasi-lineare Ausbreitung und ein Sättigungsplateau (Asymptote).

Farbfilm, der in der Lage ist, Bilder mit hoher Dynamik-Reichweite direkt aufzunehmen, wurde von entwickelt von Charles Wyckoff und EI "Im Verlauf eines Vertrags mit dem Abteilung der Luftwaffe".[30] Dieser XR -Film hatte drei Emulsion Schichten, eine obere Schicht mit einer ALS EIN Geschwindigkeitsbewertung von 400, eine mittlere Schicht mit einer Zwischenbewertung und eine niedrigere Schicht mit einer ASA -Bewertung von 0,004. Der Film wurde auf ähnliche Weise verarbeitet wie Farbfilmeund jede Schicht produzierte eine andere Farbe.[31] Der Dynamikbereich dieses erweiterten Bereichs wurde als 1:10 geschätzt8.[32] Es wurde verwendet, um nukleare Explosionen zu fotografieren,[33] Für astronomische Fotografie,[34] Für spektrografische Forschung,[35] und für medizinische Bildgebung.[36] Wyckoffs detaillierte Bilder von nuklearen Explosionen erschienen auf dem Cover von Leben Magazin Mitte der 1950er Jahre.

Ende des 20. Jahrhunderts

Georges Cornuéjols und Lizenznehmer seiner Patente (BRDI, Hymatom) führten 1986 das Prinzip des HDR -Videobilds ein, indem ein Matricial LCD -Bildschirm vor dem Bildsensor der Kamera interpostierte.[37] Erhöhen der Dynamik der Sensoren um fünf Stopps.

Das Konzept der Tone Mapping in der Nachbarschaft wurde 1988 von einer Gruppe aus dem auf Videokameras angewendet Technion in Israel, angeführt von Oliver Hilsenrath und Yehoshua Y. Zeevi. Technionforscher haben 1991 ein Patent über dieses Konzept eingereicht,[38] und mehrere verwandte Patente in den Jahren 1992 und 1993.[39]

Im Februar und April 1990 stellte Georges Cornuéjols die erste Echtzeit-HDR-Kamera vor, die zwei von einem Sensor aufgenommene Bilder kombinierte[40] oder gleichzeitig[41] von zwei Sensoren der Kamera. Dieser Prozess ist als bekannt als Klammung Wird für einen Videostream verwendet.

1991 wurde die erste kommerzielle Videokamera eingeführt, die Echtzeit-Aufnahme mehrerer Bilder mit unterschiedlichen Expositionen und der Herstellung eines HDR-Videobilds durch Hymatom, Lizenznehmer von Georges Cornuéjols, aufführte.

Ebenfalls 1991 führte Georges Cornuéjols das HDR+ Bildprinzip durch nichtlineare Akkumulation von Bildern ein, um die Empfindlichkeit der Kamera zu erhöhen:[40] Für Umgebungen mit schlechten Licht Signal-Rausch-Verhältnis.

Im Jahr 1993 produzierte eine weitere kommerzielle medizinische Kamera, die nach dem Technion ein HDR -Videobild produziert.[39]

Die moderne HDR-Bildgebung verwendet einen völlig anderen Ansatz, basierend auf der Erstellung einer hochdynamischen Luminanz- oder Lichtkarte mit nur globalen Bildoperationen (über das gesamte Bild) und dann Tonzuordnung das Ergebnis. Global HDR wurde erstmals 1993 eingeführt[1] was zu einer mathematischen Theorie von unterschiedlich exponierten Bildern desselben Themas führt, das 1995 von veröffentlicht wurde Steve Mann und Rosalind Picard.[2]

Am 28. Oktober 1998 erstellte Ben Sarao eines der ersten nächtlichen HDR + G -Bild von HDR + G (High Dynamic Range + Graphic) STS-95 auf dem Startpad bei NASA's Kennedy Raumfahrtszentrum. Es bestand aus vier Filmbildern der Space Shuttle Nachts waren das digital zusammengesetzt mit zusätzlichen digitalen Grafikelementen. Das Bild wurde zum ersten Mal bei ausgestellt NASA -Hauptquartier Great Hall, Washington DC, 1999 und dann veröffentlicht in Hasselblad Forum.[42]

Das Aufkommen der Digitalkameras von Verbrauchern führte zu einer neuen Nachfrage nach HDR -Bildgebung, um die Lichtreaktion von Digitalkamerassensoren zu verbessern, die einen viel kleineren Dynamikbereich als Film hatten. Steve Mann entwickelte und patentierte die globale HDR-Methode zum Erstellen digitaler Bilder mit einem erweiterten Dynamikbereich am MIT Media Lab.[43] Die Methode von Mann umfasste ein zweistufiges Verfahren: Erstellen Sie zunächst ein schwimmendes Punkt-Bild-Array durch globale Bildvorgänge (Operationen, die alle Pixel identisch beeinflussen, ohne Rücksicht auf ihre lokalen Nachbarschaften). Zweitens konvertieren Sie dieses Bildarray unter Verwendung der lokalen Nachbarschaftsverarbeitung (Tone-Remapping usw.) in ein HDR-Bild. Das Bildarray, das durch den ersten Schritt von Manns Prozess erzeugt wird, wird als a genannt Lichtspeicherbild, Lichtspeicherbild, oder Radiance Map. Ein weiterer Vorteil der globalen HDR-Bildgebung besteht darin, dass es Zugang zu der für die Zwischenlicht oder zur Strahlung, die verwendet wurde, für die verwendet wurde Computer Vision, und andere Bildverarbeitung Operationen.[43]

21. Jahrhundert

Im Februar 2001 wurde die dynamische Ranger -Technik nachgewiesen, wobei mehrere Fotos mit unterschiedlichen Belichtungsstufen verwendet wurden, um einen hohen Dynamikbereich ähnlich dem bloßen Auge zu erreichen.[44]

In den frühen 2000er Jahren verwendeten mehrere wissenschaftliche Forschungsbemühungen Sensoren und Kameras der Verbraucherqualität.[45] Ein paar Unternehmen wie ROT und Arri haben digitale Sensoren entwickelt, die zu einem höheren Dynamikbereich in der Lage sind.[46][47] Red Epic-X kann zeitsequentielle HDRX-Bilder erfassen[18] Mit einem benutzerausscheidbaren 1–3 Stopps von zusätzlichem Highlight-Breitengrad im "X" -Kanal. Der "X" -Kanal kann mit dem normalen Kanal in der Postproduktionssoftware zusammengeführt werden. Das Arri Alexa Die Kamera verwendet eine Dual-Gain-Architektur, um ein HDR-Bild aus zwei gleichzeitig erfassten Expositionen zu generieren.[23]

Mit dem Aufkommen von kostengünstigen Digitalkameras von Verbrauchern begannen viele Amateure, den Ton-kartierten HDR zu veröffentlichen Zeitraffer Videos im Internet, im Wesentlichen eine Abfolge von stillem Fotografien in schneller Folge. Im Jahr 2010 erzeugte die unabhängige Studio Sowjet Montage ein Beispiel für HDR -Videos von unpassende Videoströmen mit a Strahlteiler und HD -Videokameras der Verbraucherqualität.[48] Ähnliche Methoden wurden in der akademischen Literatur in den Jahren 2001 und 2007 beschrieben.[49][50]

Im Jahr 2005, Adobe Systems stellte mehrere neue Funktionen in ein Photoshop CS2 einschließlich Verschmelzen mit HDR, 32 Bit Floating Point Image -Unterstützung und HDR -Tonzuordnung.[51]

Am 30. Juni 2016, Microsoft Unterstützung für die digitale Komposition von HDR -Bildern zu hinzugefügt Windows 10 Verwendung der Universelle Windows -Plattform.[52]

Siehe auch

Verweise

  1. ^ a b "Kompositionierende mehrere Bilder derselben Szene", von Steve Mann, IN IS & Ts 46. Jahreskonferenz, Cambridge, Massachusetts, 9. bis 14. Mai 1993
  2. ^ a b Mann, S.; Picard, R. W. "Mit Digitalkameras" untergital): Erweiterung des Dynamikbereichs durch Kombination von unterschiedlich exponierten Bildern " (PDF).
  3. ^ Reinhard, Erik; Ward, Greg; Pattanaik, Sumanta; DEBEVEC, Paul (2005). Bildgebung mit hoher Dynamikbereich: Erfassung, Anzeige und bildbasierte Beleuchtung. Amsterdam: Elsevier / Morgan Kaufmann. p. 7. ISBN 978-0-12-585263-0. Bilder, die eine Darstellung der Szene in einer Reihe von Intensitäten speichern, die der Szene entspricht, sind das, was wir HDR oder „Radiance Maps“ bezeichnen. Auf der anderen Seite nennen wir Bilder, die für die Anzeige mit aktueller Anzeigetechnologie LDR geeignet sind.
  4. ^ Banterle, Francesco; Artusi, Alessandro; Debattista, Kurt; Chalmers, Alan (2011). Fortgeschrittene Bildgebung mit hohem Dynamikbereich: Theorie und Praxis. AK Peters / CRC Press. ISBN 978-156881-719-4.
  5. ^ McHugh, Sean, hrsg. (2005). "Dynamischer Bereich in der digitalen Fotografie". Cambridge in Farbe. Abgerufen 30. Dezember, 2010.
  6. ^ "Dynamikbereich".[Permanent Dead Link]
  7. ^ a b c d e "Kamerasensor -Bewertungen". Dxomark. DXO Labs. 2015. Abgerufen 2. Februar, 2015.
  8. ^ a b Darmont, Arnaud (2012). Bildgebung mit hohem Dynamikbereich: Sensoren und Architekturen (First Ed.). Spie Press. ISBN 978-0-81948-830-5.
  9. ^ "Automatische Belichtungsklammeinstellungen nach Kameramodell". HDR -Fotografie -Ressourcen. 28. Februar 2016. Abgerufen 12. Juni, 2020.
  10. ^ a b Ward, Greg. "High Dynamic Range Image Codings". Anyloge.com. Anyloe Software.
  11. ^ "Das Format der Radiance -Bilddatei" ". Radsit.lbl.gov. Lawrence Berkeley Nationales Labor. Archiviert von das Original am 28. Januar 2019. Abgerufen 12. Juni, 2020.
  12. ^ Fernando, Randima (2004). "26,5 lineare Pixelwerte". GPU -Edelsteine. Boston: Addison-Wesley. ISBN 0-321-22832-4. Archiviert von das Original am 12. April 2010 - über Entwickler.nvidia.com.
  13. ^ Mantiuk, Rafal; Krawczyk, Grzegorz; Myszkowski, Karol; Seidel, Hans-Peter. "Wahrnehmungsmotivierte Video-Codierung mit hohem Dynamikbereich". Ressourcen.mpi-inf.mpg.de. Max Planck Institute für Informatik.
  14. ^ Howard, Jack (20. Mai 2009). "Die Pentax K-7: Die Ära der Bildgebung mit hohem Dynamikbereich in der Kamera ist angekommen!". Adorama Learning Center. Adorama. Archiviert von das Original am 23. Dezember 2014. Abgerufen 18. August 2009.
  15. ^ Mokey, Nick (14. September 2010). "Canon PowerShot G12 nimmt die HD-Videoaufnahme auf, integriert HDR". Digitale Trends. Abgerufen 12. Juni, 2020.
  16. ^ Heiner, Steve (2017). "Intermediate: Einbalancieren von Foto-Expositionen mit aktivem D-Licht". Abschnitt "Ideen und Inspiration". Nikon lernen und erkunden. Nikon. Abgerufen 2. August, 2017.
  17. ^ Android Beispiele: "Apps: HDR -Modus". Google Play. Abgerufen 12. Juni, 2020.
  18. ^ a b c d e f "Sony IMX378: umfassende Aufschlüsselung des Sensors des Google Pixel und seiner Funktionen". XDA-Entwickler. 2016-10-12. Archiviert vom Original am 2019-04-01. Abgerufen 2016-10-17.
  19. ^ CCS_HELLO (25. Oktober 2017). "Die Begriffe des Sony Exmor HDR -Sensors: DOL, BME, KMU, QBC - Elektronisch unterstützte Astronomie (EAA) - bewölkte Nächte". Wolkige Nächte. Abgerufen 6. April 2022.
  20. ^ Sá, Asla M.; Carvalho, Paulo Cezar; Velho, Luiz (2007). Hoher Dynamikbereich. Fokuspresse. p. 11. ISBN 978-1-59829-562-7.
  21. ^ "Red.com". www.red.com. Abgerufen 2021-11-05.
  22. ^ "Erstellen Sie das HDR-Zeitraffervideo mit einer Digitalkamera". Macworld. 2011-02-07. Abgerufen 2021-11-06.{{}}: CS1 Wartung: URL-Status (Link)
  23. ^ a b "Arri Group: Alexas Sensor". www.arri.com. Archiviert Aus dem Original am 1. August 2016. Abgerufen 2. Juli 2016.
  24. ^ "[Video] Malerei mit Licht: Wie Smart-ISO Pro profitiert lebensechte HDR-Bilder". news.samsung.com. Abgerufen 2021-11-05.
  25. ^ "Qualcomm erklärt, wie der Snapdragon 888 das Kameraspiel (Video!) Ändert.". Android Autorität. 2020-12-04. Abgerufen 2021-06-08.
  26. ^ Rehm, Lars (2021-04-02). "Xiaomi Mi 11 Ultra Camera Review: Large Sensor Power". Dxomark. Abgerufen 2021-06-08.
  27. ^ "Gustave Le Grey, Fotograf". Getty.edu. J. Paul Getty Museum. 9. Juli - 29. September 2002. Abgerufen 14. September, 2008.
  28. ^ Die Zukunft der digitalen Bildgebung - Fotografie mit hoher Dynamikbereiche, Jon Meyer, Februar 2004
  29. ^ a b 4.209: Kunst und Wissenschaft der DarstellungFrédo Durand und Julie Dorsey, Einschränkungen des Mediums: Kompensation und Akzentuierung - Der Kontrast ist begrenzt, Vortrag von Montag, 9. April 2001, Folie 57–59; Bild auf Folie 57, Darstellung des Ausweichens und Verbrennens auf Folie 58
  30. ^ US -Nummer = 3450536, Wyckoff, Charles W. & EG & G Inc., Beauftragter, "Silberhalogenid-Fotofilm mit verstärkten Merkmalen zur Expositionsreaktion", veröffentlicht 1969-09-17 
  31. ^ Wyckoff, Charles W. (Juni - Juli 1962). "Experimental erweiterte Expositions -Reaktionsfilm". Society of Photographic Instrumentation Engineers Newsletter: 16–20.
  32. ^ Goesele, Michael; et al. "Hochdynamische Bereichstechniken in Grafiken: Von der Erfassung bis zur Anzeige" (PDF). Eurographics 2005 Tutorial T7. Max Planck Institute für Informatik.
  33. ^ "Die Liste der militärisch kritischen Technologien" (PDF). Fas.org. Intelligence -Ressourcenprogramm, Föderation der amerikanischen Wissenschaftler. 1998. S. II-5-100, II-5-107. Abgerufen 12. Juni, 2020.
  34. ^ Young, Andrew T.; Boeschenstein, Harold, Jr. (1964). Isothermen im Bereich des Proklus in einem Phasenwinkel von 9,8 Grad. Scientific Report Series. Vol. Nr. 5. Cambridge, Massachusetts: College Observatory, Harvard University.
  35. ^ Bryant, R. L.; Troup, G. J.; Turner, R. G. (1965). "Die Verwendung eines fotografischen Filmfilms mit hohem Intensitätsbereich für die Aufnahme erweiterter Beugungsmuster und für spektrografische Arbeit". Journal of Scientific Instrumente. 42 (2): 116. Bibcode:1965jsci ... 42..116b. doi:10.1088/0950-7671/42/2/315.
  36. ^ Eber, Leslie M.; Greenberg, Havey M.; Cooke, John M.; Gorlin, Richard (1969). "Dynamische Veränderungen in der linken ventrikulären freien Wanddicke im menschlichen Herzen". Verkehr. 39 (4): 455–464. doi:10.1161/01.cir.39.4.455. PMID 5778246.
  37. ^ "Bildverarbeitungsgerät zur Steuerung der Übertragungsfunktion eines optischen Systems". Worldwide.espacenet.com. Espacenet.
  38. ^ US -Patent 5144442, Ginosar, rannte; Hilsenrath, Oliver & Zeevi, Yehoshua Y., "Wide Dynamic Range Camera", veröffentlicht 1992-09-01 
  39. ^ a b Ginosar, rannte; Zinaty, Ofra; Sorek, Noam; Genossar, Tamar; Zeevi, Yehoshua Y.; Kligler, Daniel J.; Hilsenrath, Oliver (1993). "Adaptive Empfindlichkeit". Visl.technion.ac.il. Labor für Vision und Bildwissenschaften, Technion, Israel Institut für Technologie. Archiviert von das Original am 7. September 2014. Abgerufen 27. Januar, 2019.
  40. ^ a b "Gerät zur Erhöhung des Dynamikbereichs einer Kamera". Worldwide.espacenet.com. Espacenet.
  41. ^ "Kamera mit sehr großem dynamischem Bereich". Worldwide.espacenet.com. Espacenet.
  42. ^ Sarao, Ben M. (1999). Gunnarsson, S. (Hrsg.). Ben Sarao, Trenton, NJ. Hasselblad Forum. Vol. 35. ISSN 0282-5449.
  43. ^ a b US -Anwendung 5828793, Mann, Steve, "Methode und Apparat zum Erstellen digitaler Bilder mit erweiterten dynamischen Bereichen", veröffentlicht 1998-10-27 
  44. ^ "Dynamischer Ranger".
  45. ^ Kang, Sing Bing; Uyttendaele, Matthew; Winder, Simon; Szeliski, Richard (2003). ACM Siggraph 2003 Papers - auf Siggraph '03. CH. Video mit hohem Dynamikbereich (Seiten 319–325). doi:10.1145/1201775.882270. ISBN 978-1-58113-709-5. S2CID 13946222.
  46. ^ "Red Digital Cinema | 8K & 5K Professionelle Kameras". Archiviert Aus dem Original am 27. Juli 2016. Abgerufen 27. Juli 2016.
  47. ^ "Arri | inspirieren Sie Ihre Vision". Archiviert Aus dem Original am 8. September 2011. Abgerufen 23. Januar 2021.
  48. ^ "HDR -Video, das mit Dual 5D Mark IIS erreicht wurde, ist genau das, wonach es sich anhört.". Engadget. Archiviert Aus dem Original am 14. Juni 2017. Abgerufen 29. August 2017.
  49. ^ "Eine Echtzeit -Lichtsonde mit hoher Dynamikbereich". Archiviert Aus dem Original am 17. Juni 2016. Abgerufen 27. Juli 2016.
  50. ^ McGuire, Morgan; Matusik, Wojciech; Pfister, Hanspeter; Chen, Billy; Hughes, John; Nayar, Shree (2007). "Optische Spaltbäume für die monokulare Bildgebung mit hoher Präzision". IEEE -Computergrafiken und Anwendungen. 27 (2): 32–42. doi:10.1109/mcg.2007.45. PMID 17388201. S2CID 3055332. Archiviert vom Original am 23. Januar 2021. Abgerufen 14. Juli 2019.
  51. ^ Reichmann, Michael (2005). "Zusammenführen mit HDR in Photoshop CS2: Ein erster Blick". Die leuchtende Landschaft. Archiviert von das Original am 2. Januar 2010. Abgerufen 27. August, 2009.
  52. ^ Anderson, Kareem (30. Juni 2016). "Microsoft spricht über die Vorteile der HDR -Fotografie und Videografie in Universal Windows Platform Apps". Onmsft.com. Abgerufen 12. Juni, 2020.

Externe Links

  • Medien im Zusammenhang mit hochdynamischer Bildgebung bei Wikimedia Commons