Rendering (Computergrafik)

Eine Vielzahl von Rendering -Techniken, die auf eine einzige 3D -Szene angewendet werden
Ein Bild, das durch Verwendung erstellt wurde POV-RAY 3.6

Rendering oder Bildsynthese ist der Prozess der Erzeugung a fotorealistisch oder nicht photorealistisch Bild von a 2d oder 3D-Modell mittels a Computer Programm. Das resultierende Bild wird als das bezeichnet machen. Mehrere Modelle können in a definiert werden Szenendatei Objekte in einer streng definierten Sprache enthalten oder Datenstruktur. Die Szenendatei enthält Geometrie, Standpunkt, Textur, Beleuchtung, und Schattierung Informationen, die die virtuelle Szene beschreiben. Die in der Szenendatei enthaltenen Daten werden dann an ein Rendering -Programm übergeben, das verarbeitet und an a ausgegeben werden soll digitales Bild oder Rastergrafiken Bilddatei. Der Begriff "Rendering" ist analog zum Konzept eines Eindruck des Künstlers einer Szene. Der Begriff "Rendering" wird auch verwendet, um den Prozess der Berechnung der Effekte in einem Videobearbeitungsprogramm zu beschreiben, um die endgültige Videoausgabe zu erstellen.

Rendering ist eine der Hauptunterthemen von 3D -Computergrafikund in der Praxis ist es immer mit den anderen verbunden. Es ist der letzte große Schritt in der GrafikpipelineModelle geben und ihre endgültige Erscheinung animieren. Mit der zunehmenden Raffinesse von Computergrafiken seit den 1970er Jahren ist es zu einem deutlicheren Thema geworden.

Rendering hat verwendet die Architektur, Videospiele, Simulatoren, Film und Fernseher visuelle Effekteund Designvisualisierung, die jeweils ein anderes Gleichgewicht zwischen Merkmalen und Techniken verwenden. Eine Vielzahl von Renderern kann verwendet werden. Einige sind in größere Modellierungs- und Animationspakete integriert, einige sind eigenständig und einige sind kostenlose Open-Source-Projekte. Im Inneren ist ein Renderer ein sorgfältig ausgelöster Programm basierend auf mehreren Disziplinen, einschließlich Lichtphysik, visuelle Wahrnehmung, Mathematik, und Software-Entwicklung.

Obwohl die technischen Details der Rendering -Methoden variieren, werden die allgemeinen Herausforderungen bei der Erzeugung eines 2D -Bildes auf einem Bildschirm aus einer in einer Szenendatei gespeicherten 3D -Darstellung von den abgewickelt Grafikpipeline in einem Rendering -Gerät wie a GPU. Eine GPU ist ein speziell gebautes Gerät, das a hilft Zentralprozessor bei der Durchführung komplexer Rendering -Berechnungen. Wenn eine Szene unter virtueller Beleuchtung relativ realistisch und vorhersehbar aussieht, muss die Rendering -Software die lösen Rendern der Gleichung. Die Rendering-Gleichung berücksichtigt nicht alle Beleuchtungsphänomene, sondern wirkt stattdessen als allgemeines Beleuchtungsmodell für computergenerierte Bilder.

Bei 3D -Grafiken können Szenen sein vor gerendert oder in Echtzeit erzeugt. Vorrendern ist ein langsamer, rechenintensiver Prozess, der normalerweise für die Erstellung von Films verwendet wird, bei denen Szenen im Voraus erzeugt werden können Echtzeit Das Rendering erfolgt häufig für 3D -Videospiele und andere Anwendungen, die szenen dynamisch erstellen müssen. 3d Hardware Beschleuniger Kann die Echtzeit -Rendering -Leistung verbessern.

Verwendungszweck

Wenn das Vorbild (a Wireframe Skizze in der Regel) ist vollständig, das Rendering wird verwendet, was hinzugefügt wird Bitmap -Texturen oder Verfahrenstruktur, Beleuchtung, Bump -Mapping und relative Position zu anderen Objekten. Das Ergebnis ist ein abgeschlossenes Bild, das der Verbraucher oder der beabsichtigte Betrachter sieht.

Für Filmanimationen müssen mehrere Bilder (Frames) in einem Programm, das eine solche Animation erstellen kann, zusammengestellt und zusammengefügt werden. Die meisten 3D -Bildbearbeitungsprogramme können dies tun.

Merkmale

Ein rendertes Bild kann in Bezug auf eine Reihe sichtbarer Merkmale verstanden werden. Rendering Forschung und Entwicklung wurde weitgehend motiviert, indem Wege gefunden wurde, diese effizient zu simulieren. Einige beziehen sich direkt auf bestimmte Algorithmen und Techniken, während andere zusammen produziert werden.

  • Schattierung- Wie die Farbe und Helligkeit einer Oberfläche mit der Beleuchtung variiert
  • Textur-Mapping- Eine Methode zur Anwendung von Details auf Oberflächen
  • Bump-Mapping-Eine Methode zur Simulation kleiner Bumpiness auf Oberflächen
  • Nebel-/teilnehmendes Medium-wie leicht schwächer beim Durchlaufen der nicht clearen Atmosphäre oder der Luft ist
  • Schatten- Die Wirkung der Behinderung des Lichts
  • Weiche Schatten- Variierende Dunkelheit, die durch teilweise verdeckte Lichtquellen verursacht wird
  • Betrachtung-Spiegelartig oder sehr glänzend Reflexion
  • Transparenz (Optik), Transparenz (Grafik) oder Opazität- Scharfe Übertragung von Licht durch feste Objekte
  • Transluzenz- Hochstreuende Übertragung von Licht durch feste Objekte
  • Brechung- Lichtbiegung im Zusammenhang mit Transparenz
  • Beugung- Biegung, Ausbreitung und Einmischung des Lichts an einem Objekt oder einer Apertur, die den Strahl stört
  • Indirekte Beleuchtung- Oberflächen, die durch Licht beleuchtet werden, die von anderen Oberflächen reflektiert werden, und nicht direkt von einer Lichtquelle (auch als globale Beleuchtung bezeichnet)
  • Ätzmittel (Eine Form der indirekten Beleuchtung) - Reflexion des Lichts von einem glänzenden Objekt oder Fokussierung des Lichts durch ein transparentes Objekt, um helle Highlights auf einem anderen Objekt zu erzeugen
  • Tiefenschärfe- Objekte erscheinen verschwommen oder unscharf, wenn sie zu weit vor oder hinter dem Objekt im Fokus stehen
  • Bewegungsunschärfe-Objekte erscheinen aufgrund einer Hochgeschwindigkeitsbewegung oder der Bewegung der Kamera verschwommen
  • Nicht-photorealistischer Rendering- Rendering von Szenen in einem künstlerischen Stil, der wie ein Gemälde oder eine Zeichnung aussehen soll

Techniken

Rendern eines fraktalen Geländes durch Ray marschieren

Viele rendern Algorithmen wurden recherchiert und Software, die zum Rendering verwendet wurde, kann eine Reihe verschiedener Techniken anwenden, um ein endgültiges Bild zu erhalten.

Verfolgung jeder Lichtteilchen In einer Szene ist fast immer völlig unpraktisch und würde eine erstaunliche Zeit nehmen. Selbst die Verfolgung eines Teils, das groß genug ist, um ein Bild zu erzeugen, braucht eine übermäßige Zeit, wenn die Stichprobe nicht intelligent eingeschränkt ist.

Daher sind einige losen Familien mit effizienterem Lichttransportmodellierungstechniken entstanden:

  • Rasterisierung, einschließlich Scanline -Rendering, geometrisch projiziert Objekte in der Szene in eine Bildebene ohne fortgeschrittene optische Effekte;
  • Ray Casting Betrachtet die Szene aus spezifischer Sicht beobachtet, berechnet das beobachtete Bild, das nur auf Geometrie und sehr grundlegenden optischen Gesetzen der Reflexionsintensität beruht, und möglicherweise verwendet Monte Carlo Techniken zur Reduzierung von Artefakten;
  • Strahlenverfolgung ähnelt dem Ray -Casting, verwendet aber fortschrittlichere optische Simulation und verwendet normalerweise Monte Carlo -Techniken Um realistischere Ergebnisse mit einer Geschwindigkeit zu erzielen, die häufig schneller Größenordnungen ist.

Die vierte Art der Lichttransporttechnik, Radiosität wird normalerweise nicht als Rendering -Technik implementiert, sondern berechnet stattdessen den Übergang von Licht, wenn es die Lichtquelle verlässt und Oberflächen beleuchtet. Diese Oberflächen werden normalerweise unter Verwendung einer der anderen drei Techniken zum Display gerendert.

Die meisten fortschrittlichen Software kombiniert zwei oder mehr Techniken, um gute Ergebnisse zu angemessenen Kosten zu erzielen.

Eine weitere Unterscheidung ist dazwischen Bildreihenfolge Algorithmen, die über Pixel der Bildebene iterieren, und Objektreihenfolge Algorithmen, die Objekte in der Szene iterieren. Im Allgemeinen ist die Objektreihenfolge effizienter, da es normalerweise weniger Objekte in einer Szene als Pixel gibt.

Scanline -Rendering und Rasterisierung

Eine hochrangige Darstellung eines Bildes enthält notwendigerweise Elemente in einer anderen Domäne als Pixel. Diese Elemente werden als bezeichnet als Primitive. In einer schematischen Zeichnung können beispielsweise Liniensegmente und Kurven Primitive sein. In einer grafischen Benutzeroberfläche können Windows und Schaltflächen die Primitiven sein. Bei der Darstellung von 3D -Modellen können Dreiecke und Polygone im Weltraum Primitive sein.

Wenn ein Pixel-by-Pixel-Ansatz (Bildreihenfolge) für das Rendering für eine Aufgabe unpraktisch oder zu langsam ist, kann sich ein primitiver byprimitiver (Objektreihenfolge) Ansatz für das Rendering als nützlich erweisen. Hier bestimmt eine Schleife durch jedes der Primitiven, bestimmt, welche Pixel im Bild es beeinflusst, und modifiziert diese Pixel entsprechend. Das nennt man Rasterisierungund ist die Rendering -Methode, die von allen Strom verwendet wird Grafikkarten.

Die Rasterisierung ist häufig schneller als das Pixel-By-Pixel-Rendering. Erstens können große Bereiche des Bildes von Primitiven leer sein; Die Rasterisierung wird diese Bereiche ignorieren, aber das Pixel-by-Pixel-Rendering muss durch sie passieren. Zweitens kann sich die Rasterisierung verbessern Cache -Kohärenz und reduzieren redundante Arbeiten, indem sie die Tatsache nutzen, dass die Pixel, die von einem einzelnen Primitiv besetzt sind, tendenziell zusammenhängend im Bild sind. Aus diesen Gründen ist die Rasterisierung normalerweise der Ansatz der Wahl, wenn interaktiv Rendering ist erforderlich; Der Pixel-By-Pixel-Ansatz kann jedoch häufig höhere Bilder erzeugen und ist vielseitiger, da er nicht von so vielen Annahmen über das Bild wie Rasterisierung abhängt.

Die ältere Form der Rasterisierung wird durch die Rendert eines gesamten Gesichts (primitiv) als einzelne Farbe gekennzeichnet. Alternativ kann die Rasterisierung komplizierter erfolgen, indem zuerst die Eckpunkte eines Gesichts und dann die Pixel dieses Gesichts als Mischung der Scheitelpunktfarben rendern. Diese Version der Rasterisierung hat die alte Methode überholt, da die Grafiken ohne komplizierte Texturen fließen können (ein rasterisiertes Bild, wenn es mit Gesicht von Gesicht verwendet wird, neigt dazu, einen sehr blockartigen Effekt zu haben, wenn sie nicht in komplexen Texturen bedeckt sind. Die Gesichter sind nicht glatt, weil Es gibt keine allmähliche Farbänderung von einem Primitiv zum nächsten). Diese neuere Raster -Methode verwendet die steuerlichen Schattierungsfunktionen der Grafikkarte und erzielt immer noch eine bessere Leistung, da die einfacheren im Speicher gespeicherten Texturen weniger Platz nutzen. Manchmal verwenden Designer eine Rasterisierungsmethode für einige Gesichter und die andere Methode auf anderen, basierend auf dem Winkel, in dem dieses Gesicht auf andere zusammengefügte Gesichter trifft, wodurch die Geschwindigkeit zunimmt und den Gesamteffekt nicht beeinträchtigt wird.

Ray Casting

Im Ray Casting Die modellierte Geometrie ist Pixel von Pixel, Linie für Linie, aus der Sicht nach außen, als ob sie aus der Sichtstrahlen Strahlen herausgießen würden. Wo ein Objekt ist überschnittenDer Farbwert am Punkt kann mit mehreren Methoden bewertet werden. Im einfachsten wird der Farbwert des Objekts am Schnittpunkt zum Wert dieses Pixels. Die Farbe kann aus a bestimmt werden Textur-Map. Eine komplexere Methode besteht darin, den Farbwert durch einen Beleuchtungsfaktor zu ändern, ohne die Beziehung zu einer simulierten Lichtquelle zu berechnen. Um Artefakte zu reduzieren, können eine Reihe von Strahlen in leicht unterschiedliche Richtungen gemittelt werden.

Das Strahlenguss umfasst die Berechnung der "Ansichtsrichtung" (aus der Kameraposition) und inkrementell dem "Strahlenguss" durch "solide 3D -Objekte" in der Szene, während der resultierende Wert aus jedem Punkt im 3D -Raum ansammelt. Dies hängt mit der "Strahlenverfolgung" zusammen und ähnelt, außer dass der Raycast normalerweise nicht von Oberflächen "abprallt" wird (wobei die "Strahlverfolgung" angibt, dass er den Lichterweg einschließlich der Bounces verfolgt). "Ray Casting" impliziert, dass der Lichtstrahl einem geraden Pfad folgt (der möglicherweise durch die Reisen durch halbtransparente Objekte gehört). Der Strahlguss ist ein Vektor, der von der Kamera oder aus dem Szenenendpunkt ("Zurück nach vorne" oder "von vorne nach hinten") stammen kann. Manchmal wird der endgültige Lichtwert aus einer "Übertragungsfunktion" abgeleitet und manchmal direkt verwendet.

Rohlinge Simulationen optischer Eigenschaften können zusätzlich eingesetzt werden: Eine einfache Berechnung des Strahls vom Objekt bis zur Sichtweise wird durchgeführt. Eine weitere Berechnung wird aus dem Inzidenzwinkel von Lichtstrahlen aus der Lichtquelle (n) und aus diesen sowie den angegebenen Intensitäten der Lichtquellen der Pixel berechnet. Eine andere Simulation verwendet Beleuchtung, die aus einem Radiosity -Algorithmus oder einer Kombination dieser beiden aufgetragen wird.

Strahlenverfolgung

Spiralbereich und Julia, Detail, ein computergeneriertes Bild, das vom visuellen Künstler Robert W. McGregor nur verwendet wird POV-RAY 3.6 und seine integrierte Szenenbeschreibung Sprache.

Strahlenverfolgung Ziel ist es, den natürlichen Lichtfluss zu simulieren, der als Partikel interpretiert wird. Oft werden Strahlverfolgungsmethoden verwendet, um die Lösung an die zu approximieren Rendern der Gleichung durch Auftragen Monte -Carlo -Methoden dazu. Einige der am häufigsten verwendeten Methoden sind Pfadverfolgung, Bidirektionale Pfadverfolgung, oder Metropolis Lichttransport, aber auch semi -realistische Methoden werden wie Strahlenverfolgung im Whisk -Stil oder Hybriden verwendet. Während die meisten Implementierungen das Licht auf geraden Linien ausbreiten lassen, existieren Anwendungen, um relativistische Raumzeiteffekte zu simulieren.[1]

In einer endgültigen Produktionsqualitätsrenderung eines Ray nachverfolgten Arbeit Optik wie "Inzidenzwinkel entspricht dem Reflexionswinkel" und fortgeschrittenere Gesetze, die sich mit Brechung und Oberflächenrauheit befassen.

Sobald der Strahl entweder auf eine Lichtquelle trifft, oder wahrscheinlich, sobald eine festgelegte Anzahl von Spulen bewertet wurde Schätzen Sie einen in der Sicht beobachteten Wert. Dies alles wird für jedes Beispiel für jedes Pixel wiederholt.

Im VerteilungsstrahlverfolgungAn jedem Schnittpunkt können mehrere Strahlen hervorgebracht werden. Im PfadverfolgungEs wird jedoch nur ein einzelner Strahl oder keiner an jeder Kreuzung abgefeuert, wobei der statistische Charakter von verwendet wird Monte Carlo Experimente.

Als Brute-Force-Methode war Ray Tracing für Echtzeit zu langsam zu berücksichtigen und bis vor kurzem sogar zu langsam, um es für Kurzfilme eines beliebigen Qualitätsgrades zu berücksichtigen, obwohl es für Spezialeffektsequenzen und in Werbung verwendet wurde , wo ein kurzer Teil von hoher Qualität (vielleicht sogar gleichzeitig fotorealistisch) Filmmaterial ist erforderlich.

Die Bemühungen zur Optimierung, die Anzahl der in Teilen einer Arbeit erforderlichen Berechnungen zu verringern, bei denen die Details nicht hoch sind oder nicht von den Merkmalen der Strahlenverfolgung abhängen, haben zu einer realistischen Möglichkeit einer umfassenderen Verwendung der Strahlenverfolgung geführt. Zumindest in der Prototypenphase gibt es jetzt einige Hardware-beschleunigte Ray-Tracing-Geräte und einige Spieldemos, die die Verwendung von Echtzeit-Software- oder Hardware-Ray-Verfolgung zeigen.

Neuronales Rendering

Neuronales Rendering ist eine Rendering -Methode mit Verwendung künstliche neurale Netzwerke.[2][3] Das neuronale Rendering umfasst Bildbasiertes Rendering Methoden, die gewohnt sind 3D -Modelle rekonstruieren aus 2-dimensionalen Bildern.[2]

Radiosität

Radiosität ist eine Methode, die versucht, die Art und Weise zu simulieren, wie direkt beleuchtete Oberflächen als indirekte Lichtquellen wirken, die andere Oberflächen beleuchten. Dies erzeugt realistischere Schattierungen und scheint das 'die' zu erfassen 'besser erfassenAmbiente'einer Innenszene. Ein klassisches Beispiel ist ein Weg, der die Schatten, die die Ecken der Räume umarmt, umarmt.

Die optische Basis der Simulation ist, dass einige diffuse Licht von einem bestimmten Punkt auf einer bestimmten Oberfläche in einem großen Spektrum von Richtungen reflektiert und den Bereich um ihn herum beleuchtet.

Die Simulationstechnik kann in der Komplexität variieren. Viele Renderings haben eine sehr grobe Schätzung der Radiosität und beleuchten einfach eine ganze Szene mit einem Faktor, der als Ambiente bekannt ist. Wenn jedoch eine fortgeschrittene Radiositätsschätzung mit einem hochwertigen Strahlverfolgungsalgorithmus in Verbindung gebracht wird, können Bilder überzeugender Realismus aufweisen, insbesondere für Innenszenen.

In der fortgeschrittenen Radiositätssimulation rekursive Finite-Element-Algorithmen 'Bounce' Licht hin und her zwischen den Oberflächen im Modell, bis eine gewisse Rekursionsgrenze erreicht ist. Die Färbung einer Oberfläche auf diese Weise beeinflusst die Färbung einer benachbarten Oberfläche und umgekehrt. Die resultierenden Beleuchtungswerte im gesamten Modell (manchmal auch für leere Räume) werden gespeichert und als zusätzliche Eingaben bei der Durchführung von Berechnungen in einem Strahl- oder Strahlenverfolgungsmodell verwendet.

Aufgrund der iterativen/rekursiven Natur der Technik können komplexe Objekte besonders langsam emulieren. Vor der Standardisierung der Berechnung der schnellen Radiosität einige andere Digitale Künstler verwendete eine Technik, die lose als als bezeichnet als falsche Radiosität Durch Verdunkeln von Bereichen von Texturkarten, die Ecken, Gelenken und Nutzen entsprechen und diese durch Selbstillumination oder diffuse Kartierung für das Scanline-Rendering anwenden. Auch jetzt können Berechnungen für fortgeschrittene Radiosität für die Berechnung des Ambiente des Raum mit einfacheren Objekten mit ähnlicher Größe und Textur.

Radiositätsberechnungen sind unabhängig von Sichtweise, was die damit verbundenen Berechnungen erhöht, sie jedoch für alle Standpunkte nützlich macht. Wenn in der Szene nur wenig Radiosity-Objekte neu angeordnet sind, können die gleichen Radiositätsdaten für eine Reihe von Frames wiederverwendet werden, was die Radiosität eine effektive Möglichkeit macht, die Flachheit des Strahlengusss zu verbessern, ohne sich ernsthaft auf die allgemeine Rendering-Zeit-Per-Rahmen auszuwirken .

Aus diesem Grund ist die Radiosität eine Hauptkomponente der führenden Echtzeit-Rendering-Methoden und wurde von Anfang zu Ende verwendet, um eine große Anzahl bekannter animierter 3D-Cartoon-Filme in der letzten Zeit zu erstellen.

Probenahme und Filterung

Ein Problem, mit dem jedes Rendering -System umgehen muss, unabhängig davon, welcher Ansatz es verfolgt, ist die Stichprobenproblem. Im Wesentlichen versucht der Rendering -Prozess, a darzustellen kontinuierliche Funktion Vom Bildraum zu Farben mit einer begrenzten Anzahl von Pixeln. Als Folge der Nyquist -Shannon -Probenahme Theorem (oder Kotelnikov -Theorem), jede räumliche Wellenform, die angezeigt werden kann Bildauflösung. Einfacher drückt dies die Idee aus, dass ein Bild keine Details, Peaks oder Trogs in Farbe oder Intensität anzeigen kann, die kleiner als ein Pixel sind.

Wenn ein naiver Rendering -Algorithmus ohne Filterung verwendet wird, verursacht hohe Frequenzen in der Bildfunktion hässlich Aliasing im endgültigen Bild präsent sein. Aliasing manifestiert sich typischerweise als Jaggies, oder gezackte Kanten an Objekten, an denen das Pixelgitter sichtbar ist. Um das Aliasing zu entfernen, müssen alle Rendering-Algorithmen (um gut aussehende Bilder zu produzieren) eine Art von verwenden Tiefpassfilter Auf der Bildfunktion, um hohe Frequenzen zu entfernen, nannte ein Prozess Kantenglättung.

Optimierung

Aufgrund der großen Anzahl von Berechnungen wird eine laufende Arbeit in der Regel nur im Detail für den Teil der zu einem bestimmten Zeitpunkt entwickelten Arbeit Der Zielausgang ist die Strahlenverfolgung mit Radiosität. Es ist auch üblich, nur Teile der Szene bei hohen Details zu rendern und Objekte zu entfernen, die für das, was derzeit entwickelt wird, nicht wichtig sind.

Für Echtzeit ist es angebracht, eine oder mehrere gemeinsame Näherungen zu vereinfachen und sich auf die genauen Parameter der fraglichen Landschaft abzustimmen, was auch auf die vereinbarten Parameter abgestimmt ist, um den meisten "Knall für das Geld" zu erhalten.

Akademischer Kern

Die Implementierung eines realistischen Renderers hat immer ein grundlegendes Element der physikalischen Simulation oder Emulation - eine Berechnung, die einem realen physikalischen Prozess ähnelt oder Abstracte ist.

Der Begriff "physisch basiert"Zeigt die Verwendung physischer Modelle und Näherungen an, die allgemeiner und allgemein anerkannter sind. In der Rendering -Community wurde allmählich ein bestimmter Satz verwandter Techniken festgelegt.

Die grundlegenden Konzepte sind mäßig unkompliziert, aber unlösbar zu berechnen; Und ein einzelner eleganter Algorithmus oder Ansatz war für allgemeinere Renderer schwer fassbar. Um die Anforderungen von Robustheit, Genauigkeit und Praktikabilität zu erfüllen, wird eine Implementierung eine komplexe Kombination verschiedener Techniken sein.

Die Forschung betrifft sowohl mit der Anpassung wissenschaftlicher Modelle als auch mit ihrer effizienten Anwendung.

Die Rendering -Gleichung

Dies ist das wichtigste akademische/theoretische Konzept beim Rendern. Es dient als abstraktste formalste Ausdruck des nichtperzeptuellen Aspekts des Renders. Alle vollständigeren Algorithmen können als Lösungen für bestimmte Formulierungen dieser Gleichung angesehen werden.

Bedeutung: In einer bestimmten Position und Richtung das ausgehende Licht (lo) ist die Summe des emittierten Lichts (le) und das reflektierte Licht. Das reflektierte Licht ist die Summe des eingehenden Lichts (li) aus allen Richtungen, multipliziert mit der Oberflächenreflexion und dem eingehenden Winkel. Indem diese Gleichung über einen Wechselwirkungspunkt über einen Wechselwirkungspunkt mit dem inneren Licht mit innerem Licht verbindet, steht diese Gleichung für den gesamten „Lichttransport“ - die gesamte Bewegung des Lichts - in einer Szene.

Die bidirektionale Reflexionsverteilungsfunktion

Das Bidirektionale Reflexionsverteilungsfunktion (BRDF) drückt ein einfaches Modell der Lichtinteraktion mit einer Oberfläche wie folgt aus:

Die Lichtinteraktion wird häufig durch die noch einfacheren Modelle angenähert: diffuse Reflexion und spiegelende Reflexion, obwohl beide auch BRDFs sein können.

Geometrische Optik

Das Rendering befasst sich praktisch ausschließlich mit dem Partikelaspekt der Lichtphysik - bekannt als Geometrische Optik. Die Behandlung von Licht auf seiner grundlegenden Ebene, da Partikel, die herumprallten, eine Vereinfachung ist, aber angemessen: Die Wellenaspekte des Lichts sind in den meisten Szenen vernachlässigbar und sind wesentlich schwieriger zu simulieren. Bemerkenswerte Wellenaspekt -Phänomene umfassen die Beugung (wie in den Farben von gesehen CDs und DVDs) und Polarisation (wie in gesehen in LCDs). Bei Bedarf werden beide Arten von Wirkung durch Erscheinungsbild-orientierte Anpassung des Reflexionsmodells hergestellt.

Visuelle Wahrnehmung

Obwohl es weniger Aufmerksamkeit erhält, ein Verständnis von menschliche visuelle Wahrnehmung ist wertvoll für das Rendern. Dies liegt hauptsächlich daran, dass Bildanzeigen und menschliche Wahrnehmung eingeschränkte Bereiche haben. Ein Renderer kann eine breite Palette von Helligkeit und Farbe simulieren, aber aktuelle Anzeigen - Filmbildschirm, Computermonitor usw. - können nicht so viel verarbeiten, und etwas muss verworfen oder komprimiert werden. Die menschliche Wahrnehmung hat auch Grenzen und muss daher keine großrangigen Bilder erhalten, um Realismus zu erzeugen. Dies kann dazu beitragen, das Problem der Anpassung von Bildern in Displays zu lösen, und schlägt außerdem darauf hin, welche Kurzschnitte in der Rendering-Simulation verwendet werden können, da bestimmte Feinheiten nicht erkennbar sind. Dieses verwandte Thema ist Tonzuordnung.

Die zum Rendern verwendete Mathematik umfasst: Lineare Algebra, Infinitesimalrechnung, Numerische Mathematik, Signalverarbeitung, und Monte -Carlo -Methoden.

Das Rendering für Filme findet häufig in einem Netzwerk eng verbundener Computer statt Farm rendern.

Die jetzige[wenn?] Stand der Technik in 3-D-Bildbeschreibung für die Erstellung von Film ist die Mentaler Strahl Szenenbeschreibung Sprache entworfen bei Mentale Bilder und Renderman Shading Sprache entworfen bei Pixar[4] (Vergleiche mit einfacheren 3D -Dateiformaten wie z. Vrml oder Apis wie zum Beispiel OpenGL und DirectX auf 3D -Hardware -Beschleuniger maßgeschneidert).

Andere Renderer (einschließlich proprietärer) können und werden manchmal verwendet, aber die meisten anderen Renderer neigen dazu, einen oder mehrere der häufig benötigten Merkmale wie eine gute Texturfilterung, Strukturdrosung, programmierbare Shader, Highend -Geometrie -Typen wie Haare zu verpassen Unterteilung oder NURBS -Oberflächen mit Tesselation bei Bedarf, Geometrie -Caching, Raytracing mit Geometrie -Caching, hoher Qualität Schattenzuordnung, Geschwindigkeit oder patentfreie Implementierungen. Andere hoch gefragte Funktionen heutzutage können interaktive umfassen fotorealistisches Rendering(IPR) und Hardware -Rendering/-schattierung.

Chronologie wichtiger veröffentlichter Ideen

Rendering von an Estcube-1 Satellit

Siehe auch

Verweise

  1. ^ "Relativistische Strahlenverfolgung: Simulation des visuellen Erscheinungsbilds schnell bewegender Objekte". 1995. Citeseerx 10.1.1.56.830. {{}}: Journal zitieren erfordert |journal= (Hilfe)
  2. ^ a b Tewari, A.; Fried, O.; Thies, J.; Sitzmann, V.; Lombardi, S.; Sunkavalli, K.; Martin -Brualla, R.; Simon, T.; Saragih, J.; Nißner, M.; Pandey, R.; Fanello, S.; Wetzstein, G.; Zhu, J. -Y.; Theobalt, C.; Agrawala, M.; Shechtman, E.; Goldman, D. B.; Zollhöfer, M. (2020). "Stand der Kunst zum neuronalen Rendering". Computergrafikforum. 39 (2): 701–727. Arxiv:2004.03805. doi:10.1111/cgf.14022. S2CID 215416317.
  3. ^ Ritter, Will. "Ein neuer Trick lässt künstliche Intelligenz in 3D sehen". Verdrahtet. ISSN 1059-1028. Abgerufen 2022-02-08.
  4. ^ Raghavachary, Saty (30. Juli 2006). "Eine kurze Einführung in Renderman". ACM Siggraph 2006 Kurse zu - Siggraph '06. ACM. p. 2. doi:10.1145/1185657.1185817. ISBN 978-1595933645. S2CID 34496605. Abgerufen 7. Mai 2018 - via dl.acm.org.
  5. ^ Appel, A. (1968). "Einige Techniken für die Schattierungsmaschinen -Renderings von Festkörpern" (PDF). Verfahren der Spring Joint Computer Conference. Vol. 32. S. 37–49. Archiviert (PDF) vom Original am 2012-03-13.
  6. ^ Bouknight, W. J. (1970). "Ein Verfahren zur Erzeugung von dreidimensionalen Halb-Tone-Computergrafikpräsentationen". Kommunikation der ACM. 13 (9): 527–536. doi:10.1145/362736.362739. S2CID 15941472.
  7. ^ Gouraud, H. (1971). "Kontinuierliche Schattierung gebogener Oberflächen" (PDF). IEEE -Transaktionen auf Computern. 20 (6): 623–629. doi:10.1109/t-c.1971.223313. S2CID 123827991. Archiviert von das Original (PDF) Am 2010-07-02.
  8. ^ a b c d "Geschichte | School of Computing". Archiviert vom Original am 2013-12-03. Abgerufen 2021-11-22.
  9. ^ Phong, b-t (1975). "Beleuchtung für computergenerierte Bilder" (PDF). Kommunikation der ACM. 18 (6): 311–316. Citeseerx 10.1.1.330.4718. doi:10.1145/360825.360839. S2CID 1439868. Archiviert von das Original (PDF) Am 2012-03-27.
  10. ^ Bui Tuong Phong, Beleuchtung für computergenerierte Bilder Archiviert 2016-03-20 bei der Wayback -Maschine, Kommunikation von ACM 18 (1975), Nr. 6, 311–317.
  11. ^ a b Putas. "Der Weg nach Hause 3D". vintage3d.org. Archiviert Aus dem Original am 15. Dezember 2017. Abgerufen 7. Mai 2018.
  12. ^ a b Catmull, E. (1974). Ein Unterteilungsalgorithmus für die Computeranzeige von gekrümmten Oberflächen (PDF) (Doktorarbeit). Universität von Utah. Archiviert von das Original (PDF) Am 2014-11-14. Abgerufen 2011-07-15.
  13. ^ Blinn, J.F.; Newell, M.E. (1976). "Textur und Reflexion in computergenerierten Bildern". Kommunikation der ACM. 19 (10): 542–546. Citeseerx 10.1.1.87.8903. doi:10.1145/360349.360353. S2CID 408793.
  14. ^ Blinn, James F. (20. Juli 1977). "Modelle der Lichtreflexion für Computer -synthetisierte Bilder". ACM Siggraph Computergrafik. 11 (2): 192–198. doi:10.1145/965141.563893 - via dl.acm.org.
  15. ^ "Bomber - Videospiel von Sega". www.arcade-museum.com. Archiviert von das Original am 17. Oktober 2017. Abgerufen 7. Mai 2018.
  16. ^ Crow, F.C. (1977). "Schattenalgorithmen für Computergrafiken" (PDF). Computergrafik (Proceedings of Siggraph 1977). Vol. 11. S. 242–248. Archiviert von das Original (PDF) Am 2012-01-13. Abgerufen 2011-07-15.
  17. ^ Williams, L. (1978). "Krümmte Schatten auf gekrümmte Oberflächen werfen". Computergrafik (Proceedings of Siggraph 1978). Vol. 12. S. 270–274. Citeseerx 10.1.1.134.8225.
  18. ^ Blinn, J.F. (1978). Simulation von faltigen Oberflächen (PDF). Computergrafik (Proceedings of Siggraph 1978). Vol. 12. S. 286–292. Archiviert (PDF) Aus dem Original am 01.2012.2012.
  19. ^ Wolf, Mark J. P. (15. Juni 2012). Vor dem Absturz: Frühes Videospielgeschichte. Wayne State University Press. ISBN 978-0814337226. Archiviert Aus dem Original am 2. Mai 2019. Abgerufen 7. Mai 2018 - über Google Books.
  20. ^ Fuchs, H.; Kedem, Z.M.; Naylor, B. F. (1980). Auf sichtbare Oberflächenerzeugung durch a priori Baumstrukturen. Computergrafik (Proceedings of Siggraph 1980). Vol. 14. S. 124–133. Citeseerx 10.1.1.112.4406.
  21. ^ White, T. (1980). "Ein verbessertes Beleuchtungsmodell für schattiertes Display". Kommunikation der ACM. 23 (6): 343–349. Citeseerx 10.1.1.114.7629. doi:10.1145/358876.358882. S2CID 9524504.
  22. ^ Purcaru, Bogdan Ion (13. März 2014). "Games vs. Hardware. Die Geschichte der PC -Videospiele: die 80er Jahre". Purcaru Ion Bogdan. Archiviert vom Original am 30. April 2021. Abgerufen 7. Mai 2018 - über Google Books.
  23. ^ "System 16 - Sega VCO -Objekthardware (Sega)". www.system16.com. Archiviert von das Original am 5. April 2016. Abgerufen 7. Mai 2018.
  24. ^ Cook, R.L.; Torrance, K.E. (1981). Ein Reflexionsmodell für Computergrafiken. Computergrafik (Proceedings of Siggraph 1981). Vol. 15. S. 307–316. Citeseerx 10.1.1.88.7796.
  25. ^ Williams, L. (1983). Pyramidenparametrie. Computergrafik (Proceedings of Siggraph 1983). Vol. 17. S. 1–11. Citeseerx 10.1.1.163.6298.
  26. ^ Glassner, A.S. (1984). "Space -Unterteilung für schnelle Strahlenverfolgung". IEEE -Computergrafiken und Anwendungen. 4 (10): 15–22. doi:10.1109/mcg.1984.6429331. S2CID 16965964.
  27. ^ Porter, T.; Duff, T. (1984). Digitale Bilder zusammenstellen (PDF). Computergrafik (Proceedings of Siggraph 1984). Vol. 18. S. 253–259. Archiviert (PDF) vom Original am 2015-02-16.
  28. ^ Cook, R.L.; Porter, T.; Zimmermann, L. (1984). Verteilte Strahlenverfolgung (PDF). Computergrafik (Proceedings of Siggraph 1984). Vol. 18. S. 137–145.[Permanent Dead Link]
  29. ^ Goral, C.; Torrance, K.E.; Greenberg, D.P.; Battaile, B. (1984). Modellierung der Wechselwirkung des Lichts zwischen diffusen Oberflächen. Computergrafik (Proceedings of Siggraph 1984). Vol. 18. S. 213–222. Citeseerx 10.1.1.112.356.
  30. ^ "Archivierte Kopie". Archiviert von das Original am 2016-03-04. Abgerufen 2016-08-08.{{}}: CS1 Wartung: Archiviertes Kopie als Titel (Link)
  31. ^ Cohen, M.F.; Greenberg, D.P. (1985). Die Hemi-Kube: eine Radiositätslösung für komplexe Umgebungen (PDF). Computergrafik (Proceedings of Siggraph 1985). Vol. 19. S. 31–40. doi:10.1145/325165.325171. Archiviert von das Original (PDF) Am 2014-04-24. Abgerufen 2020-03-25.
  32. ^ Arvo, J. (1986). Rückwärtsverfolgung nach hinten. Siggraph 1986 Entwicklungen in Ray Tracing -Kursnotizen. Citeseerx 10.1.1.31.581.
  33. ^ Kajiya, J. (1986). Die Rendering -Gleichung. Computergrafik (Proceedings of Siggraph 1986). Vol. 20. S. 143–150. Citeseerx 10.1.1.63.1402.
  34. ^ Cook, R.L.; Zimmermann, L.; Catmull, E. (1987). Die Reyes Image Rendering Architecture (PDF). Computergrafik (Proceedings of Siggraph 1987). Vol. 21. S. 95–102. Archiviert (PDF) Aus dem Original am 07.07.15.
  35. ^ a b c "Archivierte Kopie". Archiviert von das Original Am 2014-10-03. Abgerufen 2014-10-02.{{}}: CS1 Wartung: Archiviertes Kopie als Titel (Link)
  36. ^ Wu, Xiaolin (Juli 1991). Eine effiziente Antialiasing -Technik. Computergrafik. Vol. 25. S. 143–152. doi:10.1145/127719.122734. ISBN 978-0-89791-436-9.
  37. ^ Wu, Xiaolin (1991). "Schnelle anti-aliased Circle Generation". In James Arvo (Hrsg.). Grafik -Edelsteine ​​II. San Francisco: Morgan Kaufmann. S. 446–450. ISBN 978-0-12-064480-3.
  38. ^ Hanrahan, P.; Salzman, D.; Aupperle, L. (1991). Ein schnell hierarchischer Radiositätsalgorithmus. Computergrafik (Proceedings of Siggraph 1991). Vol. 25. S. 197–206. Citeseerx 10.1.1.93.5694.
  39. ^ "IGN präsentiert die Geschichte von Sega". IGN.com. 21. April 2009. Archiviert Aus dem Original am 16. März 2018. Abgerufen 7. Mai 2018.
  40. ^ "System 16 - Sega Modell 2 Hardware (SEGA)". www.system16.com. Archiviert Aus dem Original am 21. Dezember 2010. Abgerufen 7. Mai 2018.
  41. ^ a b c d "System 16 - NAMCO Magic Edge Hornet Simulator Hardware (NAMCO)". www.system16.com. Archiviert Aus dem Original am 12. September 2014. Abgerufen 7. Mai 2018.
  42. ^ M. Oren und S.K. Nayar ","Verallgemeinerung des Reflexionsmodells von Lambert Archiviert 2010-02-15 am Wayback -Maschine". Siggraph. S. 239-246, Jul, 1994
  43. ^ Tumblin, J.; Rushmeier, H.E. (1993). "Tonreproduktion für realistische computergenerierte Bilder" (PDF). IEEE -Computergrafiken und Anwendungen. 13 (6): 42–48. doi:10.1109/38.252554. S2CID 6459836. Archiviert (PDF) vom Original am 2011-12-08.
  44. ^ Hanrahan, P.; Krueger, W. (1993). Reflexion von geschichteten Oberflächen aufgrund von Untergrundstreuung. Computergrafik (Proceedings of Siggraph 1993). Vol. 27. S. 165–174. Citeseerx 10.1.1.57.9761.
  45. ^ Miller, Gavin (24. Juli 1994). "Effiziente Algorithmen für die lokale und globale Zugänglichkeitsschattierung". Verfahren der 21. Jahreskonferenz zu Computergrafiken und interaktiven Techniken - Siggraph '94. ACM. S. 319–326. doi:10.1145/192161.192244. ISBN 978-0897916677. S2CID 15271113. Archiviert vom Original am 22. November 2021. Abgerufen 7. Mai 2018 - via dl.acm.org.
  46. ^ "Archivierte Kopie" (PDF). Archiviert (PDF) vom Original am 2016-10-11. Abgerufen 2016-08-08.{{}}: CS1 Wartung: Archiviertes Kopie als Titel (Link)
  47. ^ Jensen, H.W.; Christensen, N. J. (1995). "Photonenkarten in der bidirektionalen Monte -Carlo -Strahlenverfolgung komplexer Objekte". Computer & Grafiken. 19 (2): 215–224. Citeseerx 10.1.1.97.2724. doi:10.1016/0097-8493 (94) 00145-o.
  48. ^ "System 16 - SEGA -Modell 3 Schritt 1.0 Hardware (SEGA)". www.system16.com. Archiviert Aus dem Original am 6. Oktober 2014. Abgerufen 7. Mai 2018.
  49. ^ Veach, E.; Guibas, L. (1997). Metropolis Lichttransport. Computergrafik (Proceedings of Siggraph 1997). Vol. 16. S. 65–76. Citeseerx 10.1.1.88.944.
  50. ^ Keller, A. (1997). Sofortige Radiosität. Computergrafik (Proceedings of Siggraph 1997). Vol. 24. S. 49–56. Citeseerx 10.1.1.15.240.
  51. ^ "Hardware Review: Neon 250 Spezifikationen und Funktionen". SharkyExtreme.com. Archiviert von das Original am 2007-08-07. Abgerufen 2021-11-22.
  52. ^ Lewis, J. P.; Cordner, Matt; Fong, Nickson (1. Juli 2000). "Pose Raumdeformation". Verformung von Pose-Raum. ACM Press/Addison-Wesley Publishing Co. S. 165–172. doi:10.1145/344779.344862. ISBN 978-1581132083. S2CID 12672235 - via dl.acm.org.
  53. ^ Sloan, P.; Kautz, J.; Snyder, J. (2002). Vorberechtigter Strahlenübertragung für Echtzeit-Rendering in dynamischen Umgebungen mit niedriger Frequenzbeleuchtung (PDF). Computergrafik (Proceedings of Siggraph 2002). Vol. 29. S. 527–536. Archiviert von das Original (PDF) Am 2011-07-24.

Weitere Lektüre

  • Akenine-Möller, Tomas; Haines, Eric (2004). Echtzeit-Rendering (2 ed.). Natick, Mass.: AK Peters. ISBN 978-1-56881-182-6.
  • Blinn, Jim (1996). Jim Blinns Ecke: Eine Reise entlang der Grafikpipeline. San Francisco, Kalifornien: Morgan Kaufmann Publishers. ISBN 978-1-55860-387-5.
  • Cohen, Michael F.; Wallace, John R. (1998). Radiosität und realistische Bildsynthese (3 ed.). Boston, Mass. [U.A.]: Academic Press Professional. ISBN 978-0-12-178270-2.
  • Philip Dutré; Bekaert, Philippe; Bala, Kavita (2003). Erweiterte globale Beleuchtung ([Online-Ausg.] Ed.). Natick, Mass.: A K Peters. ISBN 978-1-56881-177-2.
  • Foley, James D.; Van Dam; Feiner; Hughes (1990). Computergrafik: Prinzipien und Praxis (2 ed.). Reading, Mass.: Addison-Wesley. ISBN 978-0-201-12110-0.
  • Andrew S. Glassner, hrsg. (1989). Eine Einführung in die Ray Tracing (3 ed.). London [U.A.]: Acad. Drücken Sie. ISBN 978-0-12-286160-4.
  • Glassner, Andrew S. (2004). Prinzipien der digitalen Bildsynthese (2 ed.). San Francisco, Kalifornien: Kaufmann. ISBN 978-1-55860-276-2.
  • Gooch, Bruce; Gooch, Amy (2001). Nicht-photorealistischer Rendering. Natick, Mass.: A K Peters. ISBN 978-1-56881-133-8.
  • Jensen, Henrik Wann (2001). Realistische Bildsynthese mit Photon Mapping ([Nachdr.] Ed.). Natick, Mass.: AK Peters. ISBN 978-1-56881-147-5.
  • Pharr, Matt; Humphreys, Greg (2004). Physisch basiertes Rendern von der Theorie zur Umsetzung. Amsterdam: Elsevier/Morgan Kaufmann. ISBN 978-0-12-553180-1.
  • Shirley, Peter; Morley, R. Keith (2003). Realistische Strahlenverfolgung (2 ed.). Natick, Mass.: AK Peters. ISBN 978-1-56881-198-7.
  • Strothotte, Thomas; Schlechtweg, Stefan (2002). Nicht-photorealistische Computergrafikmodellierung, Rendering und Animation (2 ed.). San Francisco, CA: Morgan Kaufmann. ISBN 978-1-55860-787-3.
  • Ward, Gregory J. (Juli 1994). "Die Strahlungsbeleuchtungssimulation und das Rendering -System". Siggraph 94: 459–72. doi:10.1145/192161.192286. ISBN 0897916670. S2CID 2487835.

Externe Links