Lautstärkewiedergabe

Mehrere Röntgen-Tomographien (mit Quantitative Mineraldichtekalibrierung) gestapelt, um ein 3D -Modell zu bilden.
Volumen gerendert Ct Scannen Sie einen Unterarm mit unterschiedlichen Farbschemata für Muskeln, Fett, Knochen und Blut

Im Wissenschaftliche Visualisierung und Computergrafik, Lautstärkewiedergabe ist eine Reihe von Techniken, die verwendet werden, um eine 2D probiert Datensatz, normalerweise eine 3D Skalarfeld.

Ein typischer 3D -Datensatz ist eine Gruppe von 2D -Slice -Bildern, die von a aufgenommen wurden Ct, MRT, oder Microct Scanner. Normalerweise werden diese in einem regulären Muster (z. B. eine Scheibe für jeden Millimeter Tiefe) erfasst und haben normalerweise eine regelmäßige Anzahl von Bild Pixel in einem regulären Muster. Dies ist ein Beispiel für ein regelmäßiges volumetrisches Gitter mit jedem Volumenelement oder Voxel Dargestellt durch einen einzelnen Wert, der durch Abtastung der unmittelbaren Fläche, die das Voxel umgibt, erhalten wird.

Um eine 2D -Projektion des 3D -Datensatzes zu rendern, muss man zunächst a definieren Kamera im Raum relativ zum Volumen. Außerdem muss man das definieren Opazität und Farbe jedes Voxels. Dies wird normalerweise mit einem definiert RGBA (für Rot, Grün, Blau, Alpha) Übertragungsfunktion, die den RGBA -Wert für jeden möglichen Voxelwert definiert.

Zum Beispiel kann ein Volumen durch Extrahieren betrachtet werden Isos Flurfe (Oberflächen gleicher Werte) aus dem Volumen und rendern sie als Polygonale Maschen oder durch das direkte Datenblock als Datenblock. Das Marschwürfel Der Algorithmus ist eine gemeinsame Technik zum Extrahieren einer Isospace aus Volumendaten. Direktes Volumenrendern ist eine rechenintensive Aufgabe, die auf verschiedene Weise ausgeführt werden kann.

Zielfernrohr

Arten von Präsentationen von CT Scans, mit zwei Beispielen für das Volumentrending.

Das Volumenrendern unterscheidet sich von einer dünnen Scheibe Tomographie Präsentationen und unterscheidet sich im Allgemeinen auch von Projektionen von 3D -Modellen, einschließlich Maximale Intensitätsprojektion.[1] Technisch gesehen werden alle Volumen -Renderings zu Projektionen, wenn sie auf a betrachtet werden 2-dimensionales DisplayUnterscheidung zwischen Projektionen und Volumen macht etwas vage. Trotzdem bieten die Epitome der Volumenrendernmodelle eine Mischung aus zum Beispiel Färben[2] und Schattierung[3] Um realistische und/oder beobachtbare Darstellungen zu erstellen.

Direktes Volumenrendern

Ein direkter Volumenrenderer[4][5] erfordert, dass jeder Probenwert der Deckkraft und einer Farbe zugeordnet wird. Dies geschieht mit einem "Übertragungsfunktion"Welches kann eine einfache Rampe sein, a stückweise lineare Funktion oder eine willkürliche Tabelle. Einmal konvertiert zu einem RGBA -Farbmodell (Für rot, grün, blau, alpha) Wert wird das komponierte RGBA -Ergebnis auf das entsprechende Pixel des Rahmenpuffers projiziert. Die Art und Weise, wie dies geschehen ist, hängt von der Rendering -Technik ab.

Eine Kombination dieser Techniken ist möglich. Zum Beispiel könnte eine Scherverzerrungsimplementierung mit Texturing -Hardware die ausgerichteten Slices in der Off-Screen-Puffer.

Volumenstrahlguss

Volumenstrahlguss. Krokodilmumie vom Phoebe A. Hearst Museum of Anthropology, UC Berkeley. CT -Daten wurden von Dr. Rebecca Fahrig, Abteilung für Radiologie der Stanford University, mit einer Siemens -Somatom -Definition, Siemens Healthcare, übernommen. Das Bild wurde von Fovia's High Definition Volumen Rendering® Engine gemacht

Die Technik des Volumenstrahlgusss kann direkt von der abgeleitet werden Rendern der Gleichung. Es liefert Ergebnisse von sehr hoher Qualität, die normalerweise als die beste Bildqualität angesehen werden. Das Volumenstrahlabguss wird als bildbasierte Volumenrenderungstechnik klassifiziert, da die Berechnung aus dem Ausgabebild ausgeht, nicht die Daten für Eingabevolumen, wie dies bei objektbasierten Techniken der Fall ist. In dieser Technik wird für jedes gewünschte Bildpixel ein Strahl erzeugt. Mit einem einfachen Kameramodell startet der Strahl in der Mitte der Projektion der Kamera (normalerweise des Augenpunkts) und geht durch das Bildpixel der imaginären Bildebene, die zwischen der Kamera und dem zu rendernden Volumen schwebt. Der Strahl wird von den Grenzen des Bandes abgeschnitten, um Zeit zu sparen. Dann wird der Strahl während des gesamten Volumens in regelmäßigen oder adaptiven Intervallen abgetastet. Die Daten werden an jedem Probenpunkt interpoliert, die Übertragungsfunktion, die zur Bildung einer RGBA -Probe angewendet wird, die Probe wird auf die akkumulierte RGBA des Strahls zusammengesetzt und der Vorgang wiederholt, bis der Strahl das Volumen verlässt. Die RGBA -Farbe wird in eine RGB -Farbe umgewandelt und im entsprechenden Bildpixel abgelagert. Der Vorgang wird für jedes Pixel auf dem Bildschirm wiederholt, um das abgeschlossene Bild zu bilden.

Splating

Dies ist eine Technik, die die Qualität für Geschwindigkeit trifft. Hier ist jedes Volumenelement gespreizt, wie Lee Westover wie ein Schneeball in der Back -to -Front -Reihenfolge auf die Betrachtungsfläche sagte. Diese Splatten werden als Festplatten gerendert, deren Eigenschaften (Farbe und Transparenz) diametral in normalem (normalen (Gaußscher) Benehmen. Flache Datenträger und Personen mit anderen Arten von Eigenschaftenverteilung werden je nach Anwendung ebenfalls verwendet.[6][7]

Scherverzerrung

Beispiel eines Mausschädels (CT) -Renders mit dem Scher -Warp -Algorithmus

Der Shear Warp -Ansatz zum Volumentrending wurde von Cameron und Unrill entwickelt, das von Philippe Lacroute und populär gemacht wurde Marc Levoy.[8] In dieser Technik die Transformation anzeigen wird so transformiert, dass die nächstgelegene Fläche des Volumens Achse mit einem außerbildenden Bild ausgerichtet wird Datenpuffer mit einer festen Skala von Voxel zu Pixeln. Das Volumen wird dann unter Verwendung der weitaus günstigeren Speicherausrichtung und der festen Skalierung und Mischfaktoren in diesen Puffer gerendert. Sobald alle Scheiben des Volumens gerendert wurden, wird der Puffer dann in die gewünschte Ausrichtung verzerrt und im angezeigten Bild skaliert.

Diese Technik ist in der Software relativ schnell auf Kosten einer weniger genauen Abtastung und möglicherweise schlechterer Bildqualität im Vergleich zum Strahlenguss. Es gibt Speicheraufwand für das Speichern mehrerer Kopien des Volumens, um die in der Nähe von Achsen ausgerichtete Volumina zu haben. Dieser Overhead kann mithilfe der Minderung gemindert werden Kodierung der Länge.

Texturbasiertes Volumenrendern

Ein Volumen, das Leichenkopf unter Verwendung von View-ausgerichtet wurde Textur-Mapping und diffuse Reflexion

Viele 3D -Grafiksysteme verwenden Textur-Mapping Bilder oder Texturen auf geometrische Objekte anwenden. Warenpc Grafikkarten sind schnell in der Texturierung und können Scheiben eines 3D -Volumens mit Echtzeit -Interaktionsfunktionen effizient rendern. Arbeitsplatz GPUS sind noch schneller und sind die Grundlage für einen Groß medizinische Bildgebung, Öl und Gas und andere Märkte (2007). In früheren Jahren wurden dedizierte 3D -Texturzuordnungssysteme für Grafiksysteme wie z. Siliziumgrafik Unendliche, HP Visualisieren Sie FX Grafikbeschleuniger, und andere. Diese Technik wurde zuerst von beschrieben von Bill Hibbard und Dave Santek.[9]

Diese Scheiben können entweder mit dem Volumen ausgerichtet und in einem Winkel an den Betrachter gerendert oder mit der Betrachtungsebene ausgerichtet und aus nicht ausgerichteten Scheiben durch das Volumen ausgetastet werden. Für die zweite Technik ist die Grafikhardwareunterstützung für 3D -Texturen erforderlich.

Volumen ausgerichtete Texturierung erzeugt Bilder von angemessener Qualität, obwohl es häufig einen merklichen Übergang gibt, wenn das Volumen gedreht wird.

Hardware-Beschleunigungsvolumenwiedergabe

Aufgrund der extrem parallelen Natur des direkten Volumens war die Rendering -Hardware für das Rendering von Special Purpical Volumen ein reichhaltiges Forschungsthema zuvor GPU Das Volumenrendern wurde schnell genug. Die am häufigsten zitierte Technologie war das VolumePro-Echtzeit-Ray-Casting-System, das von entwickelt wurde von HANSPeter Pfister und Wissenschaftler bei Mitsubishi Electric Research Laboratories,[10] die eine hohe Speicherbandbreite und die Brute -Kraft verwendete, um mit dem Ray Casting -Algorithmus zu rendern. Die Technologie wurde an Terarecon, Inc. übertragen, und zwei Generationen von ASICs wurden produziert und verkauft. Der VP1000[11] wurde im Jahr 2002 und im VP2000 veröffentlicht[12] in 2007.

Eine kürzlich ausgebeutete Technik zur Beschleunigung des traditionellen Volumensendungsalgorithmen wie Ray-Casting ist die Verwendung moderner Grafikkarten. Beginnend mit dem programmierbaren Pixel -Shader, Menschen erkannten die Kraft paralleler Operationen auf mehreren Pixeln und begannen mit der Durchführung Allzweck-Computing auf (den) Grafikverarbeitungseinheiten (Gpgpu). Das Pixel -Shader sind in der Lage, zufällig aus dem Videospeicher zu lesen und zu schreiben und einige grundlegende mathematische und logische Berechnungen durchzuführen. Diese Simd Prozessoren wurden verwendet, um allgemeine Berechnungen wie das Rendern von Polygonen und die Signalverarbeitung durchzuführen. In den letzten GPU Generationen können die Pixel -Shader jetzt als funktionieren Mimd Prozessoren (jetzt in der Lage, unabhängig zu verzweigen) unter Verwendung von bis zu 1 GB Texturgedächtnis mit schwimmenden Punktformaten. Mit solcher Macht praktisch jeder Algorithmus mit Schritten, die parallel durchgeführt werden können, wie z. Volumenstrahlguss oder Tomographischer Rekonstruktion, kann mit enormer Beschleunigung durchgeführt werden. Das programmierbare Pixel -Shader Kann verwendet werden, um Variationen in den Eigenschaften von Beleuchtung, Schatten, Reflexion, emissionsige Farbe usw. zu simulieren. Solche Simulationen können mit hohem Niveau geschrieben werden Schattierungssprachen.

Optimierungstechniken

Das Hauptziel der Optimierung ist es, so viel Volumen wie möglich zu überspringen. Ein typischer medizinischer Datensatz kann eine Größe von 1 GB haben. Um das bei 30 Frame/s zu rendern, erfordert ein extrem schneller Speicherbus. Überspringen von Voxeln bedeutet, dass weniger Informationen verarbeitet werden müssen.

Leerer Raum überspringen

Oft verfügt ein Volumentrendersystem über ein System zum Identifizieren von Regionen des Volumens, das kein sichtbares Material enthält. Diese Informationen können verwendet werden, um diese transparenten Regionen zu vermeiden.[13]

Frühe Strahlungsbeendigung

Dies ist eine Technik, die verwendet wird, wenn das Volumen vorne bis hinten Reihenfolge gerendert wird. Für einen Strahl durch ein Pixel, sobald ausreichend dichtes Material aufgetreten ist, werden weitere Proben keinen signifikanten Beitrag zum Pixel leisten und möglicherweise vernachlässigt werden.

Octree und BSP Space -Unterteilung

Die Verwendung hierarchischer Strukturen wie z. Octree und BSP-Tree könnte sowohl für die Komprimierung von Volumendaten als auch für die Geschwindigkeitsoptimierung des volumetrischen Strahlengussprozesses sehr hilfreich sein.

Volumensegmentierung

Die Volumensegmentierung umfasst automatische Knochenentfernung, wie sie im richtigen Bild verwendet werden CT -Angiographie.
Volumensegmentierung einer 3D-gerenderten CT-Scan des Thorax: Die vordere Brustwand, die Atemwege und die Lungengefäße, die vor der Wurzel der Lunge anterior sind, wurden digital entfernt, um den Thoraxgehalt zu visualisieren:
- blau: Pulmonalarterien
- rot: Lungenvenen (und auch die Bauchdecke)
- gelb: das Mediastinum
- violett: das Membran

Bildsegmentierung ist ein manuelles oder automatisches Verfahren, mit dem große Teile des Volumens, das man vor dem Rendern uninteressant berücksichtigt, die Anzahl der Berechnungen, die durch Strahlenguss oder Texturmischung durchgeführt werden müssen, erheblich reduziert werden können. Diese Reduktion kann für n nacheinander indizierte Voxel so stark von O (n) zu O (log n) betragen. Die Volumensegmentierung hat auch erhebliche Leistungsvorteile für andere Strahlenverfolgung Algorithmen. Die Volumensegmentierung kann anschließend verwendet werden, um interessierende Strukturen hervorzuheben.

Multiple und adaptive Lösung Darstellung

Durch die Darstellung von weniger interessanten Regionen des Volumens in einer groben Auflösung kann der Dateneingangsaufwand reduziert werden. Bei näherer Beobachtung können die Daten in diesen Regionen entweder durch Lesen aus dem Speicher oder der Festplatte oder durch Interpolation. Das volumigere Auflösungsvolumen wird auf die gleiche Weise auf die gleiche Weise neu abgetastet, wie ein 2D -MIPMAP -Bild aus dem Original erstellt wird. Dieses kleinere Volumen wird auch selbst verwendet, während das Volumen zu einer neuen Orientierung gedreht wird.

Vorintegriertes Volumenrendern

Vorintegriertes Volumenrendern[14] ist eine Methode, mit der Abtastartefakte reduziert werden können, indem ein Großteil der erforderlichen Daten vorbereitet wird. Es ist besonders nützlich in hardwarebeschleunigten Anwendungen[15][16] Weil es die Qualität ohne große Leistungswirkung verbessert. Im Gegensatz zu den meisten anderen Optimierungen überspringt dies keine Voxel. Vielmehr reduziert es die Anzahl der Proben, die erforderlich sind, um einen Voxelbereich genau anzuzeigen. Die Idee ist, die Intervalle zwischen den Proben anstelle der Proben selbst zu rendern. Diese Technik erfasst sich schnell verändernes Material, zum Beispiel den Übergang von Muskeln zu Knochen mit viel weniger Berechnung.

Bildbasiertes Mesen

Bildbasiertes Mesen ist der automatisierte Prozess des Erstellens von Computermodellen aus 3D -Bilddaten (z. MRT, Ct, Industrielle CT oder Mikrotomographie) Für die Rechenanalyse und -gestaltung, z. CAD, CFD und FEA.

Zeitliche Wiederverwendung von Voxeln

Für eine vollständige Anzeigeansicht muss nur ein Voxel pro Pixel (die vordere) angezeigt werden (obwohl mehr zum Glätten des Bildes verwendet werden kann). Wenn die Animation erforderlich ist, können die zu angezeigten vorderen Voxel zwischengespeichert und deren Standort verwendet werden relativ zur Kamera kann im Laufe der Bewegung neu berechnet werden. Wenn Display -Voxel zu weit voneinander entfernt werden, um alle Pixel abzudecken, können neue Frontvoxel durch Strahlenguss oder ähnliches gefunden werden. Wo sich zwei Voxel in einem Pixel befinden, kann die vordere aufbewahrt werden.

Liste der verwandten Software

Open Source
  • 3D Slicer - Ein Softwarepaket zur wissenschaftlichen Visualisierung und Bildanalyse
  • Clearvolume -Eine GPU-Ray-Casting-basierte Live-3D-Visualisierungsbibliothek für hochwertige volumetrische Lichtblattmikroskope.
  • Paraview -eine plattformübergreifende, große Datenanalyse und Visualisierungsanwendung. Paraview -Benutzer können schnell Visualisierungen erstellen, um ihre Daten mithilfe qualitativer und quantitativer Techniken zu analysieren. Paraview basiert auf VTK (unten).
  • Studierfenster (Studierfenster) -Ein kostenloser Online-Framework (Open Science Client/Server-basierte medizinische Bildgebungsverarbeitung) für medizinische Bildgebungsverarbeitung (MIP).
  • Vaa3d - Eine 3D-, 4D- und 5D -Lautstärkeregendern- und Bildanalyseplattform für Gigabyte und Terabyte großer Bilder (basierend auf OpenGL), insbesondere im Mikroskopie -Bildfeld. Auch plattformübergreifend mit Mac-, Windows- und Linux-Versionen. Fügen Sie eine umfassende Plugin -Schnittstelle und 100 Plugins für die Bildanalyse hinzu. Rendern Sie auch mehrere Arten von Oberflächenobjekten.
  • Besuch -Ein plattformübergreifendes interaktives parallele Visualisierung und grafische Analyse-Tool zum Anzeigen wissenschaftlicher Daten.
  • Bandkartographie - Eine Open -Source -Software zur Wiederherstellung der Wiederherstellung der En-gegnerische Schriftrolle.
  • Voreen -Ein plattformübergreifendes Rapid Application Development Framework für die interaktive Visualisierung und Analyse multimodaler volumetrischer Datensätze. Es bietet GPU-basierte Volumenwiedergabe- und Datenanalysetechniken
  • Vtk -Ein allgemeines C ++-Toolkit für Datenverarbeitung, Visualisierung, 3D-Interaktion, Computergeometrie mit Python- und Java-Bindungen. Auch Vtk.js bietet eine JavaScript -Implementierung.
Kommerziell
  • Ambivu 3D Workstation - Eine medizinische Bildgebungs -Workstation, die eine Reihe von Volumen -Rendering -Modi bietet (basierend auf OpenGL)
  • Amira - Eine 3D -Visualisierungs- und Analyse -Software für Wissenschaftler und Forscher (in Biowissenschaften und biomedizinisch)
  • Imaris - Ein wissenschaftliches Softwaremodul, das alle erforderlichen Funktionen für Datenverwaltung, Visualisierung, Analyse, Segmentierung und Interpretation von 3D- und 4D -Mikroskopie -Datensätzen liefert
  • Mevislab -plattformübergreifende Software für die medizinische Bildverarbeitung und Visualisierung (basierend auf OpenGL und Open Inventor)
  • Offener Erfinder -Eine hochrangige 3D-API für die 3D-Grafiksoftwareentwicklung (C ++, .NET, Java)
  • Scanip - eine Bildverarbeitung und Bildbasiertes Mesen Plattform, mit der Daten (MRT, CT, Micro-CT ...) in 3D direkt nach dem Import rendern können.
Beispiel eines Fliegenhirns mit den Oberflächenmodellen seiner Kompartimente unter Verwendung von VAA3D
  • Tomviz - Eine 3D -Visualisierungsplattform für Wissenschaftler und Forscher, die Python -Skripte für die erweiterte 3D -Datenverarbeitung verwenden können.
  • Volumedisch - Eine Volumenschneide- und Rendering -Software

Siehe auch

Verweise

  1. ^ Fishman, Elliot K.; Ney, Derek R.; Heath, David G.; Corl, Frank M.; Horton, Karen M.; Johnson, Pamela T. (2006). "Volumenrendern gegen maximale Intensitätsprojektion in der CT -Angiographie: Was funktioniert am besten, wann und warum". Röntgenaufnahmen. 26 (3): 905–922. doi:10.1148/rg.263055186. ISSN 0271-5333. PMID 16702462.
  2. ^ Silverstein, Jonathan C.; Parsad, Nigel M.; Tsirline, Victor (2008). "Automatische Wahrnehmungskartenerzeugung für die realistische Volumenvisualisierung". Journal of Biomedical Informatics. 41 (6): 927–935. doi:10.1016/j.jbi.2008.02.008. ISSN 1532-0464. PMC 2651027. PMID 18430609.
  3. ^ Seite 185 in Leif Kobbelt (2006). Vision, Modellierung und Visualisierung 2006: Proceedings, 22. bis 24. November. IOS Press. ISBN 9783898380812.
  4. ^ Marc Levoy, "Anzeige von Oberflächen aus Volumendaten", IEEE CG & A, Mai 1988. Archiv des Papiers
  5. ^ Drebin, Robert A.; Zimmermann, Loren; Hanrahan, Pat (1988). "Volumenrending". ACM Siggraph Computergrafik. 22 (4): 65. doi:10.1145/378456.378484. Drebin, Robert A.; Zimmermann, Loren; Hanrahan, Pat (1988). Verfahren der 15. Jahreskonferenz über Computergrafiken und interaktive Techniken - Siggraph '88. p. 65. doi:10.1145/54852.378484. ISBN 978-0897912754.
  6. ^ Westover, Lee Alan (Juli 1991). "Splatting: Ein paralleler Algorithmus zum Rendering von Feed-Forward-Vorspeisen" (PDF). Abgerufen 28. Juni 2012.
  7. ^ Huang, Jian (Frühjahr 2002). "Splating" (PPT). Abgerufen 5. August 2011.
  8. ^ Lacroute, Philippe; Levoy, Marc (1994-01-01). Rendering des schnellen Volumens unter Verwendung einer Scherkriegsfaktorisierung der Betrachtungstransformation. Verfahren der 21. Jahreskonferenz zu Computergrafiken und interaktiven Techniken. Siggraph '94. New York, NY, USA: ACM. S. 451–458. Citeseerx 10.1.1.75.7117. doi:10.1145/192161.192283. ISBN 978-0897916677.
  9. ^ Hibbard W., Santek D.,, "Interaktivität ist der Schlüssel", Chapel Hill Workshop zur Volumenvisualisierung, University of North Carolina, Chapel Hill, 1989, S. 39–43.
  10. ^ Pfister, Hanspeter; Hardenbergh, Jan; Knittel, Jim; Lauer, Hugh; Seiler, Larry (1999). Das VolumePro-Echtzeit-Ray-Casting-System. Verfahren der 26. Jahreskonferenz über Computergrafiken und interaktive Techniken - Siggraph '99. p. 251. Citeseerx 10.1.1.471.9205. doi:10.1145/311535.311563. ISBN 978-0201485608.
  11. ^ Wu, Yin; Bhatia, Vishal; Lauer, Hugh; Seiler, Larry (2003). Scher-Image-Bestellungsstrahlgussvolumenwiedergabe. Verfahren i3d '03 Verfahren des Symposiums 2003 über interaktive 3D -Grafiken. p. 152. doi:10.1145/641480.641510. ISBN 978-1581136456.
  12. ^ Terarecon. "Produktanzeige". Healthimaging.com. Abgerufen 27. August 2018.
  13. ^ Sherbondy A., Houston M., Napel S.:: Segmentierung der schnellen Lautstärke mit gleichzeitiger Visualisierung mit programmierbarer Grafikhardware. In Proceedings of IEEE Visualisierung (2003), S. 171–176.
  14. ^ Max N., Hanrahan P., Crawfis R.:: Flächen- und Volumenkohärenz für die effiziente Visualisierung von 3D -Skalarfunktionen. In Computergrafiken (San Diego Workshop on Volumenvisualisierung, 1990) Vol. 24, S. 27–33.
  15. ^ Engel, Klaus; Kraus, Martin; Ertl, Thomas (2001). Hochwertiger vor Integriertes Volumenrendering mithilfe von Hardware-Beschleunigungspixelschattierungen. Proceedings of the ACM Siggraph/Eurographics Workshop über Grafikhardware - HWWS '01. p. 9. Citeseerx 10.1.1.458.1814. doi:10.1145/383507.383515. ISBN 978-1581134070.
  16. ^ Lum E., Wilson B., Ma K .:: Qualitativ hochwertige Beleuchtung und effiziente Vorintegration für das Volumentrendieren. In Eurographie/IEEE Symposium zur Visualisierung 2004.

Weitere Lektüre

  • M. Ikits, J. Kniss, A. LeFohn und C. Hansen: Volumenrenderntechniken. Im: GPU -Edelsteine, Kapitel 39 (Online-Version in der Entwicklerzone von Nvidia).
  • Lautstärkewiedergabe, Volumen -Rendering -Grundlagen -Tutorial von Ph.D. Ömer Cengiz Çelebschrift
  • Barthold Lichtenbelt, Randy Crane, Shaz Naqvi, Einführung in das Volumentrendieren (Hewlett-Packard Professional Books), Hewlett-Packard Company 1998.
  • Peng H., Ruan, Z, Long, F, Simpson, JH, Myers, EW: V3D ermöglicht die Echtzeit-3D-Visualisierung und quantitative Analyse großer biologischer Bilddatensätze. Nature Biotechnology, 2010 doi:10.1038/nbt.1612 Volumenwiedergabe von großen hochdimensionalen Bilddaten.
  • Daniel Weiskoopf (2006). GPU-basierte interaktive Visualisierungstechniken. Springer Science & Business Media. ISBN 978-3-540-33263-3.