Grafikkarte

Komponenten einer GPU

A Grafikkarte (GPU) ist spezialisiert elektronische Schaltung Entwickelt, um zu manipulieren und zu verändern Erinnerung Beschleunigung der Schaffung von Bilder in einem Bildspeicher, Framebuffer für die Ausgabe an a Anzeigegerät. GPUs werden in verwendet eingebettete Systeme, Mobiltelefone, persönliche Computer, Arbeitsstationen, und Spielekonsole.

Moderne GPUs können effizient manipulieren Computergrafik und Bildverarbeitung. Ihr Parallelstruktur macht sie effizienter als allgemeiner Zwecke Zentrale Verarbeitungseinheiten (CPUs) für Algorithmen Dieser Prozess große Datenblöcke parallel. In einem PC kann eine GPU auf einem vorhanden sein Grafikkarte oder eingebettet auf die Hauptplatine. In einigen CPUs sind sie in die CPU eingebettet sterben.[1]

In den 1970er Jahren stand der Begriff "GPU" ursprünglich für Grafikprozessoreinheit und beschrieb eine programmierbare Verarbeitungseinheit unabhängig von der CPU und verantwortlich für die Manipulation und Ausgabe von Grafiken.[2][3] Später im Jahr 1994, Sony benutzte den Begriff (jetzt stand für Grafikkarte) in Bezug auf die Playstation Konsole Toshiba-entworfen Sony GPU 1994.[4] Der Begriff wurde populär von Nvidia Im Jahr 1999, der das vermarktete GeForce 256 als "die erste GPU der Welt".[5] Es wurde als "Single-Chip" präsentiert Prozessor mit integriert Transformation, Beleuchtung, Dreiecks -Setup/Clippingund Motoren rendern ".[6] Rivale ATI -Technologien prägte den Begriff "visuelle Verarbeitungseinheit" oder VPU mit der Veröffentlichung der Radeon 9700 in 2002.[7]

Geschichte

1970er Jahre

Arcade -Systemplatten Verwenden Sie seit den 1970er Jahren spezielle Grafikschaltungen. In frühen Videospiel -Hardware die RAM Für Frame -Puffer war teuer, sodass Video -Chips zusammenge komponierte Daten zusammengezogen wurden, als das Display auf dem Monitor gescannt wurde.[8]

Ein spezialisiertes Fassschieber Die Schaltung wurde verwendet, um der CPU zu helfen, die zu animieren Bildspeicher, Framebuffer Grafik für verschiedene 1970er Jahre Arcade-Spiele aus Mitte und Taito, wie zum Beispiel Schusskampf (1975), Sea Wolf (1976) und Rauminvasoren (1978).[9][10][11] Das Namco Galaxian Arcade -System im Jahr 1979 verwendet spezialisiert Grafikhardware Unterstützung RGB -Farbe, mehrfarbige Sprites und Tilemap Hintergrund.[12] Die galaxianische Hardware wurde während der häufig verwendet Goldenes Zeitalter der Arcade -Videospiele, von Spielunternehmen wie wie Namco, Zenturi, Gremlin, Irem, Konami, Mitte, Nichibutsu, Sega und Taito.[13][14]

Atari Antik Mikroprozessor auf einem Atari 130xe Motherboard

Auf dem Heimmarkt die Atari 2600 1977 verwendete ein Video -Shifter namens the Fernsehoberflächenadapter.[15] Das Atari 8-Bit-Computer (1979) hatten Antik, ein Video -Prozessor, der Anweisungen interpretierte, in denen eine "Anzeigeliste" beschrieben wurde - wie die Scan -Linien zu spezifisch sind bitmapped oder Charaktermodi und wo der Speicher gespeichert ist (daher musste kein zusammenhängender Rahmenpuffer vorhanden sein).[16] 6502 Maschinensprache Unterroutinen könnte ausgelöst werden Scanlinien Durch ein bisschen auf einer Anzeigeliste einstellen.[17] Antic auch reibungslos unterstützt vertikal und Horizontales Scrollen unabhängig von der CPU.[18]

1980er Jahre

NEC μpd7220A

Das NEC µPD7220 war die erste Implementierung eines PC -Grafik -Anzeigeprozessors als einzeln Große Integration (LSI) Integrierter Schaltkreis Chip, das Design von kostengünstigen Hochleistungsvideo-Grafikkarten wie denen von ermöglichen Nummer neun visuelle Technologie. Es wurde die bekannteste GPU bis Mitte der 1980er Jahre.[19] Es war das erste vollständig integrierte VLSI (sehr große Integration) Metalloxid-Sämiewerk (Nmos) Grafikanzeigeprozessor für PCs, unterstützt bis zu 1024x1024 Auflösungund legten die Grundlagen für den aufstrebenden PC -Grafikmarkt. Es wurde in einer Reihe von Grafikkarten verwendet und für Klone wie den Intel 82720 lizenziert, der erste von Die Grafikverarbeitungseinheiten von Intel.[20] Die Williams Electronics Arcade Games Robotron 2084, Turnieren, Sinistar, und Bläschen, alle 1982 veröffentlicht, enthalten Custom Blitz Chips zum Betrieb auf 16-Farben-Bitmaps.[21][22]

1984,, Hitachi Veröffentlicht Artc HD63484, der erste Major CMOs Grafikprozessor für PC. Das ARTC war in der Lage, sich bis zu 4K -Auflösung wenn in einfarbig Modus und in einer Reihe von PC -Grafikkarten und Terminals in den späten 1980er Jahren verwendet.[23] 1985 die Commodore Amiga zeigte einen benutzerdefinierten Grafikchip mit einem Blitzereinheit Beschleunigung der Bitmap -Manipulation, Linienauslosung und Flächenfüllfunktionen. Auch eingeschlossen ist a Coprozessor Mit einem eigenen einfachen Anweisungssatz, der in der Lage ist, Grafikhardware-Register synchron mit dem Videostrahl (z. B. für pro-Scanline-Palettenschalter, Sprite-Multiplexing und Hardwarefenster) oder den Blitter synchronisieren zu können. 1986,, Texas Instrumente veröffentlichte die TMS34010, der erste vollständig programmierbare Grafikprozessor.[24] Es konnte allgemeine Code ausführen, aber es hatte einen grafischorientierten Befehlssatz. In den Jahren 1990–1992 wurde dieser Chip zur Grundlage der Texas Instruments Grafikarchitektur ("Tiga") Windows Accelerator Karten.

Das IBM 8514 Mikrokanaladapter mit Speicher-Add-On.

1987 die IBM 8514 Grafiksystem wurde als einer von veröffentlicht[vage] die ersten Grafikkarten für IBM PC -Kompateien implementieren Funktionsfunktion 2d Primitive in elektronische Hardware. Scharf's X68000, veröffentlicht 1987, verwendete einen benutzerdefinierten Grafik -Chipsatz[25] Mit einer 65.536 Farbpalette und Hardware -Unterstützung für Sprites, Scrollen und mehreren Spielfeldern,[26] schließlich als Entwicklungsmaschine für dienen Capcom's CP -System Arcade Board. Fujitsu trat später mit dem an FM Städte Computer, 1989 veröffentlicht mit Unterstützung für eine volle 16.777.216 Farbpalette.[27] 1988 der erste engagierte Polygonal 3D Grafikbretter wurden in Arkaden mit dem eingeführt NAMCO -System 21[28] und Taito Luftsystem.[29]

VGA Abschnitt auf dem Motherboard in IBM PS/55

IBM's proprietär Videografikarray (VGA) Die Anzeigestandard wurde 1987 mit einer maximalen Auflösung von 640 × 480 Pixel eingeführt. Im November 1988, NEC Home Electronics kündigte seine Schaffung der an Video Electronics Standards Association (Vesa) zu entwickeln und zu fördern a Super VGA (SVGA) Computeranzeigestandard Als Nachfolger des proprietären VGA -Display -Standards von IBM. Super VGA aktiviert Grafikanzeigeauflösungen bis zu 800 × 600 Pixel, ein Anstieg von 36%.[30]

1990er Jahre

Voodoo3 2000 AGP -Karte

1991, S3 Grafik stellte die vor S3 86C911, was seine Designer nach dem benannt haben Porsche 911 Als Hinweis auf die Leistungssteigerung versprach es.[31] Der 86C911 brachte eine Vielzahl von Imitatoren hervor: Bis 1995 hatten alle wichtigen PC -Grafik -Chip -Hersteller hinzugefügt 2d Beschleunigungsunterstützung für ihre Chips.[32][33] Zu diesem Zeitpunkt festgelegt Windows -Beschleuniger hatte teure allgemeine Grafik-Coprozessoren in der Windows-Leistung übertroffen, und diese Coprozessoren verblassten vom PC-Markt.

In den 1990er Jahren 2d GUI Die Beschleunigung entwickelte sich weiter. Da sich die Fertigungsfunktionen verbesserten, wurde auch der Integrationsniveau von Grafikchips. Zusätzlich Anwendungsprogrammierschnittstellen (APIs) kam zu einer Vielzahl von Aufgaben wie Microsoft's Flügel Grafikbibliothek zum Windows 3.xund ihre später Direkt zeichnen Schnittstelle für Hardware-Beschleunigung von 2D -Spielen innerhalb Windows 95 und später.

Anfang und Mitte der neunziger Jahre,, Echtzeit 3D -Grafiken wurden in Arcade-, Computer- und Konsolenspielen immer häufiger, was zu einer zunehmenden öffentlichen Nachfrage nach führte Hardware-beschleunigte 3D-Grafiken. Frühe Beispiele für 3D-Grafik-Hardware für Massenmarkte finden Sie in Arcade-Systemplatten wie dem SEGA -Modell 1, Namco -System 22, und Sega Modell 2, und die Videospielkonsolen der fünften Generation so wie die Saturn, Playstation und Nintendo 64. Arcade -Systeme wie das SEGA -Modell 2 und das Sega -Modell 2 und SGI Onyx-Basierten Namco Magic Edge Hornet -Simulator im Jahr 1993 waren in der Lage, Hardware -T & L (Transformation, Ausschneiden und Beleuchtung) Jahre, bevor er in Verbrauchergrafikkarten auftritt.[34][35] Einige Systeme verwendet DSPs Transformationen beschleunigen. Fujitsu, die auf dem SEGA Model 2 Arcade -System arbeitete,[36] begann, T & L in eine Single zu integrieren Lsi Lösung für die Verwendung in Heimcomputern im Jahr 1995;[37][38] Der Fujitsu Pinolite, der erste 3D -Geometrieprozessor für PCs, veröffentlicht 1997.[39] Die erste Hardware -T & L -GPU auf Heimat Videospielkonsolen war das Nintendo 64's Realitätskoprozessor, veröffentlicht 1996.[40] In 1997, Mitsubishi veröffentlichte die 3DPRO/2MP, eine vollständig vorgestellte GPU, die sich transformiert und beleuchtet, für Arbeitsstationen und Windows NT Desktops;[41] Ati benutzte es für ihre Firegl 4000 Grafikkarte, veröffentlicht 1997.[42]

Der Begriff "GPU" wurde von geprägt von Sony in Bezug auf den 32-Bit Sony GPU (entworfen von Toshiba) in dem Playstation Videospielkonsole, 1994 veröffentlicht.[4]

In der PC-Welt waren bemerkenswerte Versuche zuerst für kostengünstige 3D-Grafik-Chips die, die die S3 Virge, Ati Wut, und Matrox Mystik. Diese Chips waren im Wesentlichen die 2D-Beschleuniger der vorherigen Generation mit 3D-Merkmalen, die verschraubt waren. Viele waren gleichmäßig Pin-kompatibel mit den früheren Generationen Chips zur einfachen Implementierung und minimalen Kosten. Zunächst waren die Leistung 3D -Grafiken nur mit diskreten Boards möglich, die sich der Beschleunigung von 3D -Funktionen (und der gänzlichen 2D -GUI -Beschleunigung) gewidmet hatten Powervr und die 3DFX Voodoo. Mit fortschreitender Herstellungstechnologie wurden jedoch Video, 2D -GUI -Beschleunigung und 3D -Funktionalität in einen Chip integriert. Rendition's Verite Chipsätze gehörten zu den Ersten, die dies gut genug machten, um bemerkenswerte zu sein. Im Jahr 1997 ging die Rendition noch einen Schritt weiter durch die Zusammenarbeit mit Herkules und Fujitsu auf einem "Thriller-Verschwörung" -Projekt, das einen Fujitsu FXG-1 Pinolite-Geometrie-Prozessor mit einem Vérité V2200-Kern kombinierte, um eine Grafikkarte mit vollen T & L-Motorjahren vor NVIDIAs zu erstellen GeForce 256. Diese Karte, die die Last der CPU des Systems reduziert hat, hat es nie auf den Markt gebracht.

OpenGL erschien Anfang der 90er Jahre als professionelle Grafik -API, litt aber ursprünglich unter Leistungsproblemen, die es erlaubten Gleitapi In den späten 90ern zu einer dominierenden Kraft auf dem PC werden.[43] Diese Probleme wurden jedoch schnell überwunden und die Gleitapi fiel auf der Strecke. Software -Implementierungen von OpenGL waren in dieser Zeit häufig, obwohl der Einfluss von OpenGL schließlich zu einer weit verbreiteten Hardwareunterstützung führte. Im Laufe der Zeit entstand eine Parität zwischen den in Hardware angebotenen Funktionen und den in OpenGL angebotenen Funktionen. DirectX wurde populär unter Fenster Spieleentwickler in den späten 90ern. Im Gegensatz zu OpenGL bestand Microsoft darauf, strenge Eins-zu-Eins-Unterstützung von Hardware zu bieten. Der Ansatz machte DirectX zunächst weniger beliebt als eigenständige Grafik -API, da viele GPUs ihre eigenen spezifischen Funktionen bereitstellten, von denen vorhandene OpenGL -Anwendungen bereits profitieren konnten, und DirectX ließ häufig eine Generation hinter sich. (Sehen: Vergleich von OpenGL und Direct3D.))

Im Laufe der Zeit begann Microsoft, enger mit Hardwareentwicklern zusammenzuarbeiten, und begann, die Veröffentlichungen von DirectX abzurichten, um mit denen der unterstützenden Grafikhardware übereinzustimmen. Direct3d 5.0 war die erste Version der aufstrebenden API, die auf dem Spielemarkt weit verbreitet wurde, und konkurrierte direkt mit vielen mehr hardwarespezifischen, häufig proprietären Grafikbibliotheken, während OpenGL eine starke Anhängerschaft beibehielt. DIRECT3D 7.0 wurde Unterstützung für Hardware-Beschleunigungen eingeführt Transformation und Beleuchtung (T & L) für Direct3D, während OpenGL diese Fähigkeit bereits von seiner Gründung ausgesetzt hatte. 3D -Beschleunigungskarten bewegten sich über einfaches einfach einfach Rasterizer Fügen Sie der 3D -Rendering -Pipeline eine weitere bedeutende Hardware -Phase hinzu. Das Nvidia GeForce 256 (Auch als NV10 bekannt) war die erste auf dem Markt veröffentlichte Karte auf dem Verbraucherebene mit Hardware-beschleunigten T & L, während professionelle 3D-Karten bereits diese Fähigkeit hatten. Hardware-Transformation und -Leuchtung, beide bereits vorhandene Funktionen von OpenGL, wurden in den 90er Jahren zu Hardware auf Verbraucherebene geliefert und den Präzedenzfall für später festgelegt Pixel Shader und Scheitelpunkt Shader Einheiten, die weitaus flexibler und programmierbarer waren.

2000 bis 2010

Nvidia produzierte als Erster einen Chip, der programmierbar ist Schattierung; das Geforce 3 (Code mit dem Namen NV20). Jedes Pixel könnte nun mit einem kurzen "Programm" verarbeitet werden, das zusätzliche Bildtexturen als Eingaben enthalten kann, und jeder geometrische Scheitelpunkt konnte ebenfalls von einem kurzen Programm verarbeitet werden, bevor es auf den Bildschirm projiziert wurde. Verwendet in der Xbox Konsole konkurrierte mit dem Playstation 2, die eine benutzerdefinierte Vektoreinheit für die Hardware -beschleunigte Scheitelpunktverarbeitung verwendete (allgemein als VU0/VU1 bezeichnet). Die frühesten Inkarnationen von Shader -Ausführungsmotoren in verwendet in Xbox waren kein allgemeiner Zweck und konnten keinen beliebigen Pixelcode ausführen. Scheitelpunkte und Pixel wurden von verschiedenen Einheiten verarbeitet, die ihre eigenen Ressourcen mit Pixel -Shadern hatten, die viel engere Einschränkungen hatten (da sie bei viel höheren Frequenzen als bei Eckpunkten ausgeführt werden). Pixel -Shading -Motoren waren tatsächlich eher einem hoch anpassbaren Funktionsblock und "ausgeführt" kein Programm. Viele dieser Unterschiede zwischen Scheitelpunkt- und Pixelschattieren wurden erst viel später mit dem angesprochen Unified Shader -Modell.

Bis Oktober 2002 mit der Einführung der Ati Radeon 9700 (auch bekannt als R300), der erste der Welt Direct3d 9.0 Beschleuniger, Pixel und Vertex -Shader könnten implementiert werden Schleifen und langwierig schwimmender Punkt Mathematik und wurden schnell so flexibel wie CPUs, doch Größenordnungen schneller für Bild-Array-Operationen. Pixelschattierung wird oft für verwendet Bump -Mapping, was Textur hinzufügt, um ein Objekt glänzend, langweilig, rau oder sogar rund oder extrudiert aussehen zu lassen.[44]

Mit der Einführung der Nvidia Geforce 8 Serieund dann wurde GPUs für generische Stream -Verarbeitungseinheiten zu einem allgemeineren Computergeräten. Heute, parallel GPU Gpgpu zum Allzweck -Computing bei GPU, hat seinen Weg in so unterschiedliche Felder gefunden wie maschinelles Lernen,[45] Ölexploration, wissenschaftlich Bildverarbeitung, Lineare Algebra,[46] Statistiken,[47] 3D -Rekonstruktion und sogar Aktienoptionen Preisgestaltung. Gpgpu Zu diesem Zeitpunkt war der Vorläufer dessen, was heute als Computer Shader bezeichnet wird (z. B. CUDA, OpenCl, DirectCompute) und die Hardware bis zu einem gewissen Grad missbraucht, indem die Daten an Algorithmen als Texturkarten behandelt und Algorithmen durch Zeichnen eines Dreiecks oder Quad mit dem Quad mit dem Ausführen Ein geeigneter Pixel -Shader. Dies beinhaltet offensichtlich einige Gemeinkosten, da Einheiten wie die Scankonverter sind dort involviert, wo sie nicht wirklich benötigt werden (auch Dreiecksmanipulationen sogar ein Problem - außer dem Pixel -Shader aufzurufen).

Nvidia CUDA Plattform, erstmals 2007 eingeführt,[48] war das früheste weit verbreitete Programmiermodell für GPU -Computing. In jüngerer Zeit OpenCL ist breit unterstützt geworden. OpenCL ist ein offener Standard, der von der Khronos -Gruppe definiert ist und die Entwicklung von Code für GPUs und CPUs mit Schwerpunkt auf Portabilität ermöglicht.[49] OpenCL -Lösungen werden von Intel, AMD, NVIDIA und ARM unterstützt. Laut einem aktuellen Bericht von Evans Daten ist OpenCL die GPGPU -Entwicklungsplattform, die sowohl von Entwicklern sowohl in den USA als auch im asiatisch -pazifischen Raum am häufigsten verwendet wird.

2010 zu präsentieren

Im Jahr 2010 begann Nvidia eine Partnerschaft mit Audi Um die Dashboards ihrer Autos mit den Autos zu versorgen, verwenden Sie die Tegra GPUs, um die Navigations- und Unterhaltungssysteme von Autos mehr Funktionen zu bieten.[50] Fortschritte in der GPU -Technologie in Autos haben dazu beigetragen Selbstfahrende Technologie.[51] AMDs Radeon HD 6000 -Serie Karten wurden 2010 veröffentlicht und 2011 veröffentlichte AMD ihre 6000 -m -Serie Discrete GPUs für mobile Geräte.[52] Die Kepler -Linie von Grafikkarten von NVIDIA wurde 2012 veröffentlicht und wurde in den 600- und 700 -Serienkarten der NVIDIA verwendet. Eine Funktion in dieser neuen GPU-Mikroarchitektur umfasste die GPU-Boost, eine Technologie, die den Taktgeschwindigkeit einer Grafikkarte anpasst, um sie entsprechend der Stromauslosung zu erhöhen oder zu verringern.[53] Das Kepler -Mikroarchitektur wurde im 28 -nm -Prozess hergestellt.

Das PS4 und Xbox eins wurden 2013 veröffentlicht, beide verwenden GPUs basierend auf AMDs Radeon HD 7850 und 7790.[54] Nach Nvidias Kepler -GPU -Linie folgte die Maxwell Linie, hergestellt auf demselben Prozess. 28 NM -Chips von NVIDIA wurden von TSMC, dem Taiwan Semiconductor Manufacturing Company, hergestellt, das zu dieser Zeit mit dem 28 -nm -Prozess hergestellt wurde. Im Vergleich zu der 40 -NM -Technologie aus der Vergangenheit ermöglichte dieser neue Herstellungsprozess eine Leistung von 20 Prozent und zeichnete weniger Leistung an.[55][56] Virtuelle Realität Headsets haben sehr hohe Systemanforderungen. Die Hersteller von VR -Headset empfahl die GTX 970 und den R9 290x oder besser zum Zeitpunkt ihrer Veröffentlichung.[57][58] Pascal ist die nächste Generation von Verbrauchergrafikkarten von NVIDIA, die 2016 veröffentlicht wurde. Geforce 10 Serie Karten stehen unter dieser Generation von Grafikkarten. Sie werden mit dem 16 -nm -Herstellungsprozess hergestellt, der frühere Mikroarchitekturen verbessert.[59] Nvidia hat eine Nicht-Verbraucher-Karte unter dem neuen veröffentlicht Volta Architektur, die Titan V. Änderungen vom Titan XP, der High-End-Karte von Pascal, beinhalten eine Erhöhung der Anzahl der Cuda-Kerne, die Zugabe von Tensorkernen und eine Zunahme HBM2. Tensor-Kerne sind Kerne speziell für Deep Learning entwickelt, während das Gedächtnis mit hohem Bandbreiten auf den Stapeln, unteren, mit niedrigerem Speicher ist, der einen extrem breiten Speicherbus bietet, der für den beabsichtigten Zweck des Titan V nützlich ist. Um zu betonen, dass der Titan V keine Spielkarte ist, hat NVIDIA das "GeForce GTX" -Suffix entfernt, das sie zu Verbraucherspielkarten hinzufügt.

Am 20. August 2018 startete NVIDIA den GPUs der RTX 20-Serie, das GPUs Ray-Tracing-Kerne hinzufügte und ihre Leistung bei Beleuchtungseffekten verbesserte.[60] Polaris 11 und Polaris 10 GPUs von AMD werden durch einen 14-Nanometer-Prozess hergestellt. Ihre Veröffentlichung führt zu einem erheblichen Anstieg der Leistung pro Watt AMD -Grafikkarten.[61] AMD hat auch die Vega GPUS -Serie für den High -End -Markt als Konkurrent der High -End -Pascal -Karten von NVIDIA veröffentlicht, die auch HBM2 wie The Titan V enthält.

Im Jahr 2019 veröffentlichte AMD den Nachfolger für ihre Grafikkern als nächstes (GCN) Mikroarchitektur/Anweisungssatz. Als rDNA bezeichnet, war die erste Produktaufstellung mit der ersten Generation von rDNA die Radeon RX 5000 Serie von Grafikkarten, die später am 7. Juli 2019 gestartet wurden.[62] Später kündigte das Unternehmen an, dass der Nachfolger der rDNA -Mikroarchitektur eine Aktualisierung sein würde. Die neue Mikroarchitektur wurde als rDNA 2 bezeichnet und wurde Berichten zufolge in Q4 2020 veröffentlicht.[63]

AMD enthüllte das Radeon RX 6000 Serie, seine Grafikkarten der nächsten Generation RDNA 2 mit Unterstützung für Hardware-Beschleunigungsstrahlverfolgung bei einer Online-Veranstaltung am 28. Oktober 2020.[64][65] Die Aufstellung besteht zunächst aus RX 6800, RX 6800 XT und RX 6900 XT.[66][67] Der RX 6800 und 6800 XT wurde am 18. November 2020 gestartet, wobei der RX 6900 XT am 8. Dezember 2020 veröffentlicht wurde.[68] Der RX 6700 XT, der auf NAVI 22 basiert, wurde am 18. März 2021 eingeführt.[69][70][71]

Das PlayStation 5 und Xbox -Serie X und Serie s wurden im Jahr 2020 freigelassen, beide verwenden GPUs basierend auf dem Rdna 2 Mikroarchitektur mit proprietären Optimierungen und verschiedenen GPU -Konfigurationen in der Implementierung jedes Systems.[72][73][74]

GPU -Unternehmen

Viele Unternehmen haben GPUs unter einer Reihe von Markennamen hergestellt. In 2009, Intel, Nvidia und AMD/Ati Waren die Markt für Marktanteile mit 49,4%, 27,8% bzw. 20,6% Marktanteil. Diese Zahlen enthalten jedoch die integrierten Grafiklösungen von Intel als GPUs. Diese nicht zählen, Nvidia und AMD Kontrolle fast 100% des Marktes ab 2018. Ihre jeweiligen Marktanteile betragen 66% und 33%.[75] Zusätzlich, Matrox[76] produziert gpus. Moderne Smartphones verwenden auch meistens Adreno GPUs von Qualcomm, Powervr GPUs von Imaginationstechnologien und Mali Gpus aus ARM.

Rechenfunktionen

Moderne GPUs verwenden den größten Teil ihrer Transistoren Berechnungen im Zusammenhang mit 3D -Computergrafik. Zusätzlich zur 3D -Hardware umfasst die heutige GPUs eine grundlegende 2D -Beschleunigung und Bildspeicher, Framebuffer Funktionen (normalerweise mit einem VGA -Kompatibilitätsmodus). Neuere Karten wie AMD/ATI HD5000-HD7000 fehlen sogar eine dedizierte 2D-Beschleunigung; Es muss von 3D -Hardware emuliert werden. GPUs wurden zunächst verwendet Textur-Mapping und Rendering Polygone, später Einheiten zum Beschleunigen hinzufügen geometrisch Berechnungen wie die Drehung und Übersetzung von Eckpunkte in anders Koordinatensystem. Die jüngsten Entwicklungen in GPUs umfassen Unterstützung für Programmierbare Shader Dies kann Eckpunkte und Texturen mit vielen der gleichen Operationen manipulieren, die von unterstützt werden von CPUs, Überabtastung und Interpolation Techniken zu reduzieren Aliasing, und sehr hochpräzision Farbräume. Angesichts der Tatsache, dass die meisten dieser Berechnungen beinhalten Matrix und Vektor Operationen, Ingenieure und Wissenschaftler haben die Verwendung von GPUs für nicht graphische Berechnungen zunehmend untersucht. Sie sind besonders für andere geeignet peinlich parallel Probleme.

Mehrere Faktoren der GPU-Konstruktion treten in die Leistung der Karte für Echtzeit-Rendering ein. Gemeinsame Faktoren können die Größe der Steckerwegen in der Herstellung von Halbleitervorrichtungen, das Taktsignal Frequenz und Anzahl und Größe verschiedener On-Chip-Speicher Caches. Darüber hinaus ist die Anzahl der Streaming-Multiprozessoren (SM) für NVIDIA-GPUs oder Berechnungseinheiten (CU) für AMD-GPU Andere SM/Cus an der GPU. Die Leistung von GPU Flopsmit GPUs in den 2010er und 2020er Jahren, die in der Regel in Teraflops (TFLOPS) Leistung liefern. Dies ist eine geschätzte Leistungsmaßnahme, da andere Faktoren die tatsächliche Anzeigemannung beeinflussen können.[77]

Mit dem Aufkommen von tiefem Lernen hat die Bedeutung von GPUs zugenommen. In der von Indigo durchgeführten Forschung wurde festgestellt, dass GPUs während der Ausbildung von tiefen Lernnetzwerken 250 -mal schneller sein kann als CPUs. In diesem Bereich gab es ein gewisses Maß an Wettbewerb mit Asicsam prominentesten die Tensor -Verarbeitungseinheit (TPU) von Google gemacht. ASICs erfordern jedoch Änderungen am vorhandenen Code und GPUs sind immer noch sehr beliebt.

GPU beschleunigte Videodecodierung und Codierung

Die ATI HD5470 -GPU (oben) Funktionen UVD 2.1, damit es AVC- und VC-1-Videoformate dekodieren kann

Die meisten seit 1995 hergestellten GPUs unterstützen die Yuv Farbraum und Hardware -Overlays, wichtig für digitales Video Wiedergabe und viele Seit 2000 unterstützen auch viele GPUs MPEG Primitive wie Bewegungskompensation und idct. Dieser Prozess der Hardware beschleunigte Videodecodierung, bei denen Teile der Video -Dekodierung Prozess und Video nach der Verarbeitung werden in die GPU -Hardware ausgeladen, wird allgemein als "GPU -beschleunigte Video -Dekodierung", "GPU -unterstütztes Video -Dekodieren", "GPU -Hardware beschleunigt Video -Decoding" oder "GPU -Hardware unterstütztes Video -Decoding" bezeichnet.

Neuere Grafikkarten dekodieren sogar Hochdefinitionsvideo Auf der Karte laden Sie die zentrale Verarbeitungseinheit ab. Das Üblichste Apis Für GPU -beschleunigte Videodecodierung sind DXVA zum Microsoft Windows Betriebssystem und Vdpau, Vaapi, Xvmc, und XVBA Für Linux-basierte und unixartige Betriebssysteme. Alle außer XVMC sind in der Lage, Videos zu entschlüsseln, die codiert sind MPEG-1, MPEG-2, MPEG-4 ASP (MPEG-4 Teil 2), MPEG-4 AVC (H.264 / Divx 6), VC-1, WMV3/WMV9, Xvid / Opendivx (Divx 4) und Divx 5 Codecs, während XVMC nur in der Lage ist, MPEG-1 und MPEG-2 zu dekodieren.

Es gibt mehrere dedizierte Hardware -Video -Dekodierungs- und Codierungslösungen.

Video -Dekodierungsprozesse, die beschleunigt werden können

Die Video -Dekodierungsprozesse, die von der heutigen modernen GPU -Hardware beschleunigt werden können, sind:

Die oben genannten Vorgänge haben auch Anwendungen in der Videobearbeitung, Codierung und Transkodierung

GPU -Formen

Terminologie

In Personalcomputern gibt es zwei Hauptformen von GPUs. Jeder hat viele Synonyme:[78]

Verwendungsspezifische GPU

Die meisten GPUs sind für eine bestimmte Verwendung, 3D-Grafiken in Echtzeit oder andere Massenberechnungen ausgelegt:

  1. Spiele
  2. Wolkenspiele
  3. Arbeitsplatz
  4. Cloud Workstation
  5. Künstliche Intelligenztraining und Cloud
  6. Automatisiertes/fahrerloses Auto

Dedizierte Grafikkarten

Der GPUs der leistungsstärksten Klasse Schnittstelle normalerweise mit dem Hauptplatine mit einem Erweiterungssteckplatz wie zum Beispiel PCI Express (PCIe) oder Beschleunigter Grafikport (AGP) und kann in der Regel relativ leicht ersetzt oder verbessert werden, vorausgesetzt, das Motherboard kann das Upgrade unterstützen. Ein paar Grafikkarten Noch verwenden Periphere Komponentenverbindung (PCI) Slots, aber ihre Bandbreite ist so begrenzt, dass sie im Allgemeinen nur dann verwendet werden, wenn ein PCIe- oder AGP -Steckplatz nicht verfügbar ist.

Eine dedizierte GPU ist nicht unbedingt abnehmbar, und es wird auch nicht notwendigerweise standardmäßig mit dem Motherboard verbessert. Der Begriff "engagiert" bezieht sich auf die Tatsache, dass engagierte Grafikkarten haben RAM das ist der Verwendung der Karte gewidmet, nicht der Tatsache, dass die meisten Dedizierte GPUs sind abnehmbar. Darüber hinaus wird dieser RAM normalerweise speziell für die erwartete serielle Arbeitsbelastung der Grafikkarte ausgewählt (siehe GDDR). Manchmal Systeme mit engagiert, diskret GPUs wurden als "Dis" -Systeme bezeichnet,[79] im Gegensatz zu "Uma" -Systemen (siehe nächster Abschnitt). Dedizierte GPUs für tragbare Computer werden aufgrund von Größe und Gewichtsbeschränkungen am häufigsten durch einen nicht standardmäßigen und häufig proprietären Steckplatz miteinander verbunden. Solche Ports können nach wie vor als PCIe oder AGP in Bezug auf ihre logische Host -Schnittstelle angesehen werden, auch wenn sie mit ihren Gegenstücken nicht physisch austauschbar sind.

Technologien wie Sli und Nvlink von nvidia und Kreuzfeuer Mit AMD ermöglichen es mehreren GPUs, Bilder gleichzeitig für einen einzelnen Bildschirm zu zeichnen, wodurch die für Grafiken verfügbare Verarbeitungsleistung erhöht wird. Diese Technologien sind jedoch immer seltener, da die meisten Spiele mehrere GPUs nicht vollständig nutzen, da sich die meisten Benutzer sie nicht leisten können.[80][81][82] Mehrere GPUs werden immer noch bei Supercomputern verwendet (wie in Gipfel) auf Workstations zur Beschleunigung von Videos (Verarbeitung mehrerer Videos gleichzeitig)[83][84][85][86] und 3D -Rendering,[87][88][89][90][91] für VFX[92][93] und für Simulationen,[94] und in der KI, um das Training zu beschleunigen, wie es bei Nvidias Aufstellung von DGX Workstations und Servern und Tesla GPUs und Intels bevorstehendem Ponte Vecchio GPUs der Fall ist.

Integrierte Grafikverarbeitungseinheit

Die Position einer integrierten GPU in einem Layout von Northbridge/Southbridge -System
Ein Asrock Motherboard mit integrierten Grafiken mit HDMI-, VGA- und DVI -Outs.

Integrierte Grafikverarbeitungseinheit (IGPU), Integrierte Graphiken, gemeinsame Grafiklösungen, Integrierte Grafikprozessoren (IGP) oder Einheitliche Gedächtnisarchitektur (Uma) Verwenden Sie einen Teil des System -Systems eines Computers und nicht des dedizierten Grafikspeichers. IGPs können als Teil des (Northbridge) Chipsatzes in das Motherboard integriert werden.[95] oder auf demselben sterben (integrierte Schaltung) mit der CPU (wie AMD APU oder Intel HD -Grafik). Auf bestimmten Motherboards,[96] Die IGPs von AMD können dediziertes Sideport verwenden[Klarstellung erforderlich] Erinnerung. Dies ist ein separater fester Block des Hochleistungsspeichers, der für die Verwendung der GPU dediziert wird. Anfang 2007 machen Computer mit integrierten Grafiken etwa 90% aller PC -Sendungen aus.[97][Benötigt Update] Sie sind weniger kostspielig als dedizierte Grafikverarbeitung, sind jedoch tendenziell weniger fähig. In der Vergangenheit wurde die integrierte Verarbeitung als nicht geeignet, um 3D -Spiele zu spielen oder grafisch intensive Programme auszuführen, aber weniger intensive Programme wie Adobe Flash durchführen konnte. Beispiele für solche IGPs wären Angebote von SIS und über ca. 2004.[98] Moderne integrierte Grafikprozessoren wie jedoch, z. AMD beschleunigte Verarbeitungseinheit und Intel HD -Grafik sind mehr als in der Lage, 2D -Grafiken oder 3D -Grafiken mit niedriger Spannung zu behandeln.

Da die GPU-Berechnungen extrem speicherintensiv sind, kann sich integrierte Verarbeitung mit der CPU um den relativ langsamen System-RAM konkurrieren, da sie einen minimalen oder keinen dedizierten Videospeicher aufweist. IGPs können bis zu 29,856 GB/s Speicherbandbreite von System RAM haben, während eine Grafikkarte möglicherweise bis zu 264 GB/s Bandbreite zwischen IE hat RAM und GPU -Kern. Dies Speicherbus Bandbreite kann die Leistung der GPU jedoch begrenzen Multi-Channel-Speicher kann diesen Mangel mildern.[99] Ältere integrierte Grafikchipsets fehlten Hardware Transformation und Beleuchtung, aber neuere schließen es ein.[100][101]

Hybridgrafikverarbeitung

Diese neuere Klasse von GPUs konkurriert mit integrierten Grafiken in den Low-End-Desktop- und Notebook-Märkten. Die häufigsten Implementierungen davon sind ATIs Hypermemory und Nvidia Turbocache.

Hybridgrafikkarten sind etwas teurer als integrierte Grafiken, aber viel günstiger als dedizierte Grafikkarten. Diese teilen Speicher mit dem System und haben einen kleinen dedizierten Speichercache, um das Hoch auszugleichen Latenz des System RAM. Technologien innerhalb von PCI Express können dies ermöglichen. Während diese Lösungen manchmal als 768 MB RAM beworben werden, bezieht sich dies darauf, wie viel mit dem Systemspeicher geteilt werden kann.

Stream -Verarbeitung und Allzweck -GPUs (GPGPU)

Es wird immer häufiger, a zu verwenden Allzweck -Grafikverarbeitungseinheit (GPGPU) als modifizierte Form von Stream -Prozessor (oder ein Vektorprozessor), laufend Kernel berechnen. Dieses Konzept verwandelt die massive Rechenleistung der Shader-Pipeline eines modernen Grafikbeschleunigers in die allgemeine Rechenleistung, anstatt fest verdrahtet zu werden, nur um grafische Operationen auszuführen. In bestimmten Anwendungen, die massive Vektoroperationen erfordern, kann dies mehrere Größenordnungen höhere Leistungen erbringen als eine herkömmliche CPU. Die zwei größten diskreten (siehe "Dedizierte Grafikkarten"oben) GPU -Designer, AMD und Nvidia, beginnen diesen Ansatz mit einer Reihe von Anwendungen zu verfolgen. Sowohl Nvidia als auch AMD haben sich mit zusammengetan mit Universität in Stanford So erstellen Sie einen GPU-basierten Client für die Falten@home Verteilter Computerprojekt für Proteinfaltungsberechnungen. Unter bestimmten Umständen berechnet die GPU vierzig Mal schneller als die CPUs, die traditionell von solchen Anwendungen verwendet wird.[102][103]

GPGPU kann für viele Arten von Arten verwendet werden peinlich parallel Aufgaben einschließlich Strahlenverfolgung. Sie eignen sich im Allgemeinen für Berechnungen mit hohem Durchsatztyp, die aufweisen Datenparallelität Um die breite Vektorbreite auszunutzen Simd Architektur der GPU.

Darüber hinaus spielen Hochleistungscomputer auf GPU-basierten Computern eine wichtige Rolle bei der großflächigen Modellierung. Drei der zehn mächtigsten Supercomputer der Welt nutzen die GPU -Beschleunigung.[104]

GPUs unterstützen API -Erweiterungen an die C Programmiersprache wie z. OpenCL und OpenMP. Darüber hinaus führte jeder GPU -Anbieter eine eigene API ein, die nur mit ihren Karten funktioniert. AMD App SDK und CUDA von AMD bzw. Nvidia. Diese Technologien erlauben bestimmte Funktionen, die aufgerufen werden Kernel berechnen Aus einem normalen C -Programm, das auf den Stream -Prozessoren der GPU ausgeführt wird. Dies ermöglicht C -Programmen, die Fähigkeit einer GPU zu nutzen, große Puffer parallel zu betreiben, während sie gegebenenfalls die CPU verwenden. CUDA ist auch die erste API, mit der CPU-basierte Anwendungen direkt auf die Ressourcen einer GPU zugreifen können, um mehr Zwecke zu erhalten, ohne die Einschränkungen der Verwendung einer Grafik-API.

Seit 2005 hat es Interesse daran, die von GPUs angebotene Leistung für die Leistung zu verwenden Evolutionsberechnung im Allgemeinen und zur Beschleunigung des Fitness Bewertung in Genetische Programmierung im Speziellen. Die meisten Ansätze kompilieren linear oder Baumprogramme Übertragen Sie auf dem Host -PC die ausführbare Datei in die GPU, um ausgeführt zu werden. Normalerweise wird der Leistungsvorteil nur durch Ausführen des einzigen aktiven Programms gleichzeitig auf vielen Beispielproblemen parallel unter Verwendung der GPUs erhalten Simd die Architektur.[105][106] Eine wesentliche Beschleunigung kann jedoch auch erhalten werden, indem die Programme nicht zusammengestellt und stattdessen an die GPU übertragen werden, um dort zu interpretieren.[107][108] Die Beschleunigung kann dann erhalten werden, indem entweder mehrere Programme gleichzeitig interpretiert werden, gleichzeitig mehrere Beispielprobleme oder Kombinationen beider ausführen. Eine moderne GPU kann leicht Hunderttausende von sehr kleinen Programmen gleichzeitig interpretieren.

Einige moderne Workstation-GPUs, wie die NVIDIA Quadro Workstation-Karten, die die Volta- und Turing-Architekturen verwenden, widmen die Verarbeitungskerne für Tensor-basierte Deep-Learning-Anwendungen. In Nvidias aktueller Reihe von GPUs werden diese Kerne als Tensorkerne bezeichnet.[109] Diese GPUs haben normalerweise eine erhebliche FLOP -Leistung, wobei die 4x4 -Matrix -Multiplikation und die Abteilung verwendet werden, was in einigen Anwendungen zu einer Hardwareleistung von bis zu 128 TFLOPs führt.[110] Diese Tensorkerne sollen auch in Verbraucherkarten auftreten, die die Turing -Architektur und möglicherweise in der Navi -Reihe von Verbraucherkarten von AMD ausführen.[111]

Externe GPU (EGPU)

Eine externe GPU ist ein Grafikprozessor außerhalb des Computergehäuses, ähnlich einer großen externen Festplatte. Externe Grafikprozessoren werden manchmal mit Laptop -Computern verwendet. Laptops haben möglicherweise eine beträchtliche Menge an RAM und eine ausreichend leistungsstarke zentrale Verarbeitungseinheit (CPU), aber häufig fehlt es häufig an einem leistungsstarken Grafikprozessor und haben stattdessen einen weniger leistungsstarken, aber energieeffizienten On-Board-Grafikchip. On-Board-Grafik-Chips sind oft nicht leistungsfähig genug, um Videospiele zu spielen, oder für andere grafisch intensive Aufgaben wie das Bearbeiten von Videos oder 3D-Animation/Rendering.

Daher ist es wünschenswert, eine GPU an einen externen Bus eines Notizbuchs anzubringen. PCI Express ist der einzige Bus, der für diesen Zweck verwendet wird. Der Port kann beispielsweise eine sein Express karte oder mpcie Port (PCIE × 1, bis zu 5 bzw. 2,5 gbit/s) oder a Blitz 1, 2 oder 3 Port (PCIE × 4, bis zu 10, 20 oder 40 gbit/s). Diese Ports sind nur in bestimmten Notebook -Systemen verfügbar.[112][113] EGPU -Gehäuse umfassen ihre eigene Stromversorgung (PSU), da leistungsstarke GPUs leicht Hunderte von Watt konsumieren können.[114]

Die offizielle Unterstützung für den Anbieter für externe GPUs hat in letzter Zeit an Traktion gewonnen. Ein bemerkenswerter Meilenstein war Apples Entscheidung, den externen GPUs mit MacOS High Sierra 10.13.4 offiziell zu unterstützen.[115]Es gibt auch mehrere große Hardwareanbieter (HP, Alienware, Razer), die Thunderbolt 3 EGPU -Gehäuse freisetzen.[116][117][118] Diese Unterstützung hat weiterhin EGPU -Implementierungen von Enthusiasten angetrieben.[119]

Verkauf

Im Jahr 2013 wurden weltweit 438,3 Millionen GPUs versendet und die Prognose für 2014 414,2 Millionen betrug.[120]

Siehe auch

Hardware

Apis

Anwendungen

Verweise

  1. ^ Denny Atkin. "Computerkäufer: Die richtige GPU für Sie". Archiviert von das Original Am 2007-05-06. Abgerufen 2007-05-15.
  2. ^ Barron, E. T.; Glorioso, R. M. (September 1973). "Ein mikro kontrollierter peripherer Prozessor". MICRO 6: Konferenzaufzeichnung des 6. jährlichen Workshops für Mikroprogrammieren. Mikro 6: 122–128. doi:10.1145/800203.806247. ISBN 9781450377836. S2CID 36942876.
  3. ^ Levine, Ken (August 1978). "Kernstandard -Grafikpaket für VGI 3400". ACM Siggraph Computergrafik. 12 (3): 298–300. doi:10.1145/965139.807405.
  4. ^ a b "Ist es Zeit, die GPU umzubenennen? | IEEE Computer Society".
  5. ^ "Nvidia startet die erste Grafikverarbeitungseinheit der Welt: GeForce 256". Nvidia. 31. August 1999. Archiviert Aus dem Original am 12. April 2016. Abgerufen 28. März 2016.
  6. ^ "Grafikverarbeitungseinheit (GPU)". Nvidia. 16. Dezember 2009. Archiviert Aus dem Original am 8. April 2016. Abgerufen 29. März 2016.
  7. ^ Pabst, Thomas (18. Juli 2002). "ATI übernimmt die 3D -Technologie -Führung mit Radeon 9700". Toms Hardware. Abgerufen 29. März 2016.
  8. ^ Hague, James (10. September 2013). "Warum existieren engagierte Spielekonsolen?". Programmierung im 21. Jahrhundert. Archiviert von das Original am 4. Mai 2015. Abgerufen 11. November, 2015.
  9. ^ "Mame/8080bw.c bei Master 路 mamev/mame 路 GitHub". GitHub. Archiviert von das Original Am 2014-11-21.
  10. ^ "Mame/MW8080BW.c bei Master 路 mamev/mame 路 Github". GitHub. Archiviert von das Original Am 2014-11-21.
  11. ^ "Arcade/SpaceInvaders - Computerarchäologie". Computerarcheology.com. Archiviert von das Original 2014-09-13.
  12. ^ "Mame/Galaxian.c bei Master 路 mamev/mame 路 GitHub". GitHub. Archiviert von das Original Am 2014-11-21.
  13. ^ "Mame/Galaxian.c bei Master 路 mamev/mame 路 GitHub". GitHub. Archiviert von das Original Am 2014-11-21.
  14. ^ "MAME - SRC/MAME/DRAVERS/GALDRVR.C". archive.org. Archiviert von das Original am 3. Januar 2014.
  15. ^ Springmann, Alessondra. "Atari 2600 Teardown: Was ist in deiner alten Konsole?". Die Washington Post. Archiviert Aus dem Original am 14. Juli 2015. Abgerufen 14. Juli, 2015.
  16. ^ "Was sind die Chips 6502, Antic, CTIA/GTIA, Pokey und Freddie?". Atari8.com. Archiviert von das Original am 2016-03-05.
  17. ^ Wiegers, Karl E. (April 1984). "Atari Display -Liste unterbricht". Berechnen! (47): 161. Archiviert vom Original am 2016-03-04.
  18. ^ Wiegers, Karl E. (Dezember 1985). "Atari Fine Scrollen". Berechnen! (67): 110. Archiviert vom Original am 2006-02-16.
  19. ^ F. Robert A. Hopgood; Roger J. Hubbold; David A. Duce, Hrsg. (1986). Fortschritte in Computergrafiken II. Springer. p. 169. ISBN 9783540169109. Vielleicht ist das bekannteste der NEC 7220.
  20. ^ Berühmte Grafikchips: NEC µPD7220 Grafikanzeigecontroller (IEEE Computer Society)
  21. ^ Rätsel, Sean. "Blitterinformationen". Archiviert vom Original am 2015-12-22.
  22. ^ Wolf, Mark J.P. (Juni 2012). Vor dem Absturz: Frühes Videospielgeschichte. Wayne State University Press. p. 185. ISBN 978-0814337226.
  23. ^ GPU -Geschichte: Hitachi Artc HD63484. Der zweite Grafikprozessor. (IEEE Computer Society)
  24. ^ "Berühmte Grafikchips: Ti TMS34010 und VRAM. Der erste programmierbare Grafikprozessor -Chip | IEEE Computer Society".
  25. ^ "Archivierte Kopie". Archiviert vom Original am 2014-09-03. Abgerufen 2014-09-12.{{}}: CS1 Wartung: Archiviertes Kopie als Titel (Link)
  26. ^ "Museum ~ Sharp x68000". Old-computers.com. Archiviert von das Original Am 2015-02-19. Abgerufen 2015-01-28.
  27. ^ "Hardcore Gaming 101: Retro Japanische Computer: Die letzte Grenze von Gaming". Hardcoregaming101.net. Archiviert Aus dem Original am 01.01.13.13.
  28. ^ "System 16 - NAMCO -System 21 Hardware (NAMCO)". System16.com. Archiviert vom Original am 2015-05-18.
  29. ^ "System 16 - Taito Air System Hardware (Taito)". System16.com. Archiviert vom Original am 2015-03-16.
  30. ^ Brownstein, Mark (14. November 1988). "NEC forms Video Standards Group". InfoWorld. Vol. 10, nein. 46. ​​p. 3. ISSN 0199-6649. Abgerufen 27. Mai, 2016.
  31. ^ "S3 -Videokarten". InfoWorld. 14 (20): 62. 18. Mai 1992. Archiviert vom Original am 22. November 2017. Abgerufen 13. Juli, 2015.
  32. ^ "Was die Zahlen bedeuten". PC Magazine. 12: 128. 23. Februar 1993. Archiviert Aus dem Original am 11. April 2017. Abgerufen 29. März 2016.
  33. ^ Sänger Graham. "Die Geschichte des modernen Grafikprozessors". Techspot. Archiviert vom Original am 29. März 2016. Abgerufen 29. März 2016.
  34. ^ "System 16 - NAMCO Magic Edge Hornet Simulator Hardware (NAMCO)". System16.com. Archiviert vom Original am 2014-09-12.
  35. ^ "MAME - SRC/MAME/VIDEO/MODELL2.C". archive.org. Archiviert von das Original am 4. Januar 2013.
  36. ^ "System 16 - Sega Modell 2 Hardware (SEGA)". System16.com. Archiviert vom Original am 2010-12-21.
  37. ^ "Archivierte Kopie" (PDF). Archiviert (PDF) vom Original am 2016-10-11. Abgerufen 2016-08-08.{{}}: CS1 Wartung: Archiviertes Kopie als Titel (Link)
  38. ^ "Archivierte Kopie" (PDF). Archiviert von das Original (PDF) Am 2014-09-06. Abgerufen 2016-08-08.{{}}: CS1 Wartung: Archiviertes Kopie als Titel (Link)
  39. ^ "Fujitsu entwickelt die ersten dreidimensionalen Geometrieprozessor der Welt". fujitsu.com. Archiviert vom Original am 2014-09-12.
  40. ^ Xenol. "Der Nintendo 64 ist eines der größten Spielgeräte aller Zeiten". Xenol. Archiviert vom Original am 2015-11-18.
  41. ^ "Mitsubishis 3DPRO/2MP-Chipsatz stellt neue Datensätze für die schnellsten 3D-Grafikbeschleuniger für Windows NT-Systeme fest; 3DPRO/2MP greift Viewerf Performance Lead; andere High-End-Benchmark-Tests, die deutlich zeigen, dass 3DPROs Leistung alle Windows NT-Wettbewerber übertreffen.".
  42. ^ Vlask. "VGA Legacy Mkiii - Diamond Fire GL 4000 (Mitsubishi 3DPRO/2MP)". Archiviert vom Original am 2015-11-18.
  43. ^ 3DFX Glide API
  44. ^ Søren Dreijer. "Bump -Mapping mit CG (3. Auflage)". Archiviert von das Original Am 2010-01-20. Abgerufen 2007-05-30.
  45. ^ Raina, Rajat; Madhavan, Anand; NG, Andrew Y. (2009-06-14). "Großes tiefes, unbeaufsichtigtes Lernen mit Grafikprozessoren". Proceedings der 26. jährlichen Internationalen Konferenz über maschinelles Lernen - ICML '09. Dl.acm.org. S. 1–8. doi:10.1145/1553374.1553486. ISBN 9781605585161. S2CID 392458.
  46. ^ "Lineare Algebra -Operatoren für die GPU -Implementierung numerischer Algorithmen", Kruger und Westermann, International Conf. Über Computergrafiken und interaktive Techniken, 2005
  47. ^ "ABC-sysbio-Angemessene Bayesianische Berechnung in Python mit GPU-Unterstützung", Liepe et al., Bioinformatics, (2010), 26: 1797-1799 "Archivierte Kopie". Archiviert von das Original Am 2015-11-05. Abgerufen 2010-10-15.{{}}: CS1 Wartung: Archiviertes Kopie als Titel (Link)
  48. ^ Sanders, Jason; Kandrot, Edward (2010-07-19). CUDA mit Beispiel: Eine Einführung in die allgemeine GPU-Programmierung, tragbare Dokumente. Addison-Wesley Professional. ISBN 9780132180139. Archiviert vom Original am 2017-04-12.
  49. ^ "OpenCL - Der offene Standard für die parallele Programmierung heterogener Systeme". khronos.org. Archiviert vom Original am 2011-08-09.
  50. ^ Teglet, Traian (8. Januar 2010). "Nvidia Tegra in jedem Audi 2010 -Fahrzeug". Archiviert vom Original am 2016-10-04. Abgerufen 2016-08-03.
  51. ^ "Schule in der Sitzung - Nvidias fahrerloses System lernt durch Anschauen". 2016-04-30. Archiviert vom Original am 2016-05-01. Abgerufen 2016-08-03.
  52. ^ "Amd Radeon HD 6000m Serie-nennen Sie es nicht Ati!". CNET. Archiviert vom Original am 2016-10-11. Abgerufen 2016-08-03.
  53. ^ "Nvidia Geforce GTX 680 2GB Review". Archiviert vom Original am 2016-09-11. Abgerufen 2016-08-03.
  54. ^ "Xbox One vs. PlayStation 4: Welche Spielkonsole ist am besten? - Extremetech". www.extremetech.com. Abgerufen 2019-05-13.
  55. ^ "Kepler TM GK110" (PDF). Nvidia Corporation. 2012. Archiviert (PDF) Aus dem Original am 11. Oktober 2016. Abgerufen 3. August, 2016.
  56. ^ "Taiwan Semiconductor Manufacturing Company Limited". www.tsmc.com. Archiviert vom Original am 2016-08-10. Abgerufen 2016-08-03.
  57. ^ "Erstellen eines PCs für den HTC Vive". 2016-06-16. Archiviert vom Original am 2016-07-29. Abgerufen 2016-08-03.
  58. ^ "Vive Ready Computers". www.vive.com. Archiviert vom Original am 2016-02-24. Abgerufen 2021-07-30.
  59. ^ "Die monströse Pascal-GPU von Nvidia ist voll mit modernsten Technologien und 15 Milliarden Transistoren". 5. April 2016. Archiviert vom Original am 2016-07-31. Abgerufen 2016-08-03.
  60. ^ Sarkar, Samit (20. August 2018). "NVIDIA RTX 2070, RTX 2080, RTX 2080 Ti GPUS enthüllt: Spezifikationen, Preis, Erscheinungsdatum". Polygon. Abgerufen 11. September 2019.
  61. ^ "AMD RX 480, 470 & 460 Polaris GPUs, um den" bisher revolutionärsten Leistungssprung "zu liefern, der bisher bisher" ist ". 2016-01-16. Archiviert vom Original am 2016-08-01. Abgerufen 2016-08-03.
  62. ^ AMD -Pressemitteilung: "AMD kündigt Führungsprodukte der nächsten Generation bei Computex 2019 Keynote an". AMD.com. Abgerufen am 5. Oktober 2019
  63. ^ "AMD zur Einführung neuer RDNA-GPUs der nächsten Generation im Jahr 2020, keine typische" Aktualisierung "von Navi". tomshardware.com. Toms Hardware. 2020-01-29. Abgerufen 2020-02-08.
  64. ^ Garreffa, Anthony (9. September 2020). "AMD, um am 28. Oktober Big Navi RDNA 2 Grafikkarten der nächsten Generation zu enthüllen". Tweaktown. Abgerufen 9. September, 2020.
  65. ^ Lyles, Taylor (9. September 2020). "AMDs Zen 3-CPUs der nächsten Generation und Radeon RX 6000 'Big Navi' GPU wird nächsten Monat enthüllt". Der Verge. Abgerufen 10. September, 2020.
  66. ^ "AMD neckt Radeon RX 6000 Kartenleistung Nummern: Anstrengung auf 3080?". anandtech.com. Anandtech. 2020-10-08. Abgerufen 2020-10-25.
  67. ^ "AMD kündigt Ryzen" Zen 3 "und Radeon" rdna2 "-Präsentationen für Oktober an: Eine neue Reise beginnt". anandtech.com. Anandtech. 2020-09-09. Abgerufen 2020-10-25.
  68. ^ Judd, Will (28. Oktober 2020). "AMD enthüllt drei Radeon 6000-Grafikkarten mit Ray-Tracing und RTX-Beschlagleistung.". Eurogamer. Abgerufen 28. Oktober, 2020.
  69. ^ Mujtaba, Hassan (2020-11-30). "AMD Radeon RX 6700 XT 'NAVI 22 GPU' benutzerdefinierte Modelle steigern Berichten zufolge bis zu 2,95 GHz". Wccftech. Abgerufen 2020-12-03.
  70. ^ Tyson, Mark (3. Dezember 2020). "AMD -CEO Keynote für CES 2020 am 12. Januar geplant". Hexus. Abgerufen 2020-12-03.
  71. ^ Cutress, Ian (12. Januar 2021). "AMD startet in der ersten Halbzeit 2021 RDNA 2 Desktop-Grafiken in der Mitte der Reichweite". Anandtech. Abgerufen 4. Januar, 2021.
  72. ^ Funk, Ben (12. Dezember 2020). "Sony PS5 erhält einen vollständigen Abbau, in dem seine rDNA 2 -Darms und seine Ruhm beschrieben werden.". Heiße Hardware. Archiviert von das Original am 12. Dezember 2020. Abgerufen 3. Januar, 2021.
  73. ^ Gartenberg, Chaim (18. März 2020). "Sony zeigt vollständige PS5 -Hardwarespezifikationen". Der Verge. Abgerufen 3. Januar, 2021.
  74. ^ Smith, Ryan. "Microsoft Drops Weitere Xbox -Serien X Tech Spezifikationen: Zen 2 + rDNA 2, 12 Tflops GPU, HDMI 2.1 und ein benutzerdefiniertes SSD". www.anandtech.com. Abgerufen 2020-03-19.
  75. ^ Februar 2018, Paul Alcorn 28 (28. Februar 2018). "AMD Rising: CPU- und GPU -Marktanteil wächst schnell". Toms Hardware.
  76. ^ "Matrox -Grafiken - Produkte - Grafikkarten". Matrox.com. Archiviert vom Original am 2014-02-05. Abgerufen 2014-01-21.
  77. ^ Hruska, Joel (10. Februar 2021). "Wie funktionieren Grafikkarten?". Extreme Technik. Abgerufen 17. Juli, 2021.
  78. ^ "Hilf mir auszuwählen: Grafikkarten". Dell. Archiviert von das Original Am 2016-09-09. Abgerufen 2016-09-17.
  79. ^ Dokumentation auf einen Linux Gerätetreiber zum Nvidia Optimus
  80. ^ "Crossfire und SLI -Markt sind nur 300.000 Einheiten".
  81. ^ "Ist Multi-GPU tot?". 7. Januar 2018.
  82. ^ "Nvidia SLI und AMD Crossfire sind tot-aber sollten wir um Multi-GPU-Spiele trauern? | TechRadar". 24. August 2019.
  83. ^ "Nvidia FFMPEG Transcoding Guide". 24. Juli 2019.
  84. ^ "Hardwareauswahl und Konfigurationshandbuch Davinci Resolve 15" (PDF). Blackmagisches Design. 2018. Abgerufen 31. Mai 2022.
  85. ^ "Empfohlenes System: Empfohlene Systeme für Davinci Resolve". Puget -Systeme.
  86. ^ "GPU beschleunigte Rendering und Hardware -Codierung".
  87. ^ "V-Ray Nächste Multi-GPU-Leistungsskalierung".
  88. ^ "FAQ | GPU-Beschleunigte 3D-Rendering-Software | RedShift".
  89. ^ "Octanerender 2020 ™ Vorschau ist da!". Otoy.
  90. ^ "Erforschung der Leistung mit Autodesks Arnold Renderer GPU Beta". 8. April 2019.
  91. ^ "GPU -Rendering - Mixerhandbuch".
  92. ^ "V-Ray für Nuke-Ray verfolgt das Rendering für Komponisten | Chaos Group".
  93. ^ "Systemanforderungen | Nuke | Foundry".
  94. ^ "Was ist mit Multi-GPU-Unterstützung?-Falten Sie@home".
  95. ^ "Evolution der Intel -Grafik: i740 an Iris Pro". 4. Februar 2017.
  96. ^ "GA-890GPA-UD3H-Übersicht". Archiviert von das Original Am 2015-04-15. Abgerufen 2015-04-15.
  97. ^ Gary Key. "Anandtech - µATX Teil 2: Intel G33 Performance Review". anandtech.com. Archiviert vom Original am 2008-05-31.
  98. ^ Tim Tscheblockov. "Xbit Labs: Zusammenfassung von 7 zeitgenössischen integrierten Grafik -Chipsätzen für Socket 478 und Socket A Platforms". Archiviert von das Original am 2007-05-26. Abgerufen 2007-06-03.
  99. ^ Coelho, Rafael (18. Januar 2016). "Meckt der Dual-Channel-Speicher einen Unterschied in der integrierten Videoleistung?". Hardware -Geheimnisse. Abgerufen 4. Januar 2019.
  100. ^ Bradley Sanford. "Integrierte Grafiklösungen für grafischintensive Anwendungen" (PDF). Archiviert (PDF) vom Original am 2007-11-28. Abgerufen 2007-09-02.
  101. ^ Bradley Sanford. "Integrierte Grafiklösungen für grafischintensive Anwendungen". Archiviert vom Original am 2012-01-07. Abgerufen 2007-09-02.
  102. ^ Darren Murph. "Stanford University Schneiderung@home zu gpus" faltet ". Archiviert vom Original am 2007-10-12. Abgerufen 2007-10-04.
  103. ^ Mike Houston. "Falten@home - gpgpu". Archiviert vom Original am 2007-10-27. Abgerufen 2007-10-04.
  104. ^ "Top500 -Liste - Juni 2012 | Top500 Supercomputer -Websites". Top500.org. Archiviert von das Original 2014-01-13. Abgerufen 2014-01-21.
  105. ^ John Nickolls. "Stanford Lecture: Skalierbares parallele Programmierung mit CUDA auf Manycore -GPUs". Youtube. Archiviert vom Original am 2016-10-11.
  106. ^ S Harding und W Banzahaf. "Schnelle genetische Programmierung auf GPUs". Archiviert vom Original am 2008-06-09. Abgerufen 2008-05-01.
  107. ^ W Langdon und W Banzahaf. "Ein SIMD -Interpreter für die genetische Programmierung auf GPU -Grafikkarten". Archiviert vom Original am 2008-06-09. Abgerufen 2008-05-01.
  108. ^ V. Garcia und E. Debreuve und M. Barlaud. Schnelle K nächste Nachbar Suche mit GPU. In Proceedings of the CVPR Workshop über Computer Vision zu GPU, Anchorage, Alaska, USA, Juni 2008.
  109. ^ "Tensorkerne in Nvidia Volta". Nvidia. Nvidia. Abgerufen 16. August 2018.
  110. ^ Smith, Ryan. "Nvidia Volta enthüllt: GV100 GPU und Tesla V100 Accelerator angekündigt". Anandtech. Anandtech. Abgerufen 16. August 2018.
  111. ^ Hill, Brandon (11. August 2017). "AMDs NAVI 7NM GPU -Architektur von AI bieten Berichten zufolge AI -Schaltkreise". HOTHARDWARE. HOTHARDWARE. Archiviert von das Original am 17. August 2018. Abgerufen 16. August 2018.
  112. ^ "EGPU -Kandidatensystemliste". Technisch-inferernische Foren.
  113. ^ Neil Mohr. "Wie man einen externen Laptop -Grafikadapter erstellt". TechRadar. Archiviert vom Original am 2017-06-26.
  114. ^ "Beste externe Grafikkarte 2020 (EGPU) [The Complete Guide]". 16. März 2020.
  115. ^ "Verwenden Sie einen externen Grafikprozessor mit Ihrem Mac". Apfelunterstützung. Abgerufen 2018-12-11.
  116. ^ "Omen Accelerator | HP® Offizielle Site". www8.hp.com. Abgerufen 2018-12-11.
  117. ^ "Alienware -Grafikverstärker | Dell United States". Dell. Abgerufen 2018-12-11.
  118. ^ "Razer Core X - Thunderbolt ™ 3 EGPU". Rasierer. Abgerufen 2018-12-11.
  119. ^ Box, ► Vorschläge (2016-11-25). "Erstellen Sie Guides von Benutzern". EGPU.IO. Abgerufen 2018-12-11.
  120. ^ "Der Markt für Grafik -Chips zeigt etwas Leben". Tg täglich. 20. August 2014. Archiviert Aus dem Original am 26. August 2014. Abgerufen 22. August, 2014.

Externe Links