KI -Beschleuniger

Ein KI -Beschleuniger ist eine Klasse von Spezialisation Hardware -Beschleuniger[1] oder Computersystem[2][3] entworfen, um zu beschleunigen künstliche Intelligenz und maschinelles Lernen Anwendungen, einschließlich künstliche neurale Netzwerke und Maschinenaufwand. Typische Anwendungen umfassen Algorithmen für Robotik, Internet der Dinge, und andere Daten-intensive oder sensorgetriebene Aufgaben.[4] Sie sind oft Manycore Entwürfe und konzentrieren sich im Allgemeinen auf niedriger Präzision Arithmetik, Roman DataFlow -Architekturen oder In-Memory Computing Fähigkeit. Ab 2018, eine typische KI Integrierter Schaltkreis Chip Enthält Milliarden von Mosfet Transistoren.[5] Für Geräte in dieser Kategorie gibt es eine Reihe von ferkerspezifischen Begriffen, und es ist ein aufkommende Technologie ohne ein dominantes Design.

Geschichte

Computersysteme haben die häufig ergänzt Zentralprozessor mit Spezialbeschleunigern für spezielle Aufgaben, bekannt als Coprozessoren. Bemerkenswert anwendungsspezifisch Hardwareeinheiten enthalten Grafikkarten zum Grafik, Soundkarten, Grafikverarbeitungseinheiten und Digitale Signalprozessoren. Wie tiefes Lernen und künstliche Intelligenz Die Workloads stiegen im Rahmen der 2010er Jahre an. In den 2010er Jahren wurden spezielle Hardwareeinheiten entwickelt oder von vorhandenen Produkten an angepasst. beschleunigen diese Aufgaben.

Frühe Versuche

Erste Versuche wie IntelETANN 80170NX[6] Integrierte analoge Schaltungen zur Berechnung neuronaler Funktionen. Spätere All-Digital-Chips wie Nestor/Intel Ni1000 gefolgt. Bereits 1993, Digitale Signalprozessoren wurden als Beschleuniger des neuronalen Netzwerks zur Beschleunigung verwendet optische Zeichenerkennung Software.[7] In den neunziger Jahren gab es auch Versuche, parallele Hochdurchsatzsysteme für Arbeitsstationen zu erstellen, die auf verschiedene Anwendungen abzielen, einschließlich neuronaler Netzwerksimulationen.[8][9][10] FPGA-Basierte Beschleuniger wurden auch erstmals in den neunziger Jahren für beide Inferenz untersucht[11] und Training.[12] Smartphones begann, KI -Beschleuniger zu integrieren, beginnend mit dem Qualcomm Snapdragon 820 im Jahr 2015.[13][14]

Heterogenes Computer

Heterogenes Computer Bezieht sich auf die Einbeziehung einer Reihe spezialisierter Prozessoren in ein einzelnes System oder sogar einen einzelnen Chip, der jeweils für eine bestimmte Art von Aufgabe optimiert wird. Architekturen wie die Zellmikroprozessor[15] Merkmale überlappen sich erheblich mit KI -Beschleunigern, einschließlich: Unterstützung für gepackte geringe Präzisionsarithmetik, DataFlow -Architektur, und priorisieren Sie den Durchsatz "Durchsatz" über Latenz. Der Zellmikroprozessor wurde anschließend auf eine Reihe von Aufgaben angewendet[16][17][18] einschließlich KI.[19][20][21]

In den 2000er Jahren, CPUs Auch immer breiter gewonnen Simd Einheiten, angetrieben von Video- und Gaming -Workloads; sowie Unterstützung für gepackte niedrige Präzision Datentypen.[22] Aufgrund der zunehmenden Leistung von CPUs werden sie auch zum Ausführen von KI -Workloads verwendet. CPUs sind überlegen für überlegen DNNs mit DNNs mit kleiner oder mittlerer Parallelität, für spärliche DNNs und in Szenarien mit geringer Größe.

Verwendung von GPU

Grafikverarbeitungseinheiten oder GPUs sind spezielle Hardware für die Manipulation von Bildern und die Berechnung lokaler Bildeigenschaften. Die mathematische Grundlage neuronaler Netzwerke und Bildbearbeitung sind ähnlich, peinlich parallel Aufgaben mit Matrizen, die dazu führen, dass GPUs zunehmend für maschinelle Lernaufgaben verwendet werden.[23][24][25] Ab 2016, GPUs sind für die KI -Arbeit beliebt und entwickeln sich weiter in eine Richtung, um Deep Learning zu erleichtern, beide für das Training[26] und Inferenz in Geräten wie z. selbstfahrende Autos.[27] GPU -Entwickler wie Nvidia Nvlink entwickeln zusätzliche Bindefunktionen für die Art von Datenflow Workloads KI profitieren.[28] Da die GPUs zunehmend auf die KI -Beschleunigung angewendet wurden, haben GPU -Hersteller integriert neurales Netzwerk-Spezifisch Hardware, um diese Aufgaben weiter zu beschleunigen.[29][30] Tensor Kerne sollen die Ausbildung neuronaler Netzwerke beschleunigen.[30]

Verwendung von FPGAs

Deep Learning -Frameworks entwickeln sich noch weiter, wodurch es schwierig ist, benutzerdefinierte Hardware zu entwerfen. Rekonfigurierbar Geräte wie Feldprogrammierbare Gate-Arrays (FPGA) erleichtert es, Hardware, Frameworks und Software zu entwickeln nebeneinander.[31][11][12][32]

Microsoft hat FPGA -Chips verwendet, um die Inferenz zu beschleunigen.[33]

Entstehung von engagiertem KI -Beschleuniger Asics

Während GPUs und FPGAs für KI-bezogene Aufgaben weitaus besser abschneiden als CPUs, ein Faktor von bis zu 10 Effizienz[34][35] kann mit einem spezifischeren Design über ein gewonnen werden Anwendungsspezifische integrierte Schaltung (ASIC). Diese Beschleuniger setzen Strategien wie optimiert an Speichergebrauch und die Verwendung von niedrigere Präzisionsarithmetik Berechnung beschleunigen und erhöhen Durchsatz der Berechnung.[36][37] Einige haben niedrige Präzision übernommen Schwimmpunktformate gebrauchte AI -Beschleunigung sind Halbprezision und die Bfloat16 Floating-Punkt-Format.[38][39][40][41][42][43][44] Unternehmen wie Google, Qualcomm, Amazon, Apple, Facebook, AMD und Samsung entwerfen alle ihre eigenen AI ASICs.[45][46][47][48][49][50] Cerebras -Systeme hat außerdem einen dedizierten KI-Beschleuniger aufgebaut, der auf dem größten Prozessor der Branche basiert, der zweiten Generation Wafer Scale Engine (WSE-2), um Deep-Learn-Workloads zu unterstützen.[51][52]

In-Memory-Computerarchitekturen

Im Juni 2017, IBM Die Forscher kündigten eine Architektur im Gegensatz zur Architektur an Von Neumann Architektur bezogen auf In-Memory Computing und Phasenwechselspeicher Arrays, die auf Temporal angewendet werden Korrelation Erkennung, die beabsichtigte, den Ansatz zu verallgemeinern Heterogenes Computer und massiv parallel Systeme.[53] Im Oktober 2018 kündigten IBM -Forscher eine Architektur an, die auf der Basis von Architektur basiert In-Memory-Verarbeitung und modelliert im synaptischen Netzwerk des menschlichen Gehirns beschleunigen tiefe neuronale Netze.[54] Das System basiert auf Phasenwechselspeicher Arrays.[55]

In-Memory-Computing mit analogen Widerstandserinnerungen

Im Jahr 2019 fanden Forscher von Polutecnico di Milano einen Weg, Systeme linearer Gleichungen in einigen zehn Nanosekunden über einen einzigen Betrieb zu lösen. Ihr Algorithmus basiert auf In-Memory Computing mit analogen Widerstandserinnerungen, die mit hoher Effizienz von Zeit und Energie durch Dirigieren funktioniert Matrix -Vektor -Multiplikation in einem Schritt mit Ohms Gesetz und Kirchhoffs Gesetz. Die Forscher zeigten, dass ein Rückkopplungsschaltungsschaltkreis mit Kreuzungspunktememorien algebraische Probleme wie lineare Gleichungen, Matrix-Eigenvektoren und Differentialgleichungen in nur einem Schritt lösen kann. Ein solcher Ansatz verbessert die Rechenzeiten drastisch im Vergleich zu digitalen Algorithmen.[56]

Atomisch dünne Halbleiter

Im Jahr 2020 haben Marega et al. Veröffentlichte Experimente mit einem großartigen aktiven Kanalmaterial zur Entwicklung von Geräten und Schaltkreisen für Logik-Memorien basierend auf schwebendes Gebiet Feldeffekttransistoren (Fgfets).[57] Solche atomisch dünn Halbleiter werden als vielversprechend für energieeffizientes als vielversprechend angesehen maschinelles Lernen Anwendungen, bei denen dieselbe grundlegende Gerätestruktur sowohl für Logikoperationen als auch für die Datenspeicherung verwendet wird. Die Autoren verwendeten zweidimensionale Materialien wie halbleitend Molybdän Disulfid.[57]

Integrierter photonischer Tensorkern

Im Jahr 2021 haben J. Feldmann et al. schlug eine integrierte photonisch Hardware -Beschleuniger Für parallele Faltungsverarbeitung.[58] Die Autoren identifizieren zwei wichtige Vorteile der integrierten Photonik gegenüber ihren elektronischen Gegenstücken: (1) massiv parallele Datenübertragung durch Wellenlänge Aufteilung Multiplexing in Verbindung mit Frequenzkämmeund (2) extrem hohe Datenmodulationsgeschwindigkeiten.[58] Ihr System kann Billionen von multiply-akkumulierenden Vorgängen pro Sekunde ausführen, was auf das Potenzial von angibt integriert Photonik In datenlastigen AI-Anwendungen.[58]

Nomenklatur

Ab 2016 befindet sich das Feld immer noch im Fluss und die Anbieter drängen ihre eigene Marketingbegriffe für das, was einem "KI -Beschleuniger" entspricht, in der Hoffnung, dass ihre Entwürfe und ihre Entwürfe und Apis wird der werden dominantes Design. Es gibt weder einen Konsens über die Grenze zwischen diesen Geräten noch der genauen Form, die sie annehmen werden. Mehrere Beispiele zielen jedoch eindeutig darauf ab, diesen neuen Raum mit einer angemessenen Überlappung der Fähigkeiten zu füllen.

In der Vergangenheit, wenn Verbraucher Grafikbeschleuniger tauchte auf, die Branche verabschiedete schließlich Nvidia"S selbst zugewiesener Begriff" die GPU ",[59] als kollektives Substantiv für "Grafikbeschleuniger", das viele Formen angenommen hatte Pipeline Implementierung eines Modells, das von präsentiert wird Direct3d.

Anwendungsmöglichkeiten

Siehe auch

Verweise

  1. ^ "Intel enthüllt Movidius Computer Stick USB AI Accelerator". 21. Juli 2017. archiviert von das Original am 11. August 2017. Abgerufen 11. August, 2017.
  2. ^ "Inspirs enthüllt GX4 AI Accelerator". 21. Juni 2017.
  3. ^ Wiggers, Kyle (6. November 2019) [2019], Neuronale Magie sammelt 15 Millionen US, archiviert von das Original am 6. März 2020, abgerufen 14. März, 2020
  4. ^ "Google Designing KI -Prozessoren". Google benutzt seine eigenen KI -Beschleuniger.
  5. ^ "13 Sextillion & Counting: Die lange und kurvenreiche Straße zum am häufigsten hergestellten menschlichen Artefakt der Geschichte". Computergeschichte Museum. 2. April 2018. Abgerufen 28. Juli, 2019.
  6. ^ John C. Dvorak: Der 80170 -Chip von Intel hat die theoretische Intelligenz einer Kakerlake In PC Magazine Band 9 Nummer 10 (Mai 1990), p. 77, [1], abgerufen am 16. Mai 2021
  7. ^ "Demo des Neural Network von 1993 mit DSP32 Accelerator". Youtube.
  8. ^ "Design eines verbindungsistischen Netzwerks Supercomputer".
  9. ^ "Das Ende von Allzweckcomputern (nicht)". Youtube.Diese Präsentation deckt einen früheren Versuch mit neuronalen Netzbeschleunigern ab, stellt die Ähnlichkeit mit dem modernen SLI-GPGPU-Prozessor-Prozessor-Setup fest und argumentiert, dass die Vektorbeschleuniger von Allgemeinen der Weg nach vorne sind (in Bezug auf das RISC-V-Hwacha-Projekt. Spärliche Matrizen, einer von mehreren wiederkehrenden Algorithmen)
  10. ^ Ramacher, U.; Raab, W.; Hachmann, J.A.U.; Beiterter, J.; Bruls, N.; Wesseling, M.; Dichened, e.; Glas, J.; Wurz, a.; Way, R. (1995). Verfahren des 9. internationalen Parallelverarbeitungssymposiums. S. 774–781. Citeseerx 10.1.1.27.6410. doi:10.1109/ipps.1995.395862. ISBN 978-0-8186-7074-9. S2CID 16364797.
  11. ^ a b "Raumeeffiziente neuronale Nettoumsetzung".
  12. ^ a b Gschwind, m.; Salapura, V.; Maischberger, O. (1996). "Ein generischer Baustein für Hopfield Neural Networks mit On-Chip-Lernen". 1996 IEEE International Symposium über Schaltkreise und Systeme. Schaltungen und Systeme, die die Welt verbinden. Iscas 96. S. 49–52. doi:10.1109/iscas.1996.598474. ISBN 0-7803-3073-0. S2CID 17630664.
  13. ^ "Qualcomm hilft Ihnen dabei, Ihre mobilen Geräte mit dem neuen Softwareentwicklungskit Snapdragon Machine Learning intelligenter zu gestalten.". Qualcomm.{{}}: CS1 Wartung: URL-Status (Link)
  14. ^ Rubin, Ben Fox. "Die Zeroth -Plattform von Qualcomm könnte Ihr Smartphone viel schlauer machen". CNET. Abgerufen 28. September, 2021.
  15. ^ Gschwind, Michael; Hofstee, H. Peter; Flachs, Brian; Hopkins, Martin; Watanabe, Yukio; Yamazaki, Takeshi (2006). "Synergistische Verarbeitung in der Multicore -Architektur von Cell". IEEE MICRO. 26 (2): 10–24. doi:10.1109/mm.2006.41. S2CID 17834015.
  16. ^ De Fabritiis, G. (2007). "Leistung des Zellprozessors für biomolekulare Simulationen". Computerphysikkommunikation. 176 (11–12): 660–664. Arxiv:Physik/0611201. doi:10.1016/j.cpc.2007.02.107. S2CID 13871063.
  17. ^ Videoverarbeitung und Abruf auf der Zellarchitektur. Citeseerx 10.1.1.138.5133.
  18. ^ Benthin, Carsten; Wald, Ingo; Scherbaum, Michael; Friedrich, Heiko (2006). 2006 IEEE Symposium über interaktive Strahlenverfolgung. S. 15–23. Citeseerx 10.1.1.67.8982. doi:10.1109/rt.2006.280210. ISBN 978-1-4244-0693-7. S2CID 1198101.
  19. ^ "Entwicklung eines künstlichen neuronalen Netzwerks in einer heterogenen Multicore -Architektur, um einen erfolgreichen Gewichtsverlust bei fettleibigen Individuen vorherzusagen" (PDF).
  20. ^ Kwon, Bomjun; Choi, Taiho; Chung, Heejin; Kim, Geonho (2008). 2008 5. IEEE Consumer Communications and Networking Conference. S. 1030–1034. doi:10.1109/ccnc08.2007.235. ISBN 978-1-4244-1457-4. S2CID 14429828.
  21. ^ Duan, Rubing; Strey, Alfred (2008). Euro-Par 2008-Parallele Verarbeitung. Vorlesungsnotizen in Informatik. Vol. 5168. S. 665–675. doi:10.1007/978-3-540-85451-7_71. ISBN 978-3-540-85450-0.
  22. ^ "Verbesserung der Leistung von Video mit AVX". 8. Februar 2012.
  23. ^ "Microsoft Research/Pixel Shaders/MNIST".
  24. ^ "Wie GPU zur allgemeinen Berechnung verwendet wurde".
  25. ^ "ImageNet -Klassifizierung mit tiefen Faltungsnetzwerken" (PDF).
  26. ^ "Nvidia treibt die Entwicklung des tiefen Lernens vor". 17. Mai 2016.
  27. ^ "Nvidia stellt Supercomputer für selbstfahrende Autos ein". 6. Januar 2016.
  28. ^ "Wie NVLink schneller einfacher Multi -GPU -Computing ermöglicht". 14. November 2014.
  29. ^ "Eine Umfrage zur optimierten Implementierung von Deep -Learning -Modellen auf der NVIDIA Jetson -Plattform", 2019
  30. ^ a b Harris, Mark (11. Mai 2017). "CUDA 9 -Merkmale enthüllt: Volta, Genossenschaftsgruppen und mehr". Abgerufen 12. August, 2017.
  31. ^ Sefat, MD Syadus; Aslan, Semih; Kellington, Jeffrey W; Qasem, Apan (August 2019). "Beschleunigung von Hotspots in tiefen neuronalen Netzwerken auf einem CAPI-basierten FPGA". 2019 IEEE 21. Internationale Konferenz über Hochleistungs -Computing und Kommunikation; IEEE 17. Internationale Konferenz über Smart City; IEEE 5. Internationale Konferenz für Datenwissenschaft und Systeme (HPCC/SmartCity/DSS): 248–256. doi:10.1109/hpcc/smartCity/ds.2019.00048. ISBN 978-1-7281-2058-4. S2CID 203656070.
  32. ^ "FPGA -basierte Deep Learning Accelerators nehmen ASICs auf". Die nächste Plattform. 23. August 2016. Abgerufen 7. September, 2016.
  33. ^ "Project Brainwave". Microsoft Research. Abgerufen 16. Juni, 2020.
  34. ^ "Google steigert das maschinelle Lernen mit seiner Tensor -Verarbeitungseinheit". 19. Mai 2016. Abgerufen 13. September, 2016.
  35. ^ "Chip könnte ein tiefes Lernen auf mobile Geräte bringen". www.sciencedaily.com. 3. Februar 2016. Abgerufen 13. September, 2016.
  36. ^ "Deep Learning mit begrenzter numerischer Präzision" (PDF).
  37. ^ Rastegari, Mohammad; Ordonez, Vicente; Redmon, Joseph; Farhadi, Ali (2016). "XNOR-NET: ImageNet-Klassifizierung unter Verwendung binärer Faltungsnetzwerke". Arxiv:1603.05279 [cs.cv].
  38. ^ Khari Johnson (23. Mai 2018). "Intel enthüllt Nervana Neural Net L-1000 für beschleunigtes KI-Training". VentureBeat. Abgerufen 23. Mai, 2018. ... Intel erweitert die Bfloat16 -Unterstützung über unsere KI -Produktlinien, einschließlich Intel Xeon -Prozessoren und Intel FPGAs.
  39. ^ Michael Feldman (23. Mai 2018). "Intel legt neue Roadmap für das AI -Portfolio dar". Top500 Supercomputer -Websites. Abgerufen 23. Mai, 2018. Intel plant, dieses Format in allen KI -Produkten zu unterstützen, einschließlich der Xeon- und FPGA -Linien
  40. ^ Lucian Armasu (23. Mai 2018). "Intel, um Spring Crest, sein erster neuronaler Netzwerkprozessor, 2019 zu starten". Toms Hardware. Abgerufen 23. Mai, 2018. Intel sagte, dass der NNP-L1000 auch Bfloat16 unterstützen würde, ein numerisches Format, das von allen Akteuren der ML-Branche für neuronale Netze angenommen wird. Das Unternehmen wird auch Bfloat16 in seinen FPGAs, Xeons und anderen ML -Produkten unterstützen. Die Nervana NNP-L1000 soll 2019 veröffentlicht werden.
  41. ^ "Verfügbar TensorFlow Ops | Cloud TPU | Google Cloud". Google Cloud. Abgerufen 23. Mai, 2018. Diese Seite listet die TensorFlow -Python -APIs und Graph -Operatoren auf, die auf Cloud TPU verfügbar sind.
  42. ^ Elmar Haaußmann (26. April 2018). "Vergleich des Google TPUV2 mit dem NVIDIA V100 auf rESNET-50". Riseml Blog. Archiviert von das Original am 26. April 2018. Abgerufen 23. Mai, 2018. Für die Cloud -TPU empfahl Google, dass wir die Implementierung von BfLoat16 aus dem offiziellen TPU -Repository mit TensorFlow 1.7.0 verwenden. Sowohl die TPU- als auch die GPU-Implementierungen nutzen gemischte Berechnungen in der jeweiligen Architektur und speichern die meisten Tensoren mit einer halben Präzision.
  43. ^ Tensorflow -Autoren (28. Februar 2018). "Resnet-50 mit Bfloat16 auf TPU". Google. Abgerufen 23. Mai, 2018.[Permanent Dead Link]
  44. ^ Joshua V. Dillon; Ian Langmore; Dustin Tran; Eugene Brevdo; Srinivas Vasudevan; Dave Moore; Brian Patton; Alex Alemi; Matt Hoffman; Rif A. Saurous (28. November 2017). TensorFlow Distributions (Bericht). Arxiv:1711.10604. Bibcode:2017ArXIV171110604d. Zugriff am 23. Mai 2018. Alle Operationen in Tensorflow-Verteilungen sind numerisch stabil über die Hälfte, einzelne und doppelte schwimmende Punkte (als Tensorflow Dtypes: tf.bfloat16 (verkürzter Gleitkomma), tf.float16, tf.float32, tf.float64). Klassenkonstruktoren haben ein Flag validate_args für numerische Behauptungen
  45. ^ "Google enthüllt einen leistungsstarken neuen KI -Chip und Supercomputer". MIT Technology Review. Abgerufen 27. Juli, 2021.
  46. ^ "Was zu erwarten, von Apples neuronaler Motor im A11 Bionic Soc - Extremetech". www.extremetech.com. Abgerufen 27. Juli, 2021.
  47. ^ "Facebook hat einen neuen Job -Posting, der Chip -Designer fordert".
  48. ^ "Facebook schließt sich Amazon und Google im AI -Chip -Rennen an". Finanzzeiten. 18. Februar 2019.
  49. ^ Amadeo, Ron (11. Mai 2021). "Samsung und AMD werden Berichten zufolge später in diesem Jahr den M1 SoC von Apple annehmen". ARS Technica. Abgerufen 28. Juli, 2021.
  50. ^ Smith, Ryan. "Das KI -Rennen erweitert: Qualcomm enthüllt" Cloud AI 100 "-Familie von Datacenter AI Inferenzbeschleuniger für 2020". www.anandtech.com. Abgerufen 28. September, 2021.
  51. ^ Woodie, Alex (1. November 2021). "Cerebras trifft den Beschleuniger für Deep Learning Workloads". Datanami. Abgerufen 3. August, 2022.
  52. ^ "Cerebras startet einen neuen KI -Supercomputing -Prozessor mit 2,6 Billionen Transistoren". VentureBeat. 20. April 2021. Abgerufen 3. August, 2022.
  53. ^ Abu Sebastian; Tomas Tuma; Nikolaos Papandreou; Manuel le Gallo; Lukas Kull; Thomas Parnell; Evangelos Eleftheriou (2017). "Temporale Korrelationserkennung unter Verwendung von Computer-Phasenwechselspeicher". Naturkommunikation. 8 (1): 1115. Arxiv:1706.00511. doi:10.1038/s41467-017-01481-9. PMC 5653661. PMID 29062022.
  54. ^ "Eine neue von Gehirn inspirierte Architektur könnte die Art und Weise verbessern, wie Computer mit Daten umgehen und die KI vorantreiben.". Amerikanisches Institut für Physik. 3. Oktober 2018. Abgerufen 5. Oktober, 2018.
  55. ^ Carlos Ríos; Nathan Youngblood; Zengguang Cheng; Manuel le Gallo; Wolfram H.P. Pernice; C. David Wright; Abu Sebastian; Harish Bhaskaran (2018). "In-Memory Computing auf einer photonischen Plattform". Arxiv:1801.06228 [cs.et].
  56. ^ Zhong Sonne; Giacomo Pedretti; Elia Ambrosi; Alessandro Bricalli; Wei Wang; Daniele Ielmini (2019). "Matrixgleichungen in einem Schritt mit Kreuzungspunkt-Arrays lösen". Verfahren der National Academy of Sciences. 116 (10): 4123–4128. doi:10.1073/pnas.1815682116. PMC 6410822. PMID 30782810.
  57. ^ a b Marega, Guilherme Migliato; Zhao, Yanfei; Avsar, Ahmet; Wang, Zhenyu; Tripati, Mukesh; Renkenovic, areksandra; Kis, Anras (2020). "Logik in Memory basiert auf einem atomisch dünnen Halbleiter". Natur. 587 (2): 72–77. doi:10.1038/s41586-020-2861-0. PMC 7116757. PMID 33149289.
  58. ^ a b c Feldmann, J.; Youngblood, N.; Karpov, M.; et al. (2021). "Parallele Faltungsverarbeitung unter Verwendung eines integrierten photonischen Tensors". Natur. 589 (2): 52–58. Arxiv:2002.00281. doi:10.1038/s41586-020-03070-1. PMID 33408373. S2CID 211010976.
  59. ^ "Nvidia startet die erste Grafikverarbeitungseinheit der Welt, die GeForce 256".
  60. ^ "Design eines Bildungssystems für Unkrautbekämpfung". Citeseerx 10.1.1.7.342. Archiviert (PDF) Aus dem Original am 23. Juni 2010. Abgerufen 29. Juli, 2021. {{}}: Journal zitieren erfordert |journal= (Hilfe)
  61. ^ "Selbstfahrerautos Technologie und Lösungen von Nvidia Automotive". Nvidia.
  62. ^ "Movidius macht weltwelten intelligenteste Drohne". 16. März 2016.
  63. ^ "Qualcomm Research bringt maschinelles Lernen der Serverklasse auf alltägliche Geräte und macht sie intelligenter [Video].". Oktober 2015.

Externe Links