TensorFlow
![]() | |
Entwickler (en) | Google Brain Mannschaft[1] |
---|---|
Erstveröffentlichung | 9. November 2015 |
Stabile Version | 2.9.0[2] ![]() |
Repository | Github |
Geschrieben in | Python, C ++, CUDA |
Plattform | Linux, Mac OS, Fenster, Android, JavaScript[3] |
Typ | Maschinelles Lernen Bibliothek |
Lizenz | Apache -Lizenz 2.0 |
Webseite | www |
Tensorflow ist ein frei und offen Softwarebibliothek zum maschinelles Lernen und künstliche Intelligenz. Es kann über eine Reihe von Aufgaben verwendet werden, hat aber einen besonderen Fokus auf Ausbildung und Inferenz von tiefe neuronale Netze.[4][5]
Tensorflow wurde von der entwickelt Google Brain Team für intern Google Verwendung in Forschung und Produktion.[6][7][8] Die erste Version wurde unter dem veröffentlicht Apache -Lizenz 2.0 2015.[1][9] Google veröffentlichte im September 2019 die aktualisierte Version von TensorFlow mit dem Namen TensorFlow 2.0.[10]
TensorFlow kann in einer Vielzahl von Programmiersprachen verwendet werden, insbesondere in Python sowie JavaScript, C ++ und Java.[11] Diese Flexibilität eignet sich für eine Reihe von Anwendungen in vielen verschiedenen Sektoren.
Geschichte
Distbelief
Ab 2011 baute Google Brain Distbelief als proprietär maschinelles Lernen System basierend auf tiefes Lernen Neuronale Netze. Seine Verwendung wuchs schnell über vielfältig Alphabet Unternehmen in Forschung und kommerziellen Anwendungen.[12][13] Google zugewiesen mehrere Informatiker, einschließlich Jeff Dean, um zu vereinfachen und Refaktor Die Codebasis von Destbelief in eine schnellere, robustere Anwendungsbibliothek, die zu Tensorflow wurde.[14] Im Jahr 2009 wurde das Team angeführt von von Geoffrey Hinton, verallgemeinerte Umsetzung Backpropagation und andere Verbesserungen, die die Erzeugung von ermöglichten Neuronale Netze mit wesentlich höherer Genauigkeit, beispielsweise eine Reduzierung der Fehler um 25% Spracherkennung.[15]
Tensorflow
TensorFlow ist das System der zweiten Generation von Google. Version 1.0.0 wurde am 11. Februar 2017 veröffentlicht.[16] Während Referenzimplementierung Läuft auf einzelnen Geräten, TensorFlow kann mit mehreren ausgeführt werden CPUs und GPUS (mit optional CUDA und Sycl Erweiterungen für Allzweck-Computing auf Grafikverarbeitungseinheiten).[17] TensorFlow ist auf 64-Bit erhältlich Linux, Mac OS, Fensterund mobile Computerplattformen einschließlich Android und iOS.
Die flexible Architektur ermöglicht die einfache Bereitstellung der Berechnung über eine Vielzahl von Plattformen (CPUs, GPUs, Tpus) und von Desktops zu Clustern von Servern bis hin zu mobilen und Edge -Geräten.
Tensorflow -Berechnungen werden als ausgedrückt als Staatsbürgerlich Datenfluss Grafiken. Der Name TensorFlow stammt aus den Operationen, die solche neuronalen Netze in mehrdimensionalen Datenarrays ausführen, die als als bezeichnet werden Tensoren. Während der Google I/O -Konferenz Im Juni 2016 erklärte Jeff Dean, dass 1.500 Repositories auf GitHub erwähnte Tensorflow, von denen nur 5 von Google stammten.[18]
Im Dezember 2017 haben Entwickler von Google, Cisco, Redhat, Coreos und Caicloud eingeführt Kubeflow auf einer Konferenz. Kubeflow ermöglicht den Betrieb und die Bereitstellung von TensorFlow ein Kubernetes.
Im März 2018 kündigte Google TensorFlow.js Version 1.0 für maschinelles Lernen in JavaScript.[19]
Im Januar 2019 kündigte Google TensorFlow 2.0 an.[20] Es wurde offiziell im September 2019 erhältlich.[10]
Im Mai 2019 kündigte Google TensorFlow -Grafiken für Deep Learning in Computergrafiken an.[21]
Tensor -Verarbeitungseinheit (TPU)
Im Mai 2016 kündigte Google seine an Tensor -Verarbeitungseinheit (TPU), a Anwendungsspezifische integrierte Schaltung (ASIC, ein Hardware -Chip), das speziell für erstellt wurde maschinelles Lernen und auf Tensorflow zugeschnitten. Eine TPU ist programmierbar KI -Beschleuniger Entwickelt, um hoch zu liefern Durchsatz von niedriger Präzision Arithmetik (z.B., 8 Bit) und orientiert sich eher auf die Verwendung oder Ausführung von Modellen als an als an der Verwendung oder Ausführung Ausbildung Sie. Google kündigte an, dass sie seit mehr als einem Jahr TPUs in ihren Rechenzentren betrieben hatten, und haben sie als eine Lieferung gefunden, um eine zu liefern Größenordnung besser optimiert Leistung pro Watt für maschinelles Lernen.[22]
Im Mai 2017 kündigte Google die zweite Generation sowie die Verfügbarkeit des TPUs in an Google Compute Engine.[23] Die TPUs der zweiten Generation liefert bis zu 180 Teraflops der Leistung und liefert bei organisierten Clustern von 64 TPUs bis zu 11,5 PETAFLOPS.
Im Mai 2018 kündigte Google die TPUs der dritten Generation an, die bis zu 420 Teraflops der Leistung und 128 GB hoch liefert Bandbreite Speicher (HBM). Cloud TPU V3 Pods bieten mehr als 100 Petaflops der Leistung und 32 TB HBM.[24]
Im Februar 2018 gab Google bekannt, dass sie TPUs in Beta auf der Google Cloud -Plattform.[25]
Edge TPU
Im Juli 2018 wurde die Edge TPU angekündigt. Edge TPU ist Googles speziell gebaut Asic Chip für den Ausführen von TensorFlow Lite Machine Learning (ML) -Modellen auf kleinen Client -Computergeräten wie Smartphones[26] bekannt als Edge Computing.
Tensorflow Lite
Im Mai 2017 kündigte Google einen Software -Stack speziell für die mobile Entwicklung, TensorFlow Lite, bekannt.[27] Im Januar 2019 veröffentlichte das TensorFlow -Team eine Entwicklervorschau der mobilen GPU -Inferenzmotor mit OpenGl ES 3.1 -Rechensatteln auf Android -Geräten und Metall -Computer -Shadern auf iOS -Geräten.[28] Im Mai 2019 kündigte Google an, dass der TensorFlow Lite Micro (auch als Tensorflow Lite für Mikrocontroller bekannt) und bekannt) und Waffen Utensor würde verschmelzen.[29]
Pixel Visual Core (PVC)
Im Oktober 2017 veröffentlichte Google die Google Pixel 2 das zeigte ihre Pixel visueller Kern (PVC), ein voll programmierbares Bild, Vision und Ai Prozessor für mobile Geräte. Der PVC unterstützt den Tensorflow für maschinelles Lernen (und Halogenid zur Bildverarbeitung).
Tensorflow 2.0
Da der Marktanteil des Tensorflow unter Forschungsarbeiten zum Vorteil von Vorteil war Pytorch,[30] Das TensorFlow-Team kündigte im September 2019 eine Veröffentlichung einer neuen Major-Version der Bibliothek an. TensorFlow 2.0 führte viele Änderungen ein, wobei das wichtigste Tensorflow Eager, das das automatische Differenzierungsschema aus dem statischen Rechendiagramm änderte, in die "Define-by- Run "Schema, das ursprünglich populär gemacht wurde von Kette und später Pytorch.[30] Weitere wichtige Änderungen waren die Entfernung alter Bibliotheken, die Kreuzkompatibilität zwischen geschulten Modellen auf verschiedenen Versionen des Tensorflows und signifikante Verbesserungen der Leistung der GPU.[31]
Merkmale
Autodifferenzierung
Autodifferenzierung Ist der Prozess der automatischen Berechnung des Gradientenvektors eines Modells in Bezug auf jede seiner Parameter. Mit dieser Funktion kann TensorFlow die Gradienten für die Parameter in einem Modell automatisch berechnen, was für Algorithmen wie z. B. nützlich ist Backpropagation die Gradienten erfordern, um die Leistung zu optimieren.[32] Zu diesem Zweck muss das Framework die Reihenfolge der Operationen im Auge behalten, die den Eingangstensoren in einem Modell ausgeführt werden, und dann die Gradienten in Bezug auf die entsprechenden Parameter berechnen.[32]
Eifrige Ausführung
TensorFlow enthält einen „eifrigen Ausführungsmodus“, was bedeutet, dass Operationen sofort bewertet werden, anstatt zu einem später ausgeführten Rechendiagramm hinzugefügt zu werden.[33] Code, das eifrig ausgeführt wurde, kann Schritt für Schritt durch einen Debugger untersucht werden, da Daten in jeder Codezeile und nicht später in einem Rechendiagramm erweitert werden.[33] Dieses Ausführungsparadigma wird aufgrund seiner Schritt -für -Schritt -Transparenz als leichter zu debuggen angesehen.[33]
Verteilen
TensorFlow sowohl in eifrigen als auch in der Graph -Ausführung bietet eine API für die Verteilung von Berechnungen über mehrere Geräte mit verschiedenen Verteilungsstrategien.[34] Dies verteiltes Computer Kann häufig die Ausführung des Trainings und die Bewertung von Tensorflow -Modellen beschleunigen und ist eine gängige Praxis im Bereich der KI.[34][35]
Verluste
Um Modelle zu trainieren und zu bewerten, bietet TensorFlow einen Satz von Verlustfunktionen (auch bekannt als Kostenfunktionen).[36] Einige beliebte Beispiele sind mittlere quadratische Fehler (MSE) und Binärkreuzentropie (BCE).[36] Diese Verlustfunktionen berechnen den „Fehler“ oder „Differenz“ zwischen der Ausgabe eines Modells und der erwarteten Ausgabe (im weiteren Sinne des Unterschieds zwischen zwei Tensoren). Für verschiedene Datensätze und Modelle werden unterschiedliche Verluste verwendet, um bestimmte Aspekte der Leistung zu priorisieren.
Metriken
Um die Leistung von maschinellen Lernmodellen zu bewerten, bietet TensorFlow API -Zugriff auf häufig verwendete Metriken. Beispiele sind verschiedene Genauigkeitsmetriken (binäre, kategoriale, spärliche kategoriale) zusammen mit anderen Metriken wie z. B. Präzision, Rückruf, und Kreuzungspunkte (Iou).[37]
Tf.nn
Tensorflow.nn ist ein Modul zur Ausführung von Primitiven neurales Netzwerk Operationen auf Modellen.[38] Einige dieser Operationen enthalten Variationen von Konvolutionen (1/2/3d, roat, tiefenweise), Aktivierungsfunktionen (Softmax, Relu, Gelu, Sigmoidusw.) und ihre Variationen und andere Tensoroperationen (Max-Pooling, Bias-add usw.).[38]
Optimierer
TensorFlow bietet eine Reihe von Optimierern für die Schulung neuronaler Netze, einschließlich ADAM, Adagrad, und Stochastischer Gradientenabstieg (SGD).[39] Beim Training eines Modells bieten verschiedene Optimierer unterschiedliche Parameterstimmungsmodi, die häufig die Konvergenz und Leistung eines Modells beeinflussen.[40]
Verwendung und Verlängerungen
Tensorflow
TensorFlow dient als Kernplattform und Bibliothek für maschinelles Lernen. TensorFlows APIs verwenden Keras So können Benutzer ihre eigenen Modelle für maschinelles Lernen erstellen.[41] Neben dem Erstellen und Training ihres Modells kann TensorFlow auch dazu beitragen, die Daten zum Training des Modells zu laden und es mithilfe der TensorFlow -Portion bereitzustellen.[42]
TensorFlow bietet einen Stall Python API,[43] sowie APIs ohne Rückwärtskompatibilitätsgarantie für JavaScript,[44] C ++,[45] und Java.[46][11] Sprachbindungspakete von Drittanbietern sind ebenfalls verfügbar für C#,[47][48] Haskell,[49] Julia,[50] Matlab,[51] R,[52] Scala,[53] Rost,[54] Ocaml,[55] und Kristall.[56] Bindungen, die jetzt archiviert und nicht unterstützt werden gehen[57] und Schnell.[58]
Tensorflow.js
TensorFlow verfügt auch über eine Bibliothek für maschinelles Lernen in JavaScript. Mit den bereitgestellten JavaScript -APIs können Benutzer mit TensorFlow.js entweder TensorFlow.js -Modelle oder konvertierte Modelle aus Tensorflow oder Tflite verwenden, die angegebenen Modelle erneut abgeben und im Web ausgeführt werden.[42][59]
Tflite
TensorFlow Lite verfügt über APIs für mobile Apps oder eingebettete Geräte, um TensorFlow -Modelle zu generieren und bereitzustellen.[60] Diese Modelle sind komprimiert und optimiert, um effizienter zu sein und eine höhere Leistung auf kleineren Kapazitätsgeräten zu erzielen.[61]
Tensorflow lite verwendet Flatbuffer Als Datenserialisierungsformat für Netzwerkmodelle meiden Sie die Protokollpuffer Format verwendet von Standard -Tensorflow -Modellen.[61]
Tfx
TensorFlow Extended (Abbrev. TFX) bietet zahlreiche Komponenten, um alle für die End-to-End-Produktion erforderlichen Vorgänge auszuführen.[62] Zu den Komponenten gehören das Laden, Validieren und Transformieren von Daten, das Tuning, Training und die Bewertung des Modells für maschinelles Lernen und das Schieben des Modells selbst in Produktion.[42][62]
Integrationen
Numpy
Numpy ist eine der beliebtesten Python -Datenbibliotheken, und TensorFlow bietet Integration und Kompatibilität mit seinen Datenstrukturen.[63] Numpy NDarrays, der native Datentyp der Bibliothek, werden automatisch in TFS -Operationen in Tensorflow -Tensoren konvertiert. Gleiches gilt auch für ein wahres umgekehrtes.[63] Auf diese Weise können die beiden Bibliotheken unisono funktionieren, ohne dass der Benutzer explizite Datenkonvertierungen schreiben muss. Darüber hinaus erstreckt sich die Integration auf die Speicheroptimierung, indem TF -Tensoren nach Möglichkeit die zugrunde liegenden Speicherdarstellungen von Numpy NDarrays teilen.[63]
Erweiterungen
TensorFlow bietet auch eine Vielzahl von Bibliotheken und Erweiterungen, um die verwendeten Modelle und Methoden voranzutreiben und zu erweitern.[64] TensorFlow -Empfehlungen und TensorFlow -Grafiken sind beispielsweise Bibliotheken für ihre jeweiligen Funktionen in Empfehlungssystemen und -grafiken. TensorFlow Federated bietet ein Framework für dezentrale Daten. Mit TensorFlow Cloud können Benutzer direkt mit Google Cloud interagieren, um ihren lokalen Code in Google Cloud zu integrieren.[65] Andere Add-Ons, Bibliotheken und Frameworks umfassen TensorFlow-Modelloptimierung, Tensorflow-Wahrscheinlichkeit, Tensorflow-Quantum und Tensorflow-Entscheidungswälder.[64][65]
Google Colab
Google veröffentlichte auch Colaboratory, eine TensorFlow Jupyter Notebook -Umgebung, für die kein Setup erforderlich ist.[66] Es wird in Google Cloud ausgeführt und ermöglicht den Benutzern den freien Zugriff auf GPUs und die Möglichkeit, Notebooks auf Google Drive zu speichern und zu teilen.[67]
Google Jax
Google Jax ist ein maschinelles Lernrahmen für die Transformation numerischer Funktionen.[68][69][70] Es wird beschrieben, dass es eine modifizierte Version von zusammenbringt Autograd (automatisches Erhalten der Gradientenfunktion durch Differenzierung einer Funktion) und Tensorflow's Xla (Beschleunigte lineare Algebra). Es soll die Struktur und den Workflow von folgen Numpy so eng wie möglich und funktioniert mit Tensorflow sowie andere Frameworks wie z. Pytorch. Die Hauptfunktionen von JAX sind:[68]
- Grad: Automatische Differenzierung
- JIT: Zusammenstellung
- VMAP: Auto-Vektorisierung
- PMAP: SPMD -Programmierung
Anwendungen
Medizinisch
GE Gesundheitswesen verwendet Tensorflow, um die Geschwindigkeit und Genauigkeit von zu erhöhen MRIS bei der Identifizierung spezifischer Körperteile.[71] Google verwendete TensorFlow, um Dermassist zu erstellen, eine kostenlose mobile Anwendung, mit der Benutzer Bilder von ihrer Haut aufnehmen und potenzielle gesundheitliche Komplikationen identifizieren können.[72] Sinovation Ventures verwendete Tensorflow, um Augenkrankheiten aus zu identifizieren und zu klassifizieren Optische Kohärenztomographie (Okt.) Scans.[72]
Sozialen Medien
Twitter Implementierte TensorFlow, um Tweets nach Bedeutung für einen bestimmten Benutzer zu bewerten, und änderte ihre Plattform, um Tweets in dieser Rangliste anzuzeigen.[73] Zuvor wurden Tweets einfach in umgekehrter chronologischer Reihenfolge gezeigt.[73] Die Foto -Sharing -App VSCO Gebrauchter Tensorflow, um benutzerdefinierte Filter für Fotos vorzuschlagen.[72]
Suchmaschine
Google offiziell freigelassen Rankbrain am 26. Oktober 2015, unterstützt von TensorFlow.[74]
Ausbildung
Inspirace, eine virtuelle Lernplattform, wurde TensorFlow verwendet, um giftige Chat -Nachrichten in Klassenzimmern herauszufiltern.[75] Liulishuo, eine Online -Lernplattform für englische Lernen, nutzte den Tensorflow, um einen adaptiven Lehrplan für jeden Schüler zu erstellen.[76] TensorFlow wurde verwendet, um die aktuellen Fähigkeiten eines Schülers genau zu bewerten, und half auch, die besten zukünftigen Inhalte zu entscheiden, die auf diesen Funktionen angezeigt werden.[76]
Einzelhandel
Die E-Commerce-Plattform Karussell Gebrauchtes Tensorflow, um Kunden personalisierte Empfehlungen zu geben.[72] Das Cosmetics Company Modiface verwendete TensorFlow, um ein Augmented Reality-Erlebnis für Kunden zu schaffen, um verschiedene Make-up-Schatten im Gesicht zu testen.[77]


Forschung
TensorFlow ist die Grundlage für die automatisierten Bildkaptionierung Software Deepdream.[78]
Siehe auch
Literaturverzeichnis
- Moroney, Laurence (1. Oktober 2020). KI und maschinelles Lernen für Codierer (1. Aufl.). O'Reilly Media. p. 365. ISBN 9781492078197.
- Géron, Aurélien (15. Oktober 2019). Praktisches maschinelles Lernen mit Scikit-Learn, Keras und Tensorflow (2. Aufl.). O'Reilly Media. p. 856. ISBN 9781492032632.
- Ramsundar, Bharath; Zadeh, Reza Bosagh (23. März 2018). Tensorflow für tiefes Lernen (1. Aufl.). O'Reilly Media. p. 256. ISBN 9781491980446.
- Hoffnung, Tom; Resheff, Yehezkel S.; LEDER, ITAY (27. August 2017). Lernzensorflow: Ein Leitfaden zum Aufbau von tiefen Lernsystemen (1. Aufl.). O'Reilly Media. p. 242. ISBN 9781491978504.
- Shukla, Nishant (12. Februar 2018). Maschinelles Lernen mit Tensorflow (1. Aufl.). Manning Publications. p. 272. ISBN 9781617293870.
Externe Links
Verweise
- ^ a b "Credits". Tensorflow.org. Abgerufen 10. November, 2015.
- ^ "Release 2.9.0". 16. Mai 2022. Abgerufen 21. Mai, 2022.
- ^ "Tensorflow.js". Abgerufen 28. Juni, 2018.
- ^ Abadi, Martín; Barham, Paul; Chen, Jianmin; Chen, Zhifeng; Davis, Andy; Dean, Jeffrey; Devin, Matthieu; Ghemawat, Sanjay; Irving, Geoffrey; Isard, Michael; Kudlur, Manjunath; Levenberg, Josh; Monga, Rajat; Moore, Sherry; Murray, Derek G.; Steiner, Benoit; Tucker, Paul; Vasudevan, Vijay; Warden, Pete; Wicke, Martin; Yu, yuan; Zheng, Xiaoqiang (2016). Tensorflow: Ein System für groß angelegte maschinelles Lernen (PDF). Proceedings of the 12. Usenix Symposium on Betriebssystemdesign und -implementierung (OSDI ’16). Arxiv:1605.08695.
- ^ Tensorflow: Open Source Machine Learning. Google. 2015. Archiviert vom Original am 11. November 2021. "Es ist eine Software für maschinelles Lernen, die für verschiedene Arten von Wahrnehmungs- und Sprachverständnisaufgaben verwendet wird" - Jeffrey Dean, Minute 0:47 / 2:17 von YouTube Clip
- ^ Videoclip von Google über TensorFlow 2015 in Minute 0: 15/2: 17
- ^ Videoclip von Google über TensorFlow 2015 in Minute 0: 26/2: 17
- ^ Dean et al. 2015, p. 2
- ^ Metz, Cade (9. November 2015). "Google Just Open Source TensorFlow, seine künstliche Intelligenz -Engine". Verdrahtet. Abgerufen 10. November, 2015.
- ^ a b Tensorflow (30. September 2019). "TensorFlow 2.0 ist jetzt verfügbar!". Mittel. Abgerufen 24. November, 2019.
- ^ a b "API -Dokumentation". Abgerufen 27. Juni, 2018.
- ^ Dean, Jeff; Monga, Rajat; et al. (9. November 2015). "Tensorflow: großes maschinelles Lernen auf heterogenen Systemen" (PDF). Tensorflow.org. Google -Forschung. Abgerufen 10. November, 2015.
- ^ Perez, Sarah (9. November 2015). "Google Open-Sources Die Technologie für maschinelles Lernen hinter Google Photos-Suche, intelligente Antwort und mehr". Techcrunch. Abgerufen 11. November, 2015.
- ^ Oremus, Will (9. November 2015). "Was ist Tensorflow und warum ist Google so begeistert davon?". Schiefer. Abgerufen 11. November, 2015.
- ^ Ward-Bailey, Jeff (25. November 2015). "Google Chairman: Wir machen 'echte Fortschritte' zur künstlichen Intelligenz". Csmonitor. Abgerufen 25. November, 2015.
- ^ "TensorFlow Release 1.0.0". GitHub.
- ^ Metz, Cade (10. November 2015). "TensorFlow, Googles Open Source-KI, verweist auf eine sich schnell verändernde Hardware-Welt". Verdrahtet. Abgerufen 11. November, 2015.
- ^ Maschinelles Lernen: Google I/O 2016 Minute 07: 30/44: 44 AccessDate = 2016-06-05
- ^ Tensorflow (30. März 2018). "Einführung von TensorFlow.js: maschinelles Lernen in JavaScript". Mittel. Abgerufen 24. Mai, 2019.
- ^ Tensorflow (14. Januar 2019). "Was kommt in TensorFlow 2.0". Mittel. Abgerufen 24. Mai, 2019.
- ^ Tensorflow (9. Mai 2019). "Einführung von TensorFlow Graphics: Computergrafik trifft Deep Learning". Mittel. Abgerufen 24. Mai, 2019.
- ^ Jouppi, Norm. "Google Superces maschinelles Lernaufgaben mit TPU -benutzerdefinierter Chip". Google Cloud Platform Blog. Abgerufen 19. Mai, 2016.
- ^ "Modelle für maschinelles Lernen auf unserem neuen Google Cloud TPUs erstellen und trainieren". Google. 17. Mai 2017. Abgerufen 18. Mai, 2017.
- ^ "Cloud TPU". Google Cloud. Abgerufen 24. Mai, 2019.
- ^ "Cloud TPU maschinelles Lernen Beschleuniger jetzt in Beta verfügbar". Google Cloud Platform Blog. Abgerufen 12. Februar, 2018.
- ^ Kundu, Kishalaya (26. Juli 2018). "Google kündigt Edge TPU, Cloud IoT Edge bei Cloud nächsten 2018 an.". Beebom. Abgerufen 2. Februar, 2019.
- ^ "Das neue Framework für maschinelles Lernen von Google wird mehr KI auf Ihr Telefon bringen". 17. Mai 2017.
- ^ Tensorflow (16. Januar 2019). "TensorFlow Lite jetzt schneller mit mobiler GPUs (Entwicklervorschau)". Mittel. Abgerufen 24. Mai, 2019.
- ^ "Utensor- und Tensorflussankündigung | Mbed". os.mbed.com. Abgerufen 24. Mai, 2019.
- ^ a b Er, Horace (10. Oktober 2019). "Der Stand der Rahmenbedingungen für maschinelles Lernen im Jahr 2019". Der Gradient. Abgerufen 22. Mai, 2020.
- ^ "TensorFlow 2.0 ist jetzt verfügbar!". Tensorflow -Blog. 30. September 2019. Abgerufen 22. Mai, 2020.
- ^ a b "Einführung in Gradienten und automatische Differenzierung". Tensorflow. Abgerufen 4. November, 2021.
- ^ a b c "Eifrige Ausführung | TensorFlow Core". Tensorflow. Abgerufen 4. November, 2021.
- ^ a b "Modul: tf.distribute | TensorFlow Core v2.6.1". Tensorflow. Abgerufen 4. November, 2021.
- ^ Sigeru., Omatu (2014). Distributed Computing und künstliche Intelligenz, 11. Internationale Konferenz. Springer International Publishing. ISBN 978-3-319-07593-8. OCLC 980886715.
- ^ a b "Modul: Tf.Losses | TensorFlow Core v2.6.1". Tensorflow. Abgerufen 4. November, 2021.
- ^ "Modul: Tf.Metrics | TensorFlow Core v2.6.1". Tensorflow. Abgerufen 4. November, 2021.
- ^ a b "Modul: tf.nn | TensorFlow Core v2.7.0". Tensorflow. Abgerufen 6. November, 2021.
- ^ "Modul: tf.optimizers | TensorFlow Core v2.7.0". Tensorflow. Abgerufen 6. November, 2021.
- ^ Dogo, E. M.; Afolabi, O. J.; Nwulu, N. I.; Twala, b.; Aigbavboa, C. O. (Dezember 2018). "Eine vergleichende Analyse von Optimierungsalgorithmen für Gradientenabfälle auf Faltungsnetzwerken". 2018 Internationale Konferenz über Computertechniken, Elektronik und mechanische Systeme (CTEMs): 92–99. doi:10.1109/ctem.2018.8769211. ISBN 978-1-5386-7709-4. S2CID 198931032.
- ^ "Tensorflow Core | Maschinelles Lernen für Anfänger und Experten". Tensorflow. Abgerufen 4. November, 2021.
- ^ a b c "Einführung in den TensorFlow". Tensorflow. Abgerufen 28. Oktober, 2021.
- ^ "Alle Symbole in TensorFlow 2 | Tensorflow Core v2.7.0". Tensorflow. Abgerufen 6. November, 2021.
- ^ "Tensorflow.js". Js.tensorflow.org. Abgerufen 6. November, 2021.
- ^ "TensorFlow C ++ API Referenz | Tensorflow Core v2.7.0". Tensorflow. Abgerufen 6. November, 2021.
- ^ "org.tensorflow | java". Tensorflow. Abgerufen 6. November, 2021.
- ^ Icaza, Miguel DE (17. Februar 2018). "TensorFlowsharp: TensorFlow -API für .NET -Sprachen". GitHub. Abgerufen 18. Februar, 2018.
- ^ Chen, Haiping (11. Dezember 2018). "TensorFlow.net: .NET -Standardbindungen für TensorFlow". GitHub. Abgerufen 11. Dezember, 2018.
- ^ "Haskell: Haskell -Bindungen für Tensorflow". Tensorflow. 17. Februar 2018. Abgerufen 18. Februar, 2018.
- ^ MALMAUD, JON (12. August 2019). "Ein Julia -Wrapper für Tensorflow". GitHub. Abgerufen 14. August, 2019.
Operationen wie Sünde, * (Matrix-Multiplikation),. * (Elementwise-Multiplikation) usw. [..]. Vergleichen Sie mit Python, das das Erlernen von Fachfunktionen wie tf.matmul erfordert.
- ^ "Ein Matlab -Wrapper für den Tensorflow -Kern". GitHub. 3. November 2019. Abgerufen 13. Februar, 2020.
- ^ "Tensorflow: Tensorflow für R". RSTUDIO. 17. Februar 2018. Abgerufen 18. Februar, 2018.
- ^ Platanios, Anthony (17. Februar 2018). "TensorFlow_Scala: TensorFlow -API für die Scala -Programmiersprache". GitHub. Abgerufen 18. Februar, 2018.
- ^ "Rost: Rostsprachbindungen für Tensorflow". Tensorflow. 17. Februar 2018. Abgerufen 18. Februar, 2018.
- ^ Mazare, Laurent (16. Februar 2018). "TensorFlow-Ocaml: OCAML-Bindungen für TensorFlow". GitHub. Abgerufen 18. Februar, 2018.
- ^ "Fazibear/TensorFlow.cr". GitHub. Abgerufen 10. Oktober, 2018.
- ^ "TensorFlow -Paket - github.com/tensorflow/tensorflow/tensorflow/go - pkg.go.dev". pkg.go.dev. Abgerufen 6. November, 2021.
- ^ "Swift für TensorFlow (im Archivmodus)". Tensorflow. Abgerufen 6. November, 2021.
- ^ "TensorFlow.js | Maschinelles Lernen für JavaScript -Entwickler". Tensorflow. Abgerufen 28. Oktober, 2021.
- ^ "Tensorflow Lite | Ml für Mobil- und Edge -Geräte". Tensorflow. Abgerufen 1. November, 2021.
- ^ a b "Tensorflow lite". Tensorflow. Abgerufen 1. November, 2021.
- ^ a b "TensorFlow Extended (TFX) | ML Produktionspipelines". Tensorflow. Abgerufen 2. November, 2021.
- ^ a b c "Anpassungsgrundlagen: Tensoren und Operationen | Tensorflow Core". Tensorflow. Abgerufen 6. November, 2021.
- ^ a b "Leitfaden | Tensorflow Core". Tensorflow. Abgerufen 4. November, 2021.
- ^ a b "Bibliotheken & Erweiterungen". Tensorflow. Abgerufen 4. November, 2021.
- ^ "Colaboratory - Google". Research.google.com. Abgerufen 10. November, 2018.
- ^ "Google Colaboratory". colab.research.google.com. Abgerufen 6. November, 2021.
- ^ a b JAX: Autograd und XLA, Google, 18. Juni 2022, archiviert von das Original am 18. Juni 2022, abgerufen 18. Juni, 2022
- ^ "Verwenden Sie JAX, um unsere Forschung zu beschleunigen". www.deepmind.com. Archiviert vom Original am 18. Juni 2022. Abgerufen 18. Juni, 2022.
- ^ "Warum ist Googles Jax so beliebt?". Analytics India Magazine. 25. April 2022. Archiviert vom Original am 18. Juni 2022. Abgerufen 18. Juni, 2022.
- ^ "Intelligentes Scannen mit Deep Learning for MRT". Abgerufen 4. November, 2021.
- ^ a b c d "Fallstudien und Erwähnungen". Tensorflow. Abgerufen 4. November, 2021.
- ^ a b "Tweets mit Tensorflow rankieren". Abgerufen 4. November, 2021.
- ^ 3,5 kshares; 72Kreads. "Eine vollständige Anleitung zum Google Rankbrain -Algorithmus". Suchmaschinenjournal. Abgerufen 6. November, 2021.
- ^ "Inspace: Eine neue Videokonferenzplattform, die TensorFlow.js für Toxizitätsfilter im Chat verwendet". Abgerufen 4. November, 2021.
- ^ a b Xulin. "流利 说 基于 基于 基于 基于 基于 适应 系统 实践 实践". Wixin Official Accounts Platform. Abgerufen 4. November, 2021.
- ^ "Wie Modiface TensorFlow.js in der Produktion für AR -Make -up verwendet hat, versuchen Sie es im Browser". Abgerufen 4. November, 2021.
- ^ Byrne, Michael (11. November 2015). "Google bietet seine gesamte Bibliothek für maschinelles Lernen als Open-Source-Software an.". Vize. Abgerufen 11. November, 2015.