Tiefes Lernen

Representing images on multiple layers of abstraction in deep learning
Darstellung von Bildern auf mehreren Abstraktionsebenen im tiefen Lernen darstellen[1]

Tiefes Lernen (auch bekannt als Tiefes strukturiertes Lernen) ist Teil einer breiteren Familie von Methoden für maschinelles Lernen basierend auf künstliche neurale Netzwerke mit Repräsentationslernen. Lernen kann sein beaufsichtigt, semi-valviertes oder unbeaufsichtigt.[2]

Tief lernende Architekturen wie z. tiefe neuronale Netze, Tiefe Glaubensnetzwerke, Tiefes Verstärkungslernen, Wiederkehrende neuronale Netze, Faltungsnetzwerke und Transformer wurden auf Felder angewendet, einschließlich Computer Vision, Spracherkennung, Verarbeitung natürlicher Sprache, Maschinenübersetzung, Bioinformatik, Drogendesign, medizinische Bildanalyse, Klimakwissenschaft, materielle Inspektion und Brettspiel Programme, bei denen sie Ergebnisse erzielt haben, die mit und in einigen Fällen vergleichbar sind und die die Leistung des Menschen übertreffen.[3][4][5]

Künstliche neurale Netzwerke (Anns) wurden von Informationsverarbeitung und verteilten Kommunikationsknoten in inspiriert Biologische Systeme. ANNs haben verschiedene Unterschiede zu biologisch Gehirn. Insbesondere künstliche neuronale Netzwerke sind tendenziell statisch und symbolisch, während das biologische Gehirn der meisten lebenden Organismen dynamisch (plastisch) und analog ist.[6][7]

Das Adjektiv "tief" im tiefen Lernen bezieht sich auf die Verwendung mehrerer Ebenen im Netzwerk. Frühe Arbeiten zeigten, dass ein linear Perzeptron Kann kein universeller Klassifizierer sein, aber ein Netzwerk mit einer nichtpolynomialen Aktivierungsfunktion mit einer versteckten Schicht unbegrenzter Breite kann. Deep Learning ist eine moderne Variation, die sich mit einer unbegrenzten Anzahl von Schichten begrenzter Größe befasst, was die praktische Anwendung und eine optimierte Umsetzung ermöglicht und gleichzeitig die theoretische Universalität unter milden Bedingungen beibehält. In Deep Learning dürfen die Schichten auch heterogen sein und weitgehend von biologisch informiert abweichen Verbindungswissenschaftler Modelle, um Effizienz, Trainingsfähigkeit und Verständlichkeit willen, woher der "strukturierte" Teil.

Definition

Deep Learning ist eine Klasse von maschinelles Lernen Algorithmen das[8]: 199–200 Verwendet mehrere Schichten, um die Merkmale höherer Ebene aus dem Roheingang schrittweise zu extrahieren. Zum Beispiel in Bildverarbeitung, niedrigere Schichten können Kanten identifizieren, während höhere Schichten die für einen Menschen relevanten Konzepte wie Ziffern oder Buchstaben oder Gesichter identifizieren können.

Überblick

Die meisten modernen Deep -Learn -Modelle basieren auf künstliche neurale Netzwerke, speziell Faltungsnetzwerke (CNN) s, obwohl sie auch einschließen können Aussageformeln oder latente Variablen organisierte Schicht, die in Tief organisiert sind Generative Modelle wie die Knoten in Tiefe Glaubensnetzwerke und tief Boltzmann -Maschinen.[9]

In Deep Learning lernt jede Ebene, ihre Eingabedaten in eine etwas abstraktere und zusammengesetztere Darstellung zu verwandeln. In einer Bilderkennungsanwendung kann die RAW -Eingabe a sein Matrix von Pixeln; Die erste Repräsentationsschicht kann die Pixel abstrahieren und Kanten kodieren. Die zweite Schicht kann Anordnungen von Kanten komponieren und codieren. Die dritte Schicht kann eine Nase und Augen codieren; und die vierte Schicht kann erkennen, dass das Bild ein Gesicht enthält. Wichtig ist, dass ein tiefer Lernprozess lernen kann, welche Funktionen optimal platzieren, auf welcher Ebene von allein. Dies beseitigt nicht die Notwendigkeit von Handabbau. Beispielsweise können unterschiedliche Anzahl von Schichten und Schichtgrößen unterschiedliche Abstraktionsgrade liefern.[10][11]

Das Wort "tief" in "Deep Learning" bezieht sich auf die Anzahl der Schichten, durch die die Daten transformiert werden. Genauer Kreditzuweisungspfad (Kappe) Tiefe. Die Kappe ist die Transformationskette von Eingabe zu Ausgang. CAPS beschreiben potenziell kausale Verbindungen zwischen Eingang und Ausgang. Für ein Feedforward Neural NetworkDie Tiefe der Kappen ist die des Netzwerks und ist die Anzahl der versteckten Schichten plus eins (da die Ausgangsschicht ebenfalls parametrisiert ist). Zum Wiederkehrende neuronale Netze, in dem sich ein Signal mehr als einmal durch eine Schicht ausbreiten kann, ist die Kappentiefe möglicherweise unbegrenzt.[12] Keine universell vereinbarte U-up-upon-Schwelle der Tiefe teilt das flache Lernen von Deep Learning auf, aber die meisten Forscher sind sich einig, dass Deep Learning Captiefe höher als 2 beinhaltet .[13] Darüber hinaus tragen mehr Schichten der Funktionsgenäherungsfähigkeit des Netzwerks bei. Deep -Modelle (CAP> 2) können bessere Merkmale extrahieren als flache Modelle und daher helfen zusätzliche Schichten beim Lernen der Funktionen effektiv.

Deep Learning Architekturen können mit a konstruiert werden gierig Schicht-für-Schicht-Methode.[14] Deep Learning hilft, diese Abstraktionen zu entwirren und herauszufinden, welche Funktionen die Leistung verbessern.[10]

Zum überwachtes Lernen Aufgaben, tiefe Lernmethoden eliminieren Feature Engineeringdurch Übersetzung der Daten in kompakte Zwischendarstellungen ähneln wie Hauptkomponentenund leiten geschichtete Strukturen ab, die Redundanz in der Darstellung entfernen.

Deep -Lern -Algorithmen können auf unbeaufsichtigte Lernaufgaben angewendet werden. Dies ist ein wichtiger Vorteil, da nicht markierte Daten häufiger sind als die markierten Daten. Beispiele für tiefe Strukturen, die auf unbeaufsichtigte Weise trainiert werden können, sind Tiefe Glaubensnetzwerke.[10][15]

Interpretationen

Tiefe neuronale Netze werden im Allgemeinen in Bezug auf die interpretiert Universeller Annäherungssatz[16][17][18][19][20] oder Wahrscheinliche Folgerung.[8][10][12][21]

Der klassische universelle Annäherungssatz betrifft die Kapazität von Feedforward Neural Networks mit einer einzigen versteckten Schicht endlicher Größe, die ungefähr annähern kontinuierliche Funktionen.[16][17][18][19] 1989 wurde der erste Beweis veröffentlicht von George Cybenko zum Sigmoid Aktivierungsfunktionen[16] und wurde 1991 von Kurt Hornik auf mehrschichtige Architekturen für mehrschichtige Architekturen verallgemeinert.[17] Die jüngsten Arbeiten zeigten auch, dass die universelle Näherung auch für nicht-bundige Aktivierungsfunktionen wie die korrigierte lineare Einheit gilt.[22]

Der universelle Näherungssatz für tiefe neuronale Netze betrifft die Kapazität von Netzwerken mit begrenzter Breite, aber die Tiefe darf wachsen. Lu et al.[20] bewies das, wenn die Breite von a Tiefes neuronales Netzwerk mit Relu Die Aktivierung ist streng größer als die Eingangsdimension, dann kann das Netzwerk alle annähern Lebesgue Integrierbare Funktion; Wenn die Breite kleiner oder gleich der Eingangsdimension ist, dann a Tiefes neuronales Netzwerk ist kein universeller Approxator.

Das probabilistisch Deutung[21] stammt aus dem Gebiet von maschinelles Lernen. Es verfügt über Schlussfolgerungen,[8][9][10][12][15][21] ebenso wie Optimierung Konzepte von Ausbildung und testen, im Zusammenhang mit Anpassung und Verallgemeinerung, beziehungsweise. Insbesondere berücksichtigt die probabilistische Interpretation die Aktivierung der Nichtlinearität als a Verteilungsfunktion.[21] Die probabilistische Interpretation führte zur Einführung von aussteigen wie Regularizer in neuronalen Netzwerken. Die probabilistische Interpretation wurde von Forschern eingeführt, einschließlich Hopfield, Wide und Narendra und populär in Umfragen wie dem von Bischof.[23]

Geschichte

Einige Quellen weisen darauf hin Frank Rosenblatt entwickelte und untersuchte alle grundlegenden Zutaten der Deep -Lern -Systeme von heute.[24] Er beschrieb es in seinem Buch "Principles of Neurodynamics: Perceptrons und The Theory of Hirnmechanismen", veröffentlicht von Cornell Aeronautical Laboratory, Inc., Universität Cornell, 1962.

Der erste allgemeine, arbeitende Lernalgorithmus für beaufsichtigtes, tiefes, feedforward, mehrschichtiger Wahrnehmung wurde veröffentlicht von Alexey Ivakhnenko und Lapa im Jahr 1967.[25] Ein Papier von 1971 beschrieb ein tiefes Netzwerk mit acht Schichten, die von der ausgebildet wurden Gruppenmethode der Datenhandhabung.[26] Andere tiefe Lernarchitekturen, insbesondere diejenigen, für die gebaut wurde Computer Visionbegann mit dem Neocognitron Vorgestellt von Kunihiko Fukushima 1980.[27]

Der Begriff Tiefes Lernen wurde in die Community für maschinelles Lernen eingeführt von Rina Dechter in 1986,[28] und zu künstliche neurale Netzwerke von Igor Aizenberg und Kollegen im Jahr 2000 im Kontext von Boolesche Schwellenneuronen.[29][30]

1989,, Yann Lecun et al. angewendet den Standard Backpropagation Algorithmus, der es als umgekehrter Modus von gab Automatische Differenzierung seit 1970,[31][32][33][34] zu einem tiefen neuronalen Netzwerk mit dem Zweck von Erkennen von handgeschriebenen Postleitzahlen erkennen auf Post. Während des Algorithmus erforderte das Training 3 Tage.[35]

Im Jahr 1994 veröffentlichte André de Carvalho zusammen mit Mike Fairhurst und David Bisset experimentelle Ergebnisse eines mehrschichtigen booleschen neuronalen Netzwerks, das auch als schwerelose neuronales Netzwerk bekannt ist und aus einem 3-Schicht-Selbstorganisationsextraktionsnetzwerkmodul (Merkmalextraktionsmodul ( Soft) gefolgt von einem mehrschichtigen Klassifizierungsmodul (GSN), das unabhängig geschult wurde. Jede Schicht im Merkmalextraktionsmodul extrahierte Merkmale mit wachsender Komplexität in Bezug auf die vorherige Schicht.[36]

Im Jahr 1995, Brendan Frey zeigte, dass es möglich war, ein Netzwerk mit sechs vollständig verbundenen Schichten und mehreren hundert Hidden -Einheiten zu trainieren (über zwei Tage), die die sechs vollständig verbunden sind Wake-Sleep-Algorithmus, gemeinsam mit Peter Dayan und Hinton.[37] Viele Faktoren tragen zur langsamen Geschwindigkeit bei, einschließlich der Verschwandungsgradientenproblem analysiert 1991 von Sepp Hochreiter.[38][39]

Sven Behnke erweiterte seit 1997 den hierarchischen Fischansatz in der neuronalen Abstraktion Pyramide[40] durch laterale und rückständige Verbindungen, um den Kontext flexibel in Entscheidungen einzubeziehen und lokale Unklarheiten iterativ zu lösen.

Einfachere Modelle, die aufgabenspezifische handgefertigte Funktionen wie z. Gabor filtert und Support-Vektor-Maschinen (SVMS) waren in den 1990er und 2000er Jahren eine beliebte Wahl künstliche neuronale Netz's (Ann) Berechnungskosten und mangelnder Verständnis dafür, wie das Gehirn seine biologischen Netzwerke enthält.

Sowohl flaches als auch tiefes Lernen (z. B. wiederkehrende Netze) von ANNs werden seit vielen Jahren untersucht.[41][42][43] Diese Methoden übertrafen nie ungleichmäßige interne Handwerkern-Gaußsche Mischmodell/Verstecktes Markov -Modell (GMM-HMM) -Technologie basierend auf generativen Sprachmodellen, die diskriminativ geschult sind.[44] Es wurden wichtige Schwierigkeiten analysiert, einschließlich Abbau von Gradienten[38] und schwache zeitliche Korrelationsstruktur in neuronalen Prädiktivmodellen.[45][46] Zusätzliche Schwierigkeiten waren der Mangel an Trainingsdaten und begrenzte Rechenleistung.

Die meisten Spracherkennung Die Forscher bewegten sich von neuronalen Netzen, um eine generative Modellierung zu verfolgen. Eine Ausnahme war bei SRI International In den späten 1990er Jahren. Finanziert von den US -Regierung NSA und DARPA, Sri studierte tiefe neuronale Netzwerke in Sprache und Sprechererkennung. Das Rednererkennungsteam angeführt von Larry Heck berichtete über einen signifikanten Erfolg mit tiefen neuronalen Netzwerken in der Sprachverarbeitung im 1998 Nationales Institut für Standards und Technologie Bewertung der Sprechererkennung.[47] Das SRI Deep Neural Network wurde dann im Nuance -Verifizierer eingesetzt, was die erste große industrielle Anwendung von Deep Learning darstellte.[48]

Das Prinzip der Erhöhung der "rohen" Merkmale über handgefertigte Optimierung wurde zunächst in der Architektur des Deep Autocoders im "RAW" -Spektrogramm oder der linearen Filterbankfunktionen Ende der neunziger Jahre erfolgreich untersucht.[48] Zeigt seine Überlegenheit gegenüber den Mel-CEPSTRAL-Merkmalen, die Stadien der festen Transformation aus Spektrogrammen enthalten. Die rohen Sprachmerkmale, Wellenformenspäter erzielte hervorragende Ergebnisse in größerem Maßstab.[49]

Viele Aspekte der Spracherkennung wurden von einer tiefen Lernmethode genannt langes Kurzzeitgedächtnis (LSTM), ein wiederkehrendes neuronales Netzwerk von Hochreiter und Schmidhuber in 1997.[50] Lstm Rnns Vermeiden Sie das Problem des Verschwandungsgradienten und können "sehr tiefes Lernen" -Daufsätze lernen[12] Das erfordern Erinnerungen an Ereignisse, die zuvor Tausende von diskreten Zeitschritten aufgetreten sind, was für die Sprache wichtig ist. Im Jahr 2003 wurde LSTM mit traditionellen Spracherkennern bei bestimmten Aufgaben wettbewerbsfähig.[51] Später wurde es mit der Connectionist Temporal Classification (CTC) kombiniert.[52] in Stapeln von LSTM RNNs.[53] Im Jahr 2015 erlebte die Spracherkennung von Google Berichten zufolge einen dramatischen Leistungssprung von 49% über CTC-ausgebildete LSTM, den sie durch die verfügbaren Durchführung durchführten Google Voice Search.[54]

Im Jahr 2006 Veröffentlichungen von Geoff Hinton, Ruslan Salakhutdinov, Osindero und Teh[55][56][57] zeigten, wie ein vielschichtiger Feedforward Neural Network könnte effektiv eine Schicht gleichzeitig vorgeschrieben werden und die jede Schicht wiederum als unbeaufsichtigt behandeln eingeschränkte Boltzmann -Maschine, dann fein abtun es mit beaufsichtigtem Backpropagation.[58] Die Papiere genannt Lernen zum tiefe Glaubensnetze.

Deep Learning ist Teil hochmoderner Systeme in verschiedenen Disziplinen, insbesondere Computer Vision und Automatische Spracherkennung (ASR). Ergebnisse von häufig verwendeten Bewertungssätzen wie z. Timit (ASR) und MNIST (Bildklassifizierung) sowie eine Reihe von Spracherkennungsaufgaben mit großer Vokabular haben sich stetig verbessert.[59][60] Faltungsnetzwerke (CNNs) wurden von CTC für ASR abgelöst[52] zum Lstm.[50][54][61][62][63] sind aber erfolgreicher in Computer Vision.

Die Auswirkungen des tiefen Lernens in der Industrie begannen in den frühen 2000er Jahren, als CNNs laut Yann Lecun bereits schätzungsweise 10% bis 20% aller in den USA geschriebenen Schecks verarbeitete.[64] Industrielle Anwendungen des tiefen Lernens auf groß angelegte Spracherkennung begannen um 2010.

Der 2009 NIPS-Workshop zum Deep-Lernen für die Spracherkennung wurde durch die Grenzen der tiefen generativen Sprachmodelle motiviert, und die Möglichkeit, dass die fähigeren Hardware- und groß angelegten Datensätze, dass Deep Neural Nets (DNN) praktisch werden könnte. Es wurde angenommen, dass DNNs vor dem Training mit generativen Modellen von tiefen Glaubensnetzen (DBN) die Hauptschwierigkeiten von neuronalen Netzen überwinden würden. Es wurde jedoch festgestellt, dass das Ersetzen vor dem Training durch große Anzahl von Trainingsdaten für einfache Backpropagation Bei der Verwendung von DNNs mit großen, kontextabhängigen Ausgangsschichten wurden Fehlerraten erzeugt, die dramatisch niedriger sind als das damalige Gaußsche Mischmodell (GMM)/HIDDEN Markov (HMM) und auch als advancierteren generativen modellbasierten Systeme .[59] Die Art der Erkennungsfehler, die von den beiden Systemtypen erzeugt wurden, war charakteristisch unterschiedlich,[65] Bieten Sie technische Einblicke in die Integration von Deep-Lernen in das vorhandene hocheffiziente, laufende Sprachdecodierungssystem, das von allen wichtigen Spracherkennungssystemen eingesetzt wird.[8][66][67] Analyse um 2009–2010, im Gegensatz zu den GMM (und anderen generativen Sprachmodellen) im Vergleich zu DNN[65] schließlich zu allgegenwärtigem und dominantem Gebrauch in dieser Branche führt. Diese Analyse erfolgte mit vergleichbarer Leistung (weniger als 1,5% der Fehlerrate) zwischen diskriminativen DNNs und generativen Modellen.[59][65][68]

Im Jahr 2010 erweiterten die Forscher das tiefgreifende Lernen vom Zeitpunkt auf große Vokabular-Spracherkennung, indem sie große Ausgangsschichten des DNN auf der Grundlage von kontextabhängigen HMM-Zuständen übernommen haben Entscheidungsbäume.[69][70][71][66]

Fortschritte in der Hardware haben das erneute Interesse an Deep Learning gesteuert. In 2009, Nvidia war an dem sogenannten „Urknall“ des tiefen Lernens beteiligt: ​​„Als tiefgreifende neuronale Netzwerke mit Nvidia ausgebildet wurden Grafikverarbeitungseinheiten (GPUs). “[72] Dieses Jahr, Andrew Ng stellte fest, dass GPUs die Geschwindigkeit von Tieflernsystemen um etwa das 100-fache erhöhen könnte.[73] Insbesondere sind GPUs für die Matrix-/Vektorberechnungen, die mit dem maschinellen Lernen verbunden sind, gut geeignet.[74][75][76] GPUs beschleunigen Trainingsalgorithmen durch Größenordnungen und verkürzen die Laufzeiten von Wochen auf Tage.[77][78] Darüber hinaus können spezielle Hardware- und Algorithmus -Optimierungen zur effizienten Verarbeitung von Deep -Learning -Modellen verwendet werden.[79]

Deep Learning Revolution

Wie tiefes Lernen eine Untergruppe des maschinellen Lernens ist und wie maschinelles Lernen eine Untergruppe künstlicher Intelligenz (KI) ist

Im Jahr 2012 gewann ein Team von George E. Dahl die "Merck Molecular Activity Challenge" unter Verwendung von tiefen neuronalen Netzwerken mit mehreren Aufgaben, um die vorherzusagen Biomolekulares Ziel von einer Droge.[80][81] Im Jahr 2014 verwendete die Hochreiter-Gruppe Deep Learning, um Off-Target- und toxische Auswirkungen von Umweltchemikalien in Nährstoffen, Haushaltsprodukten und Arzneimitteln zu erkennen und die "TOX21-Datenherausforderung" zu erhalten NIH, FDA und NCATs.[82][83][84]

Von 2011 bis 2012 wurden signifikante zusätzliche Auswirkungen auf die Bild- oder Objekterkennung gefühlt. Obwohl CNNs von trainiert von Backpropagation Es war seit Jahrzehnten da, und die GPU -Implementierungen von NNS seit Jahren, einschließlich CNNs, waren schnelle Implementierungen von CNNs auf GPUs erforderlich, um Fortschritte bei Computer Vision zu erreichen.[74][76][35][85][12] Im Jahr 2011 erreichte dieser Ansatz in einem visuellen Mustererkennungswettbewerb zum ersten Mal übermenschliche Leistung. Ebenfalls im Jahr 2011 gewann es den ICDAR Chinese Handschriftwettbewerb und im Mai 2012 den ISBI -Image -Segmentierungswettbewerb.[86] Bis 2011 spielte CNNs keine wichtige Rolle bei Computer Vision -Konferenzen, aber im Juni 2012 war ein Papier von Ciresan et al. auf der führenden Konferenz CVPR[3] zeigten, wie Max-Pooling-CNNs auf GPU viele Sehvermögensakten dramatisch verbessern können. Im Oktober 2012 ein ähnliches System von Krizhevsky et al.[4] gewann die groß angelegte ImageNet -Wettbewerb mit einem erheblichen Rand über flache Methoden des maschinellen Lernens. Im November 2012 gewann das System von Ciresan et al. Außerdem den ICPR -Wettbewerb zur Analyse großer medizinischer Bilder zur Krebserkennung und im folgenden Jahr auch die Miccai Grand Challenge zum selben Thema.[87] In den Jahren 2013 und 2014 wurde die Fehlerrate für die ImageNet-Aufgabe mit Deep Learning nach einem ähnlichen Trend in der groß angelegten Spracherkennung weiter reduziert.

Die Bildklassifizierung wurde dann auf die anspruchsvollere Aufgabe von erweitert Beschreibungen erzeugen (Bildunterschriften) für Bilder, oft als Kombination von CNNs und LSTMs.[88][89][90]

Einige Forscher geben an, dass der Oktober 2012 ImageNet Victory den Beginn einer "Deep Learning Revolution" verankert hat, die die KI -Branche verändert hat.[91]

Im März 2019, Yoshua Bengio, Geoffrey Hinton und Yann Lecun wurden mit dem ausgezeichnet Turing Award Für konzeptionelle und technische Durchbrüche, die tiefe neuronale Netze zu einem kritischen Komponenten des Computers gemacht haben.

Neuronale Netze

Künstliche neurale Netzwerke

Künstliche neurale Netzwerke (Anns) oder Verbindungswissenschaftler Systeme sind Computersysteme inspiriert von der Biologische neuronale Netze Das bildet Tierhirn. Solche Systeme lernen (schrittweise verbessern ihre Fähigkeiten), um Aufgaben zu erledigen, indem sie Beispiele in Betracht ziehen, allgemein ohne aufgabenspezifische Programmierung. In der Bilderkennung können sie beispielsweise lernen, Bilder zu identifizieren, die Katzen enthalten, indem sie Beispielbilder analysieren, die manuell waren beschriftet als "Katze" oder "keine Katze" und die Verwendung der analytischen Ergebnisse, um Katzen in anderen Bildern zu identifizieren. Sie haben in Anwendungen am häufigsten in Anspruch genommen, mit einem herkömmlichen Computeralgorithmus auszudrücken Regelbasierte Programmierung.

Eine ANN basiert auf einer Sammlung vernetzter Einheiten, die genannt werden künstliche Neuronen, (analog zu biologischen Neuronen in a Biologisches Gehirn). Jede Verbindung (Synapse) zwischen Neuronen können ein Signal an ein anderes Neuron übertragen. Das empfangende (postsynaptische) Neuron kann die Signal (n) und dann nach angezogene Signal -Signal -Neuronen verarbeiten. Neuronen können Zustand haben, der im Allgemeinen durch dargestellt wird durch reale Nummern, normalerweise zwischen 0 und 1. Neuronen und Synapsen können auch ein Gewicht haben, das sich im Verlauf des Lernens variiert, was die Festigkeit des Signals, das es stromabwärts sendet, erhöhen oder verringern kann.

Typischerweise sind Neuronen in Schichten organisiert. Verschiedene Schichten können verschiedene Arten von Transformationen für ihre Eingaben durchführen. Signale wandern von der ersten (Eingabe) bis zur letzten (Ausgabe-) Ebene, möglicherweise nach mehrmaliger Durchführung der Ebenen.

Das ursprüngliche Ziel des neuronalen Netzwerkansatzes war es, Probleme auf die gleiche Weise wie ein menschliches Gehirn zu lösen. Im Laufe der Zeit konzentrierte sich die Aufmerksamkeit auf die Übereinstimmung mit bestimmten mentalen Fähigkeiten, was zu Abweichungen von der Biologie wie z. Backpropagationoder Informationen in umgekehrte Richtung und Anpassung des Netzwerks, um diese Informationen widerzuspiegeln.

Neuronale Netze wurden für eine Vielzahl von Aufgaben verwendet, darunter Computer Vision, Spracherkennung, Maschinenübersetzung, Soziales Netzwerk Filterung, Board- und Videospiele spielen und medizinische Diagnose.

Ab 2017 haben neuronale Netze in der Regel einige tausend bis wenige Millionen Einheiten und Millionen von Verbindungen. Obwohl diese Zahl mehrere Größenordnung weniger als die Anzahl der Neuronen in einem menschlichen Gehirn ist, können diese Netzwerke viele Aufgaben auf einem Niveau ausführen, das über die des Menschen hinausgeht (z. B. Erkennen von Gesichtern, Spielen "Go".[92] ).

Tiefe neuronale Netze

Ein tiefes neuronales Netzwerk (DNN) ist ein künstliche neuronale Netz (Ann) mit mehreren Schichten zwischen Eingangs- und Ausgangsebenen.[9][12] Es gibt verschiedene Arten von neuronalen Netzwerken, aber sie bestehen immer aus denselben Komponenten: Neuronen, Synapsen, Gewichte, Verzerrungen und Funktionen.[93] Diese Komponenten, die dem menschlichen Gehirn ähneln, können wie jeder andere ML -Algorithmus trainiert werden.

Zum Beispiel wird ein DNN, das zum Erkennen von Hunderassen trainiert wird, das angegebene Bild überschreitet und die Wahrscheinlichkeit berechnet, dass der Hund im Bild eine bestimmte Rasse ist. Der Benutzer kann die Ergebnisse überprüfen und auswählen, welche Wahrscheinlichkeiten das Netzwerk angezeigt werden sollte (über einem bestimmten Schwellenwert usw.) und die vorgeschlagene Etikett zurückgeben. Jede mathematische Manipulation als solche wird als Schicht angesehen, und komplexe DNN hat viele Schichten, daher der Name "tiefe" Netzwerke.

DNNs können komplexe nichtlineare Beziehungen modellieren. DNN -Architekturen erzeugen Kompositionsmodelle, bei denen das Objekt als geschichtete Zusammensetzung von ausgedrückt wird Primitive.[94] Die zusätzlichen Ebenen ermöglichen die Zusammensetzung von Merkmalen aus unteren Schichten, wobei potenziell komplexe Daten mit weniger Einheiten als ein ähnlich durchgeführter flaches Netzwerk modelliert werden.[9] Zum Beispiel wurde es als spärlich bewiesen multivariate Polynome sind exponentiell einfacher zu approximieren mit DNNs als mit flachen Netzwerken.[95]

Tiefe Architekturen umfassen viele Varianten einiger grundlegender Ansätze. Jede Architektur hat in bestimmten Bereichen Erfolg gefunden. Es ist nicht immer möglich, die Leistung mehrerer Architekturen zu vergleichen, es sei denn, sie wurden an denselben Datensätzen bewertet.

DNNs sind typischerweise Feedforward -Netzwerke, in denen die Daten von der Eingangsschicht zur Ausgangsschicht ohne Rückschleifen fließen. Zunächst erstellt der DNN eine Karte virtueller Neuronen und weist den Verbindungen zwischen ihnen zufällige numerische Werte oder "Gewichte" zu. Die Gewichte und Eingaben werden multipliziert und geben einen Ausgang zwischen 0 und 1 zurück. Wenn das Netzwerk ein bestimmtes Muster nicht genau erkannt hätte, würde ein Algorithmus die Gewichte anpassen.[96] Auf diese Weise kann der Algorithmus bestimmte Parameter einflussreicher machen, bis er die korrekte mathematische Manipulation bestimmt, um die Daten vollständig zu verarbeiten.

Wiederkehrende neuronale Netze (RNNs), in denen Daten in jede Richtung fließen können, werden für Anwendungen wie z. Sprachmodellierung.[97][98][99][100][101] Der lange Kurzzeitgedächtnis ist für diese Verwendung besonders effektiv.[50][102]

Faltungsstufe tiefe neuronale Netze (CNNs) werden in Computer Vision verwendet.[103] CNNs wurden ebenfalls angewendet auf Akustische Modellierung zur automatischen Spracherkennung (ASR).[104]

Herausforderungen

Wie bei Anns können viele Probleme mit naiv ausgebildeten DNNs auftreten. Zwei gemeinsame Probleme sind Überanpassung und Berechnungszeit.

DNNs sind aufgrund der zusätzlichen Abstraktionsschichten anfällig für Überanpassung, die es ihnen ermöglichen, seltene Abhängigkeiten in den Trainingsdaten zu modellieren. Regulierung Methoden wie Ivakhnenkos Einheit Beschneiden[26] oder Gewichtsverfall (-regularisation) oder Spärlichkeit (-regularisation) kann während des Trainings zur Bekämpfung der Überanpassung angewendet werden.[105] Alternativ Ausfallregulierung lässt Einheiten zufällig während des Trainings aus den versteckten Schichten aus. Dies hilft, seltene Abhängigkeiten auszuschließen.[106] Schließlich können Daten durch Methoden wie Zuschneiden und Drehen erweitert werden, sodass kleinere Trainingssätze erhöht werden können, um die Wahrscheinlichkeit einer Überanpassung zu verringern.[107]

DNNs müssen viele Trainingsparameter berücksichtigen, z. B. die Größe (Anzahl der Schichten und Anzahl der Einheiten pro Schicht), die Lernrateund anfängliche Gewichte. Durch den Parameterraum durchdringen Für optimale Parameter sind aufgrund der Kosten und der Rechenressourcen möglicherweise nicht möglich. Verschiedene Tricks, wie z. B. Charge (Berechnung des Gradienten an mehreren Trainingsbeispielen gleichzeitig als einzelne Beispiele)[108] Beschleunigen Sie die Berechnung. Große Verarbeitungsfähigkeiten vieler Kernarchitekturen (wie GPUs oder der Intel Xeon PHI) haben aufgrund der Eignung solcher Verarbeitungsarchitekturen für die Matrix- und Vektorberechnungen erhebliche Beschleunigungen im Training hervorgerufen.[109][110]

Alternativ können Ingenieure nach anderen Arten von neuronalen Netzwerken mit unkomplizierteren und konvergenten Trainingsalgorithmen suchen. CMAC (Artikulationskontroller des Kleinhirnmodells) ist eine solche Art von neuronalem Netzwerk. Es erfordert keine Lernraten oder randomisierte Anfangsgewichte für CMAC. Der Schulungsprozess kann garantiert in einem Schritt mit einer neuen Datenanlage konvergieren, und die rechnerische Komplexität des Trainingsalgorithmus ist in Bezug auf die Anzahl der beteiligten Neuronen linear.[111][112]

Hardware

Seit den 2010er Jahren Fortschritte sowohl in Algorithmen für maschinelles Lernen als auch in Computerhardware haben zu effizienteren Methoden für die Schulung von tiefen neuronalen Netzwerken geführt, die viele Schichten nichtlinear versteckter Einheiten und eine sehr große Ausgangsschicht enthalten.[113] Bis 2019 grafische Verarbeitungseinheiten (GPUS), oft mit KI-spezifischen Verbesserungen, hatte CPUs als dominierende Methode zur Ausbildung von großflächiger kommerzieller Cloud-KI verdrängt.[114] Openai schätzte die Hardwareberechnung, die bei den größten Deep-Learning-Projekten von Alexnet (2012) bis Alphazero (2017) verwendet wurde, und fand eine 300.000-fache Erhöhung der erforderlichen Berechnung mit einer Verdoppelungszeittrendlinie von 3,4 Monaten.[115][116]

Speziell elektronische Schaltkreise genannt Deep -Lernprozessoren wurden entwickelt, um tiefe Lernalgorithmen zu beschleunigen. Deep -Lernprozessoren umfassen neuronale Verarbeitungseinheiten (NPUs) in Huawei Handys[117] und Cloud Computing Server wie Tensor -Verarbeitungseinheiten (TPU) in der Google Cloud -Plattform.[118] Cerebras -Systeme hat außerdem ein dediziertes System für große Deep-Learning-Modelle aufgebaut, das CS-2, basierend auf dem größten Prozessor der Branche, dem Wafer Scale Engine der zweiten Generation (WSE-2).[119][120]

Atomisch dünn Halbleiter werden als vielversprechend für energieeffiziente Deep-Learning-Hardware angesehen, bei der die gleiche grundlegende Gerätestruktur sowohl für Logikoperationen als auch für die Datenspeicherung verwendet wird. Im Jahr 2020 haben Marega et al. Veröffentlichte Experimente mit einem großartigen aktiven Kanalmaterial zur Entwicklung von Geräten und Schaltkreisen für Logik-Memorien basierend auf schwebendes Gebiet Feldeffekttransistoren (Fgfets).[121]

Im Jahr 2021 haben J. Feldmann et al. schlug eine integrierte photonisch Hardware -Beschleuniger Für parallele Faltungsverarbeitung.[122] Die Autoren identifizieren zwei wichtige Vorteile der integrierten Photonik gegenüber ihren elektronischen Gegenstücken: (1) massiv parallele Datenübertragung durch Wellenlänge Aufteilung Multiplexing in Verbindung mit Frequenzkämmeund (2) extrem hohe Datenmodulationsgeschwindigkeiten.[122] Ihr System kann Billionen von multiply-akkumulierenden Vorgängen pro Sekunde ausführen, was auf das Potenzial von angibt integriert Photonik In datenlastigen AI-Anwendungen.[122]

Anwendungen

Automatische Spracherkennung

Große automatische Spracherkennung ist der erste und überzeugendste erfolgreiche Fall von Deep Learning. LSTM -RNNs können "sehr tiefes Lernen" -Tasks lernen[12] Dies beinhaltet mehr Sekunde Intervalle, die Sprachereignisse enthalten, die durch Tausende von diskreten Zeitschritten getrennt sind, wobei ein Zeitschritt etwa 10 ms entspricht. LSTM mit Vergessen von Toren[102] ist wettbewerbsfähig mit traditionellen Spracherkennern bei bestimmten Aufgaben.[51]

Der anfängliche Erfolg bei der Spracherkennung basierte auf kleinen Erkennungsaufgaben, die auf dem Zeitpunkt beruhten. Der Datensatz enthält 630 Redner von acht Dur Dialekte von amerikanisches Englisch, wo jeder Sprecher 10 Sätze liest.[123] Durch die geringe Größe können viele Konfigurationen ausprobiert werden. Noch wichtiger ist, dass die Timit-Aufgabe die Telefonsequenzerkennung betrifft, die im Gegensatz zur Wortsequenzerkennung ein schwaches Telefon ermöglicht Bigram Sprachmodelle. Dies ermöglicht es, die Stärke der akustischen Modellierungsaspekte der Spracherkennung leichter zu analysieren. Die unten aufgeführten Fehlerraten, einschließlich dieser frühen Ergebnisse und gemessen als prozentuale Telefonfehlerraten (pro), wurden seit 1991 zusammengefasst.

Methode Prozent Telefon
Fehlerrate (per) (%)
Zufällig initialisierte RNN[124] 26.1
Bayesian Triphone GMM-HMM 25.6
Versteckter Trajektorienmodell 24.8
Monophon initialisierte DNN zufällig initial 23.4
Monophon DBN-DNN 22.4
Triphone GMM-HMM mit BMMI-Training 21.7
Monophon DBN-DNN auf FBANK 20.7
Faltungsverkäufer dnn[125] 20.0
Faltungsverkäufer dnn w. Heterogenes Pooling 18.7
Ensemble DNN/CNN/RNN[126] 18.3
Bidirektional LSTM 17.8
Hierarchische Kontepolie Deep Maxout -Netzwerk[127] 16.5

Das Debüt von DNNs für die Anerkennung von Sprechern Ende der neunziger Jahre und die Spracherkennung von 2009 bis 2011 und von LSTM um 2003–2007 beschleunigten die Fortschritte in acht Hauptgebieten:[8][68][66]

  • DNN-Training und -decodieren von Skalierungen/Aussagen und beschleunigt
  • Sequenz -Diskriminationsausbildung
  • Feature -Verarbeitung durch tiefe Modelle mit solidem Verständnis der zugrunde liegenden Mechanismen
  • Anpassung von DNNs und verwandten tiefen Modellen
  • Multi-Task und Transferlernen durch DNNs und verwandte tiefe Modelle
  • CNNs und wie man sie zum Besten ausnutzt Fachwissen von Sprache
  • Rnn und seine reichen LSTM -Varianten
  • Andere Arten von tiefen Modellen, einschließlich Tensor-basierter Modelle und integrierter tiefe generative/diskriminative Modelle.

Alle wichtigen kommerziellen Spracherkennungssysteme (z. B. Microsoft Cortana, Xbox, Skype -Übersetzer, Amazon Alexa, Google jetzt, Apple Siri, Baidu und Iflytek Sprachsuche und eine Reihe von Nuance Sprachprodukte usw.) basieren auf tiefem Lernen.[8][128][129]

Bilderkennung

Ein gemeinsamer Bewertungssatz für die Bildklassifizierung ist der MNIST -Datenbankdatensatz. MNIST besteht aus handgeschriebenen Ziffern und umfasst 60.000 Schulungsbeispiele und 10.000 Testbeispiele. Wie bei Timit ermöglicht die kleine Größe den Benutzern mehrere Konfigurationen. Eine umfassende Liste der Ergebnisse in diesem Satz ist verfügbar.[130]

Deep Learning-basierte Bilderkennung ist zu "übermenschlich" geworden und erzielte genauere Ergebnisse als menschliche Teilnehmer. Dies geschah erst im Jahr 2011 in Anerkennung von Verkehrszeichen und 2014 mit Anerkennung menschlicher Gesichter.[131][132]

Deep Learning-ausgebildete Fahrzeuge interpretieren jetzt 360 °-Kameraansichten.[133] Ein weiteres Beispiel ist die Gesichtsdysmorphologie neuartige Analyse (FDNA), mit der Fälle von menschlicher Fehlbildung analysiert werden, die mit einer großen Datenbank genetischer Syndrome verbunden sind.

Verarbeitung visueller Kunst

Ein eng mit den Fortschritten im Zusammenhang mit der Bilderkennung ist die zunehmende Anwendung von Deep -Lern -Techniken auf verschiedene visuelle Kunstaufgaben. DNNs haben sich zum Beispiel in fähig erwiesen

  • Identifizierung der Stilperiode eines bestimmten Gemäldes[134][135]
  • Transfer neuronaler Stil- Erfassen Sie den Stil eines bestimmten Kunstwerks und wenden Sie es visuell ansprechend auf ein willkürliches Foto oder Video an[134][135]
  • Erzeugen von auffälligen Bildern basierend auf zufälligen visuellen Eingangsfeldern.[134][135]

Verarbeitung natürlicher Sprache

Seit Anfang der 2000er Jahre werden neuronale Netze zur Implementierung von Sprachmodellen verwendet.[97] LSTM half bei der Verbesserung der maschinellen Übersetzung und der Sprachmodellierung.[98][99][100]

Andere Schlüsseltechniken in diesem Bereich sind eine negative Abtastung[136] und Worteinbettung. Worteinbettung, wie z. Word2Vec, kann als Repräsentationsschicht in einer tiefen Lernarchitektur betrachtet werden, die ein atomisches Wort in eine positionelle Darstellung des Wortes in Bezug auf andere Wörter im Datensatz verwandelt; Die Position wird als Punkt in a dargestellt Vektorraum. Durch die Verwendung von Wörtern als RNN -Eingangsschicht kann das Netzwerk Sätze und Phrasen mithilfe einer effektiven Zusammensetzung Vektorgrammatik analysieren. Eine Kompositions -Vektor -Grammatik kann als angesehen werden probabilistische kontextfreie Grammatik (PCFG) implementiert von einem RNN.[137] Rekursive automatische Encoder, die auf Worteinbettungen erstellt wurden, können die Satzähnlichkeit bewerten und Paraphrasen erkennen.[137] Tiefe neuronale Architekturen liefern die besten Ergebnisse für Wahlkreis Parsen,[138] Stimmungsanalyse,[139] Informationsrückgewinnung,[140][141] Verständnis der gesprochenen Sprache,[142] Maschinenübersetzung,[98][143] Kontextentität Verknüpfung,[143] Schreibstilerkennung,[144] Textklassifizierung und andere.[145]

Jüngste Entwicklungen verallgemeinern Worteinbettung zu Satzeinbettung.

Google Übersetzer (GT) verwendet ein großes End-to-End langes Kurzzeitgedächtnis (LSTM) Netzwerk.[146][147][148][149] Übersetzung von Google Neural Machine (GNMT) verwendet an Beispielbasierte maschinelle Übersetzung Methode, bei der das System "aus Millionen von Beispielen lernt".[147] Es übersetzt "ganze Sätze gleichzeitig als Stücke. Google Translate unterstützt über hundert Sprachen.[147] Das Netzwerk codiert die "Semantik des Satzes, anstatt sich nur die Übersetzungen für die Phrase zu Phrase zu merken".[147][150] GT verwendet Englisch als Zwischenprodukt zwischen den meisten Sprachpaaren.[150]

Entdeckung und Toxikologie von Arzneimitteln

Ein großer Prozentsatz der Kandidatenmedikamente erhält nicht die regulatorische Zulassung. Diese Fehler werden durch unzureichende Wirksamkeit (Auswirkung auf Target), unerwünschte Wechselwirkungen (Off-Target-Effekte) oder unerwartete Wechselwirkungen verursacht toxische Wirkungen.[151][152] Die Forschung hat die Verwendung von Deep -Lernen untersucht, um die vorherzusagen Biomolekulare Ziele,[80][81] Off-Targets, und toxische Wirkungen von Umweltchemikalien in Nährstoffen, Haushaltsprodukten und Arzneimitteln.[82][83][84]

Atomnet ist ein tiefes Lernsystem für strukturbasierte strukturbasierte Systeme Rationales Drogendesign.[153] Atomnet wurde verwendet, um neue Kandidatenbiomoleküle für Krankheitsziele wie die vorherzusagen Ebola Virus[154] und Multiple Sklerose.[155][156]

2017 Grafik neuronale Netze wurden zum ersten Mal verwendet, um verschiedene Eigenschaften von Molekülen in einem großen toxikologischen Datensatz vorherzusagen.[157] Im Jahr 2019 wurden generative neuronale Netze verwendet, um Moleküle zu produzieren, die experimentell bis in Mäuse validiert wurden.[158][159]

Kundenbeziehungsmanagement

Tiefes Verstärkungslernen wurde verwendet, um den Wert möglich zu machen Direktmarketing Aktionen, definiert in Bezug auf RFM Variablen. Es wurde gezeigt, dass die geschätzte Wertfunktion eine natürliche Interpretation als hat Customer Lifetime Value.[160]

Empfehlungssysteme

Empfehlungssysteme haben Deep Learning verwendet, um sinnvolle Funktionen für ein latentes Faktormodell für inhaltsbasierte Musik- und Journalempfehlungen zu extrahieren.[161][162] Multi-View Deep Learning wurde für das Lernen von Benutzerpräferenzen aus mehreren Domänen angewendet.[163] Das Modell verwendet einen hybriden kollaborativen und inhaltsbasierten Ansatz und verbessert die Empfehlungen in mehreren Aufgaben.

Bioinformatik

Ein Autocoder Ann wurde in verwendet Bioinformatik, zu prognostizieren Gen-Ontologie Anmerkungen und Gen-Funktionsbeziehungen.[164]

In medizinischen Informatik wurde Deep Learning verwendet, um die Schlafqualität auf der Grundlage von Daten von Wearables vorherzusagen[165] und Vorhersagen von gesundheitlichen Komplikationen von elektronischer Gesundheitsakten Daten.[166]

Medizinische Bildanalyse

Es wurde gezeigt, dass Deep Learning Wettbewerbsergebnisse bei medizinischer Anwendung wie Klassifizierung von Krebszellen, Läsionserkennung, Organsegmentierung und Bildverbesserung liefert.[167][168] Moderne Tools für Deep -Lern -Instrumente demonstrieren die hohe Genauigkeit der Erkennung verschiedener Krankheiten und die Hilfsbereitschaft ihrer Verwendung durch Spezialisten zur Verbesserung der Diagnoseeffizienz.[169][170]

Mobile Werbung

Finden des entsprechenden mobilen Publikums für mobile Werbung ist immer eine Herausforderung, da viele Datenpunkte berücksichtigt und analysiert werden müssen, bevor ein Zielsegment erstellt und in der Anzeige verwendet werden kann, die von einem AD -Server dient.[171] Deep Learning wurde verwendet, um große, vielfältige Werbedatensätze zu interpretieren. Viele Datenpunkte werden während der Anforderung/Serve/Serve/Klicken Sie im Internet -Werbezyklus gesammelt. Diese Informationen können die Grundlage für maschinelles Lernen bilden, um die AD -Auswahl zu verbessern.

Bildwiederherstellung

Deep Learning wurde erfolgreich angewendet auf umgekehrte Probleme wie zum Beispiel Denoising, Super-Auflösung, Inpainting, und Filmfarbe.[172] Diese Anwendungen umfassen Lernmethoden wie "Schrumpfungsfelder für eine effektive Bildwiederherstellung"[173] welche trainiert auf einem Bilddatensatz und Tiefes Bild vor, die auf dem Bild trainiert, das restauriert werden muss.

Erkennung von Finanzbetrug

Deep Learning wird erfolgreich auf finanzielle angewendet Entdeckung eines Betruges, Steuerhinterziehung, Erkennung,[174] und Anti-Geldwäsche.[175] Eine potenziell beeindruckende Demonstration eines unbeaufsichtigten Lernens als Verfolgung von Finanzkriminalität ist erforderlich, um Schulungsdaten zu erstellen.

Bemerkenswerterweise ist zwar das hochmoderne Modell in der Erkennung automatisierter Finanzkriminalität seit geraumer Zeit vorhanden, die hier unter dramatisch genannten Anwendungen für Deep Learning unter viel einfacheren theoretischen Modellen. Ein solches, noch zu implementiertes Modell, die Sensorort -heuristische und einfache menschliche Erkennung für Finanzverbrechen (SLHSAHDFC) ist ein Beispiel.

Das Modell arbeitet mit der einfachen Heuristik, um zu wählen, wo es seine Eingabedaten erhält. Indem die Sensoren durch große Konzentrationen an Wohlstand und Macht frequentiert und dann einfach jeden lebenden Menschen identifiziert werden, stellt sich heraus, dass die automatisierte Erkennung von Finanzkriminalität bei sehr hohen Genauigkeiten und sehr hohen Vertrauensniveaus erreicht wird. Noch besser ist, dass das Modell äußerst effektiv darin ist, nicht nur Kriminalität, sondern ein großes, sehr destruktives und ungeheuerliches Verbrechen zu identifizieren. Aufgrund der Wirksamkeit solcher Modelle ist es sehr wahrscheinlich, dass Anwendungen auf die Erkennung von Finanzkriminalität durch Deep Learning niemals in der Lage sein werden, Wettbewerbe zu konkurrieren.

Militär

Das Verteidigungsministerium der Vereinigten Staaten wandte Deep Learning an, um Roboter in neuen Aufgaben durch Beobachtung auszubilden.[176]

Partielle Differentialgleichungen

Physik informierte neuronale Netze wurden verwendet, um zu lösen partielle Differentialgleichungen sowohl in Vorwärts- als auch in umgekehrten Problemen auf datengetriebene Weise.[177] Ein Beispiel ist der rekonstruierende Flüssigkeitsfluss, der von dem bestimmt wird Navier-Stokes-Gleichungen. Die Verwendung von Physik informierten neuronalen Netzwerken erfordert nicht die häufig teure Maschengeneration, die konventionell ist CFD Methoden verlassen sich auf.[178][179]

Bildrekonstruktion

Die Bildrekonstruktion ist die Rekonstruktion der zugrunde liegenden Bilder aus den bildbezogenen Messungen. Mehrere Arbeit [180] und Ultraschallbildgebung.[181]


Epigenetische Uhr

Weitere Informationen finden Sie unter Epigenetische Uhr.

Ein epigenetische Uhr ist ein Biochemischer Test Das kann verwendet werden, um das Alter zu messen. Galkin et al. tief benutzt Neuronale Netze Um eine epigenetische alternde Uhr mit beispielloser Genauigkeit unter Verwendung von> 6.000 Blutproben zu trainieren. Die Uhr verwendet Informationen von 1000 CPG -Standorten und sagt Menschen mit bestimmten Bedingungen voraus, die älter sind als gesunde Kontrollen: IBD, frontotemporale Demenz, Eierstockkrebs, Fettleibigkeit. Die altern Insilico -Medizin Spinoff Company Deep Longevity.

Beziehung zur menschlichen kognitiven und Gehirnentwicklung

Tiefes Lernen ist eng mit einer Klasse von Theorien von Theorien verbunden Gehirnentwicklung (insbesondere neokortikale Entwicklung) vorgeschlagen von Kognitive Neurowissenschaftler in the early 1990s.[182][183][184][185] Diese Entwicklungstheorien wurden in Rechenmodellen instanziiert, wodurch sie Vorgänger von Deep -Learning -Systemen machten. Diese Entwicklungsmodelle teilen die Eigenschaft, die verschiedene vorgeschlagene Lerndynamik im Gehirn (z. B. eine Welle von Nervenwachstumsfaktor) unterstütz die Selbstorganisation Etwas analog zu den neuronalen Netzwerken, die in Deep Learning -Modellen verwendet werden. Wie Neocortex, neuronale Netze verwenden eine Hierarchie von geschichteten Filtern, in denen jede Schicht Informationen aus einer vorherigen Schicht (oder der Betriebsumgebung) berücksichtigt und dann ihre Ausgabe (und möglicherweise die ursprüngliche Eingabe) an andere Ebenen übergibt. Dieser Prozess liefert einen sich selbst organisierenden Stapel von Wandler, gut abgestimmt in ihre Betriebsumgebung. Eine Beschreibung von 1995 heißt auf, bis das ganze Gehirn reif ist. "[186]

Eine Vielzahl von Ansätzen wurde verwendet, um die Plausibilität von tiefen Lernmodellen aus neurobiologischer Sicht zu untersuchen. Einerseits mehrere Varianten der Backpropagation Es wurde Algorithmus vorgeschlagen, um seinen Verarbeitungsrealismus zu erhöhen.[187][188] Andere Forscher haben argumentiert, dass unbeaufsichtigte Formen des tiefen Lernens, wie sie auf hierarchisch basieren Generative Modelle und Tiefe Glaubensnetzwerke, kann der biologischen Realität näher sein.[189][190] In dieser Hinsicht wurden generative neuronale Netzwerkmodelle mit neurobiologischen Nachweisen über die Probenahmeverarbeitung im Hirnrinde zusammenhängen.[191]

Obwohl ein systematischer Vergleich zwischen der Organisation des menschlichen Gehirns und der neuronalen Kodierung in tiefen Netzwerken noch nicht festgestellt wurde, wurden über mehrere Analogien berichtet. Zum Beispiel könnten die Berechnungen von Deep -Learning -Einheiten denen der tatsächlichen Neuronen ähnlich sein[192] und neuronale Populationen.[193] In ähnlicher Weise ähneln die von Deep Learning -Modellen entwickelten Darstellungen denen, die im Primaten -visuellen System gemessen wurden[194] beide bei der Einheit[195] und bei der Bevölkerung[196] Ebenen.

Handelsaktivität

FacebookDas AI Lab führt Aufgaben aus wie Automatisch hochgeladene Bilder mit dem Markieren von Bildern mit den Namen der Menschen in ihnen.[197]

Google DeepMind Technologies entwickelte ein System, das in der Lage ist zu lernen, wie man spielt Atari Videospiele verwenden nur Pixel als Dateneingabe. 2015 zeigten sie ihre Alphago System, das das Spiel von gelernt hat gehen Gut genug, um einen professionellen Go -Spieler zu schlagen.[198][199][200] Google Übersetzer Verwendet ein neuronales Netzwerk, um zwischen mehr als 100 Sprachen zu übersetzen.

Im Jahr 2017 wurde Covariant.ai gestartet, was sich auf die Integration von Deep -Lernen in Fabriken konzentriert.[201]

Ab 2008,[202] Forscher bei Die Universität von Texas in Austin .[176] Zuerst als Tamer entwickelt, wurde später 2018 während einer Zusammenarbeit zwischen 2018 ein neuer Algorithmus namens Deep Tamer eingeführt Forschungslabor der US -Armee (ARL) und UT -Forscher. Deep Tamer verwendete Deep Learning, um einem Roboter die Fähigkeit zu bieten, durch Beobachtung neue Aufgaben zu lernen.[176] Mit Deep Tamer lernte ein Roboter eine Aufgabe mit einem menschlichen Trainer, wobei Videoströme angesehen oder beobachtet, wie ein Mensch eine persönliche Aufgabe ausführt. Der Roboter übte später die Aufgabe mit Hilfe eines Coachings des Trainers, der Feedback wie „gute Arbeit“ und „schlechte Arbeit“ gab.[203]

Kritik und Kommentar

Deep Learning hat sowohl Kritik als auch Kommentar in einigen Fällen außerhalb des Bereichs der Informatik angezogen.

Theorie

Eine Hauptkritik betrifft den Mangel an Theorie, der einige Methoden umgibt.[204] Das Lernen in den häufigsten tiefen Architekturen wird mit gut verstandenem Gradientenabstieg implementiert. Die Theorie, die andere Algorithmen wie kontrastive Divergenz umgibt, ist jedoch weniger klar. . Flugschreibermit den meisten Bestätigungen eher empirisch als theoretisch.[205]

Andere weisen darauf hin, dass Deep Learning als einen Schritt zur Verwirklichung starker KI und nicht als allumfassende Lösung betrachtet werden sollte. Trotz der Kraft von Deep -Learning -Methoden fehlt ihnen immer noch viel von der Funktionalität, die für die vollständige Verwirklichung dieses Ziels erforderlich ist. Der Forschungspsychologe Gary Marcus bemerkte:

"Realistisch gesehen ist tiefes Lernen nur ein Teil der größeren Herausforderung des Aufbaus intelligenter Maschinen. Solche Techniken fehlen Möglichkeiten für die Darstellung kausale Beziehungen (...) keine offensichtlichen Ausführungsweisen haben logische Schlussfolgerungenund sie sind auch noch weit davon entfernt, abstrakte Wissen zu integrieren, z. B. Informationen darüber, was Objekte sind, wofür sie sind und wie sie normalerweise verwendet werden. Der mächtigste A.I. Systeme wie Watson (...) Verwenden Sie Techniken wie Deep Learning als nur ein Element in einem sehr komplizierten Ensemble von Techniken, die von der statistischen Technik von reichen Bayes'sche Inferenz zu deduktive Argumentation. "[206]

In weiterer Hinweis auf die Idee, dass die künstlerische Sensibilität relativ niedrig geringe Ebenen der kognitiven Hierarchie inhärent sein könnte, einer veröffentlichten Reihe grafischer Darstellungen der internen Zustände von tiefen (20-30 Ebenen) neuronale Netzwerke, die versuchen, in wesentlichen zufälligen Daten die Bilder zu erkennen auf denen sie trainiert wurden[207] Zeigen Sie eine visuelle Beschwerde: Die ursprüngliche Forschungserklärung erhielt weit über 1.000 Kommentare und war Gegenstand dessen, was für einige Zeiten der am häufigsten zugegriffene Artikel über war Der Wächter's[208] Webseite.

Fehler

Einige tiefe Lernarchitekturen zeigen problematisches Verhalten,[209] wie beispielsweise zuversichtlich unkenntlich zu einer vertrauten Kategorie gewöhnlicher Bilder zu klassifizieren (2014)[210] und falsch klassifizierende winzige Störungen korrekt klassifizierter Bilder (2013).[211] Goertzel Hypothese, dass diese Verhaltensweisen auf Einschränkungen ihrer internen Repräsentationen zurückzuführen sind und dass diese Einschränkungen die Integration in heterogene Mehrkomponente hemmen würden künstliche allgemeine Intelligenz (AGI) Architekturen.[209] Diese Probleme können möglicherweise von Deep-Learning-Architekturen behandelt werden, die sich intern für die Bildgrammatik ausstellen.[212] Zersetzungen beobachteter Entitäten und Ereignisse.[209] Eine Grammatik lernen (visuell oder sprachlich) aus Trainingsdaten wäre gleichbedeutend mit der Einschränkung des Systems auf Commonsense -Argumentation Das arbeitet auf Konzepte in Bezug auf grammatikalische Weise Produktionsregeln und ist ein grundlegendes Ziel sowohl des Erwerbs menschlicher Sprache[213] und künstliche Intelligenz (AI).[214]

Cyber ​​-Bedrohung

Wenn das Deep -Lernen vom Labor in die Welt bewegt, zeigen Forschung und Erfahrung, dass künstliche neuronale Netze anfällig für Hacks und Täuschung sind.[215] Durch die Identifizierung von Mustern, mit denen diese Systeme funktionieren, können Angreifer Eingaben an ANNs so ändern, dass die Ann eine Übereinstimmung findet, die menschliche Beobachter nicht erkennen würden. Zum Beispiel kann ein Angreifer subtile Änderungen an einem Bild vornehmen, so dass die Ann eine Übereinstimmung findet, obwohl das Bild einem Menschen nichts wie das Suchziel aussieht. Eine solche Manipulation wird als „kontroversem Angriff“ bezeichnet.[216]

2016 verwendeten Forscher eine Ann an Ann, um Bilder in Versuch und Irrtum zu ärgern, die Schwerpunkte eines anderen zu identifizieren und dadurch Bilder zu generieren, die sie getäuscht haben. Die modifizierten Bilder sahen nicht anders aus als menschliche Augen. Eine andere Gruppe zeigte, dass Ausdrucke von Ärztenbildern dann ein Bildklassifizierungssystem erfolgreich ausgetragen haben.[217] Eine Verteidigung ist eine umgekehrte Bildsuche, bei der ein mögliches gefälschtes Bild an eine Website wie z. Tineye Das kann dann andere Fälle davon finden. Eine Verfeinerung besteht darin, nur Teile des Bildes zu suchen, um Bilder zu identifizieren, aus denen dieses Stück entnommen wurde.[218]

Eine andere Gruppe zeigte das sicher psychedelisch Brillen könnten a täuschen Gesichtserkennungssystem Zu denken, dass gewöhnliche Menschen Prominente waren und es einer Person ermöglichten, sich eine andere auszugeben. Im Jahr 2017 fügten Forscher Aufkleber hinzu zu Stopp Schilder und veranlasste eine Ann, sie falsch zu klassifizieren.[217]

ANNs können jedoch weiter geschult werden, um Täuschungsversuche zu erkennen und möglicherweise Angreifer und Verteidiger in ein Wettrüsten zu führen, das der Art ähnelt, die das bereits definiert hat Malware Rüstungsindustrie. Anns wurde geschult, um Ann-basierte Anti-Malware genetischen Algorithmus bis es das Anti-Malware ausgetrickst, während sie ihre Fähigkeit beibehielt, das Ziel zu beschädigen.[217]

Im Jahr 2016 zeigte eine andere Gruppe, dass bestimmte Geräusche das machen könnten Google jetzt Das Sprachbefehlssystem öffnet eine bestimmte Webadresse und stellte die Hypothese auf, dass dies "als Sprungbrett für weitere Angriffe dienen könnte (z. B. Öffnen einer Webseite, die Drive-by-Malware hostet).[217]

Bei der „Datenvergiftung“ werden falsche Daten kontinuierlich in das Trainingssatz eines maschinellen Lernsystems geschmuggelt, um zu verhindern, dass sie die Beherrschung durchführen.[217]

Vertrauen auf Mensch Mikrowork

Die meisten tiefen Lernsysteme stützen sich auf Schulungs- und Überprüfungsdaten, die von Menschen generiert und/oder kommentiert werden. Es wurde in argumentiert Medienphilosophie das nicht nur niedrig bezahlt Klickwork (z. B. auf Amazon Mechanical Turk) wird regelmäßig zu diesem Zweck eingesetzt, aber auch implizite Formen des Menschen Mikrowork das werden oft nicht als solche anerkannt.[219] Der Philosoph Rainer Mühlhoff unterscheidet fünf Arten von "Maschinerfassungen" von menschlichem Mikrowork, um Trainingsdaten zu generieren: (1) Gamification (Die Einbettung von Annotations- oder Berechnungsaufgaben in den Fluss eines Spiels), (2) "Fangen und Verfolgung" (z. Captchas Zur Bildkennung oder Klick-Tracking bei Google Suchergebnisse), (3) Ausbeutung sozialer Motivationen (z. Etiketten von Gesichtern an Facebook um markierte Gesichtsbilder zu erhalten), (4) Informationsabbau (z. B. durch Nutzung Quantifiziertes Selbst Geräte wie Aktivitäts -Tracker) und (5) Klickwork.[219]

Mühlhoff argumentiert, dass in den meisten kommerziellen Endbenutzeranwendungen des Deep-Lernens wie z. Facebooks GesichtserkennungssystemDie Notwendigkeit von Trainingsdaten hört nicht auf, sobald eine Ann trainiert ist. Vielmehr besteht eine anhaltende Nachfrage nach durch Menschen erzeugten Überprüfungsdaten, um die Ann ständig zu kalibrieren und zu aktualisieren. Zu diesem Zweck hat Facebook die Funktion eingeführt, dass ein Benutzer, sobald er in einem Bild automatisch erkannt wird, eine Benachrichtigung erhalten. Sie können wählen, ob sie nicht gerne öffentlich auf dem Bild gekennzeichnet sind, oder Facebook sagen, dass es nicht sie auf dem Bild sind.[220] Diese Benutzeroberfläche ist ein Mechanismus, um "einen konstanten Strom von Überprüfungsdaten" zu generieren.[219] Um das Netzwerk weiter in Echtzeit zu trainieren. Wie Müchlhoff argumentiert, ist die Beteiligung menschlicher Nutzer an die Generierung von Schulungs- und Überprüfungsdaten für die meisten kommerziellen Endbenutzeranwendungen des Deep-Lernens so typisch, dass solche Systeme als "menschliche künstliche Intelligenz" bezeichnet werden können.[219]

Siehe auch

Verweise

  1. ^ Schulz, Hannes; Behnke, Sven (1. November 2012). "Tiefes Lernen". Ki - Künstliche Intelligenz. 26 (4): 357–363. doi:10.1007/S13218-012-0198-Z. ISSN 1610-1987. S2CID 220523562.
  2. ^ Bengio, Yoshua; Lecun, Yann; Hinton, Geoffrey (2015). "Tiefes Lernen". Natur. 521 (7553): 436–444. Bibcode:2015Natur.521..436L. doi:10.1038/nature14539. PMID 26017442. S2CID 3074096.
  3. ^ a b Ciresan, D.; Meier, u.; Schmidhuber, J. (2012). "Multi-Säulen tiefe neuronale Netzwerke für die Bildklassifizierung". 2012 IEEE -Konferenz zur Computer Vision und Mustererkennung. S. 3642–3649. Arxiv:1202.2745. doi:10.1109/cvpr.2012.6248110. ISBN 978-1-4673-1228-8. S2CID 2161592.
  4. ^ a b Krizhevsky, Alex; Sutskever, Ilya; Hinton, Geoffry (2012). "ImageNet -Klassifizierung mit tiefen Faltungsnetzwerken" (PDF). NIPS 2012: Neuronale Informationsverarbeitungssysteme, Lake Tahoe, Nevada. Archiviert (PDF) vom Original am 2017-01-10. Abgerufen 2017-05-24.
  5. ^ "Die Alphago AI von Google gewinnt die Drei-Spiele-Serie gegen den weltbesten GO-Spieler". Techcrunch. 25. Mai 2017. Archiviert Aus dem Original am 17. Juni 2018. Abgerufen 17. Juni 2018.
  6. ^ Marblestone, Adam H.; Wayne, Greg; Kording, Konrad P. (2016). "Auf dem Weg zu einer Integration von tiefem Lernen und Neurowissenschaften". Grenzen in der Computerneurowissenschaft. 10: 94. Arxiv:1606.03813. Bibcode:2016ArXIV160603813m. doi:10.3389/fncom.2016.00094. PMC 5021692. PMID 27683554. S2CID 1994856.
  7. ^ Bengio, Yoshua; Lee, Dong-Hyun; Bornschein, Jorg; Mesnard, Thomas; Lin, Zhouhan (13. Februar 2015). "In Richtung biologisch plausibler tiefes Lernen". Arxiv:1502.04156 [cs.lg].
  8. ^ a b c d e f Deng, L.; Yu, D. (2014). "Deep Learning: Methoden und Anwendungen" (PDF). Fundamente und Trends in der Signalverarbeitung. 7 (3–4): 1–199. doi:10.1561/2000000039. Archiviert (PDF) vom Original am 2016-03-14. Abgerufen 2014-10-18.
  9. ^ a b c d Bengio, Yoshua (2009). "Tiefe Architekturen für KI lernen" (PDF). Grundlagen und Trends im maschinellen Lernen. 2 (1): 1–127. Citeseerx 10.1.1.701.9550. doi:10.1561/2200000006. Archiviert von das Original (PDF) am 4. März 2016. Abgerufen 3. September 2015.
  10. ^ a b c d e Bengio, Y.; Courville, A.; Vincent, P. (2013). "Repräsentation Learning: Eine Überprüfung und neue Perspektiven". IEEE -Transaktionen zur Musteranalyse und Maschinenintelligenz. 35 (8): 1798–1828. Arxiv:1206.5538. doi:10.1109/tpami.2013.50. PMID 23787338. S2CID 393948.
  11. ^ Lecun, Yann; Bengio, Yoshua; Hinton, Geoffrey (28. Mai 2015). "Tiefes Lernen". Natur. 521 (7553): 436–444. Bibcode:2015Natur.521..436L. doi:10.1038/nature14539. PMID 26017442. S2CID 3074096.
  12. ^ a b c d e f g Schmidhuber, J. (2015). "Deep Learning in neuronalen Netzwerken: Ein Überblick". Neuronale Netze. 61: 85–117. Arxiv:1404.7828. doi:10.1016/j.neunet.2014.09.003. PMID 25462637. S2CID 11715509.
  13. ^ Shigeki, Sugiyama (12. April 2019). Menschliches Verhalten und eine andere Art im Bewusstsein: aufkommende Forschung und Chancen: aufkommende Forschung und Chancen. IGI Global. ISBN 978-1-5225-8218-2.
  14. ^ Bengio, Yoshua; Lamblin, Pascal; Popovici, Dan; Larochelle, Hugo (2007). Gieriger Schicht Training von tiefen Netzwerken (PDF). Fortschritte in der Verarbeitung von neuronalen Informationsverarbeitungssystemen. S. 153–160. Archiviert (PDF) vom Original am 2019-10-20. Abgerufen 2019-10-06.
  15. ^ a b Hinton, G.E. (2009). "Tiefe Glaubensnetzwerke". Gelehrter. 4 (5): 5947. Bibcode:2009schpj ... 4.5947H. doi:10.4249/Scholarpedia.5947.
  16. ^ a b c Cybenko (1989). "Annäherungen durch Überlagerungen von sigmoidalen Funktionen" (PDF). Mathematik von Kontrolle, Signalen und Systemen. 2 (4): 303–314. doi:10.1007/bf02551274. S2CID 3958369. Archiviert von das Original (PDF) am 10. Oktober 2015.
  17. ^ a b c Hornik, Kurt (1991). "Annäherungsmöglichkeiten von mehrschichtigen Feedforward -Netzwerken". Neuronale Netze. 4 (2): 251–257. doi:10.1016/0893-6080 (91) 90009-T.
  18. ^ a b Haykin, Simon S. (1999). Neuronale Netze: Eine umfassende Stiftung. Prentice Hall. ISBN 978-0-13-273350-2.
  19. ^ a b Hassoun, Mohamad H. (1995). Grundlagen künstlicher neuronaler Netze. MIT Press. p. 48. ISBN 978-0-262-08239-6.
  20. ^ a b Lu, Z., Pu, H., Wang, F., Hu, Z. & Wang, L. (2017). Die ausdrucksstarke Kraft neuronaler Netzwerke: eine Ansicht aus der Breite Archiviert 2019-02-13 bei der Wayback -Maschine. Neuronale Informationsverarbeitungssysteme, 6231-6239.
  21. ^ a b c d Murphy, Kevin P. (24. August 2012). Maschinelles Lernen: Eine probabilistische Perspektive. MIT Press. ISBN 978-0-262-01802-9.
  22. ^ Sonoda, Sho; Murata, Noboru (2017). "Neuronales Netzwerk mit unbegrenzten Aktivierungsfunktionen ist universeller Approxator". Angewandte und rechnerische harmonische Analyse. 43 (2): 233–268. Arxiv:1505.03654. doi:10.1016/j.acha.2015.12.005. S2CID 12149203.
  23. ^ Bishop, Christopher M. (2006). Mustererkennung und maschinelles Lernen (PDF). Springer. ISBN 978-0-387-31073-2. Archiviert (PDF) vom Original am 2017-01-11. Abgerufen 2017-08-06.
  24. ^ Tappert, Charles C. (2019). "Wer ist der Vater des tiefen Lernens?". 2019 Internationale Konferenz über Computerwissenschaft und Computational Intelligence (CSCI). IEEE. S. 343–348. doi:10.1109/CSCI49370.2019.00067. ISBN 978-1-7281-5584-5. S2CID 216043128. Abgerufen 31. Mai 2021.
  25. ^ Ivakhnenko, A. G.; Lapa, V. G. (1967). Kybernetik und Prognosetechniken. American Elsevier Publishing Co. ISBN 978-0-444-00020-0.
  26. ^ a b Ivakhnenko, Alexey (1971). "Polynomentheorie komplexer Systeme" (PDF). IEEE -Transaktionen zu Systemen, Menschen und Kybernetik. SMC-1 (4): 364–378. doi:10.1109/tsmc.1971.4308320. Archiviert (PDF) vom Original am 2017-08-29. Abgerufen 2019-11-05.
  27. ^ Fukushima, K. (1980). "Neocognitron: Ein selbstorganisierendes neuronales Netzwerkmodell für einen Mechanismus der Mustererkennung, der durch Verschiebung der Position nicht betroffen ist". Biol. Cybern. 36 (4): 193–202. doi:10.1007/bf00344251. PMID 7370364. S2CID 206775608.
  28. ^ Rina Dechter (1986). Lernen während der Suche nach Problemen mit Einschränkungen. Universität von Kalifornien, Informatikabteilung, Cognitive Systems Laboratory.Online Archiviert 2016-04-19 bei der Wayback -Maschine
  29. ^ Igor Aizenberg, Naum N. Aizenberg, Joos P.L. Vandewalle (2000). Mehrwertige und universelle binäre Neuronen: Theorie, Lernen und Anwendungen. Springer Science & Business Media.
  30. ^ Koevolvierende wiederkehrende Neuronen lernen tiefe Gedächtnis-Pomdps. Proc. GECCO, Washington, D. C., S. 1795-1802, ACM Press, New York, NY, USA, 2005.
  31. ^ Seppo Linnainmaa (1970). Die Darstellung des kumulativen Rundungsfehlers eines Algorithmus als Taylor -Expansion der lokalen Rundungsfehler. Masterarbeit (auf Finnisch), Univ. Helsinki, 6-7.
  32. ^ Griewank, Andreas (2012). "Wer hat die umgekehrte Differenzierungsmodus erfunden?" (PDF). Documenta Mathematica (Zusätzliches Volumen ISMP): 389–400. Archiviert von das Original (PDF) am 21. Juli 2017. Abgerufen 11. Juni 2017.
  33. ^ Werbos, P. (1974). "Beyond Regression: Neue Instrumente für Vorhersage und Analyse in den Verhaltenswissenschaften". Harvard Universität. Abgerufen 12. Juni 2017.
  34. ^ Werbos, Paul (1982). "Anwendungen von Fortschritten in der nichtlinearen Sensitivitätsanalyse" (PDF). Systemmodellierung und Optimierung. Springer. S. 762–770.
  35. ^ a b Lecun et al."Backpropagation, die auf die handschriftliche Postleitzahlerkennung angewendet wird", " Neuronale Berechnung1, S. 541–551, 1989.
  36. ^ de Carvalho, Andre C. L. F.; Fairhurst, Mike C.; Bisset, David (8. August 1994). "Ein integriertes booleures neuronales Netzwerk für die Musterklassifizierung". Mustererkennungsbuchstaben. 15 (8): 807–813. Bibcode:1994Parel..15..807d. doi:10.1016/0167-8655 (94) 90009-4.
  37. ^ Hinton, Geoffrey E.; Dayan, Peter; Frey, Brendan J.; Neal, Radford (26. Mai 1995). "Der Wake-Sleep-Algorithmus für unbeaufsichtigte neuronale Netze". Wissenschaft. 268 (5214): 1158–1161. Bibcode:1995sci ... 268.1158h. doi:10.1126/Science.7761831. PMID 7761831.
  38. ^ a b S. Hochreiter. "Imtersuchungen ZU Dynamisschen Neuronalen Netzen Archiviert 2015-03-06 bei der Wayback -Maschine, " Diplomarbeit. Institut f. Informatik, Technische Univ. München. Berater: J. Schmidhuber, 1991.
  39. ^ Hochreiter, S.; et al. (15. Januar 2001). "Gradientenfluss in wiederkehrenden Netzen: Die Schwierigkeit, langfristige Abhängigkeiten zu lernen". In Kolen, John F.; Kremer, Stefan C. (Hrsg.). Ein Feldhandbuch zu dynamischen wiederkehrenden Netzwerken. John Wiley & Sons. ISBN 978-0-7803-5369-5.
  40. ^ Behnke, Sven (2003). Hierarchische neuronale Netzwerke zur Bildinterpretation. Vorlesungsnotizen in Informatik. Vol. 2766. Springer. doi:10.1007/b11963. ISBN 3-540-40722-7. S2CID 1304548.
  41. ^ Morgan, Nelson; Bourlard, Hervé; Nierene, Steve; Cohen, Michael; Franco, Horacio (1. August 1993). "Hybrid neuronales Netzwerk/Hidden Markov -Modellsysteme für die kontinuierliche Spracherkennung". Internationales Journal für Mustererkennung und künstliche Intelligenz. 07 (4): 899–916. doi:10.1142/s0218001493000455. ISSN 0218-0014.
  42. ^ Robinson, T. (1992). "Ein Echtzeit-Wiederkehrungsfehler-Ausbreitungsnetzwerk-Worterkennungssystem". ICASSP. ICASSP'92: 617–620. ISBN 9780780305328. Archiviert vom Original am 2021-05-09. Abgerufen 2017-06-12.
  43. ^ Waibel, A.; Hanazawa, T.; Hinton, G.; Shikano, K.; Lang, K. J. (März 1989). "Phonemerkennung unter Verwendung von Zeitverzögerungsnetzwerken" (PDF). IEEE -Transaktionen zur Akustik, Sprache und Signalverarbeitung. 37 (3): 328–339. doi:10.1109/29.21701. HDL:10338.DMLCZ/135496. ISSN 0096-3518. Archiviert (PDF) vom Original am 2021-04-27. Abgerufen 2019-09-24.
  44. ^ Baker, J.; Deng, li; Glas, Jim; Khudanpur, S.; Lee, C.-H.; Morgan, N.; O'Shaughnessy, D. (2009). "Forschungsentwicklungen und Richtungen in der Spracherkennung und -verständnis, Teil 1". IEEE Signal Processing Magazine. 26 (3): 75–80. Bibcode:2009ispm ... 26 ... 75b. doi:10.1109/msp.2009.932166. HDL:1721.1/51891. S2CID 357467.
  45. ^ Bengio, Y. (1991). "Künstliche neuronale Netzwerke und ihre Anwendung auf Sprach-/Sequenzerkennung". McGill University Ph.D. These. Archiviert vom Original am 2021-05-09. Abgerufen 2017-06-12.
  46. ^ Deng, L.; Hassanein, K.; Elmasry, M. (1994). "Analyse der Korrelationsstruktur für ein neuronales Vorhersagemodell mit Anwendungen zur Spracherkennung". Neuronale Netze. 7 (2): 331–339. doi:10.1016/0893-6080 (94) 90027-2.
  47. ^ Doddington, G.; Przybocki, M.; Martin, A.; Reynolds, D. (2000). "Die Bewertung der NIST -Lautsprechererkennung ± Übersicht, Methodik, Systeme, Ergebnisse, Perspektive". Sprachkommunikation. 31 (2): 225–254. doi:10.1016/s0167-6393 (99) 00080-1.
  48. ^ a b Heck, L.; Konig, Y.; Sonmez, M.; Weintraub, M. (2000). "Robustheit für die Verzerrung des Telefons bei der Erkennung von Lautsprechern durch diskriminatives Merkmalsdesign". Sprachkommunikation. 31 (2): 181–192. doi:10.1016/s0167-6393 (99) 00077-1.
  49. ^ "Akustische Modellierung mit tiefen neuronalen Netzwerken mit Rohzeitsignal für LVCSR (PDF -Download verfügbar)". ResearchGate. Archiviert vom Original am 9. Mai 2021. Abgerufen 14. Juni 2017.
  50. ^ a b c Hochreiter, Sepp; Schmidhuber, Jürgen (1. November 1997). "Langes Kurzzeitgedächtnis". Neuronale Berechnung. 9 (8): 1735–1780. doi:10.1162/neco.1997.9.8.1735. ISSN 0899-7667. PMID 9377276. S2CID 1915014.
  51. ^ a b Graves, Alex; Eck, Douglas; Beringer, Nicole; Schmidhuber, Jürgen (2003). "Biologisch plausible Spracherkennung mit LSTM -neuronalen Netzen" (PDF). 1. intl. Workshop über biologisch inspirierte Ansätze für fortschrittliche Informationstechnologie, Bio-Adit 2004, Lausanne, Schweiz. S. 175–184. Archiviert (PDF) vom Original am 2021-05-09. Abgerufen 2016-04-09.
  52. ^ a b Graves, Alex; Fernández, Santiago; Gomez, Faustino (2006). "Connectionist Temporale Klassifizierung: Kennzeichnung nicht segmentierter Sequenzdaten mit wiederkehrenden neuronalen Netzwerken". Proceedings der Internationalen Konferenz über maschinelles Lernen, ICML 2006: 369–376. Citeseerx 10.1.1.75.6306.
  53. ^ Santiago Fernandez, Alex Graves und Jürgen Schmidhuber (2007). Eine Anwendung wiederkehrender neuronaler Netzwerke auf diskriminierende Schlüsselwort -Erfassen Archiviert 2018-11-18 bei der Wayback -Maschine. Proceedings of Icann (2), S. 220–229.
  54. ^ a b Sak, Haşim; Senior, Andrew; Rao, Kanishka; Beaufays, Françoise; Schalkwyk, Johan (September 2015). "Google Voice Search: schneller und genauer". Archiviert vom Original am 2016-03-09. Abgerufen 2016-04-09.
  55. ^ Hinton, Geoffrey E. (1. Oktober 2007). "Erlernen mehrerer Repräsentationsschichten". Trends in den kognitiven Wissenschaften. 11 (10): 428–434. doi:10.1016/j.tics.2007.09.004. ISSN 1364-6613. PMID 17921042. S2CID 15066318. Archiviert Aus dem Original am 11. Oktober 2013. Abgerufen 12. Juni 2017.
  56. ^ Hinton, G. E.; Osindero, S.; Teh, Y. W. (2006). "Ein schneller Lernalgorithmus für tiefe Glaubensnetze" (PDF). Neuronale Berechnung. 18 (7): 1527–1554. doi:10.1162/neco.2006.18.7.1527. PMID 16764513. S2CID 2309950. Archiviert (PDF) vom Original am 2015-12-23. Abgerufen 2011-07-20.
  57. ^ Bengio, Yoshua (2012). "Praktische Empfehlungen für die gradientenbasierte Ausbildung von tiefen Architekturen". Arxiv:1206.5533 [cs.lg].
  58. ^ G. E. Hinton. "Erlernen mehrerer Repräsentationsschichten Archiviert 2018-05-22 bei der Wayback -Maschine, " Trends in den kognitiven Wissenschaften11, S. 428–434, 2007.
  59. ^ a b c Hinton, G.; Deng, L.; Yu, D.; Dahl, G.; Mohamed, A.; Jaitly, N.; Senior, a.; Vanhoucke, V.; Nguyen, P.; Sainath, T.; Kingsbury, B. (2012). "Tiefe neuronale Netzwerke für die akustische Modellierung in der Spracherkennung: Die gemeinsamen Ansichten von vier Forschungsgruppen". IEEE Signal Processing Magazine. 29 (6): 82–97. Bibcode:2012ispm ... 29 ... 82H. doi:10.1109/msp.2012.2205597. S2CID 206485943.
  60. ^ Singh, Premjeet; Saha, Goutam; Sahidullah, MD (2021). "Nichtlineare Frequenzverzerrung unter Verwendung der Konstant-Q-Transformation zur Erkennung von Sprachemotionen". 2021 Internationale Konferenz über Computerkommunikation und Informatik (ICCCI). S. 1–4. Arxiv:2102.04029. doi:10.1109/ICCCI50826.2021.9402569. ISBN 978-1-7281-5875-4. S2CID 231846518.
  61. ^ Sak, Hasim; Senior, Andrew; Beaufays, Francoise (2014). "Langes Kurzzeitgedächtnis rezidivierende neuronale Netzwerkarchitekturen für die akustische Modellierung in großem Maßstab" (PDF). Archiviert von das Original (PDF) am 24. April 2018.
  62. ^ Li, Xiangang; Wu, Xihong (2014). "Konstruktion des langfristigen Kurzzeitgedächtnisses basierend tiefer wiederkehrender neuronaler Netze für große Vokabular-Spracherkennung". Arxiv:1410.4281 [cs.cl].
  63. ^ Zen, Heiga; Sak, Hasim (2015). "Unidirectional Long-Term Memory Recurrent Neural Network mit rezidivierender Ausgangsschicht für die Sprachsynthese mit niedriger Latenz" (PDF). Google.com. ICASSP. S. 4470–4474. Archiviert (PDF) vom Original am 2021-05-09. Abgerufen 2017-06-13.
  64. ^ Yann Lecun (2016). Rutscht auf tiefes Lernen Online Archiviert 2016-04-23 bei der Wayback -Maschine
  65. ^ a b c Deng, L.; Hinton, G.; Kingsbury, B. (2013). "Neue Arten von tiefen neuronalen Netzwerklernen für Spracherkennung und verwandte Anwendungen: Ein Überblick (ICASSP)" (PDF). Archiviert (PDF) vom Original am 2017-09-26. Abgerufen 2017-06-12. {{}}: Journal zitieren erfordert |journal= (Hilfe)
  66. ^ a b c Yu, D.; Deng, L. (2014). Automatische Spracherkennung: Ein Deep Learning -Ansatz (Verlag: Springer). ISBN 978-1-4471-5779-3.
  67. ^ "Deng erhält eine prestigeträchtige IEEE Technical Achievement Award - Microsoft Research". Microsoft Research. 3. Dezember 2015. Archiviert Aus dem Original am 16. März 2018. Abgerufen 16. März 2018.
  68. ^ a b Li, Deng (September 2014). "Keynote Talk: 'Erfolge und Herausforderungen des tiefen Lernens - von Sprachanalyse und Erkennung bis hin zu Sprach- und multimodaler Verarbeitung'". Interspeech. Archiviert vom Original am 2017-09-26. Abgerufen 2017-06-12.
  69. ^ Yu, D.; Deng, L. (2010). "Rollen der Vorausbildung und Feinabstimmung in kontextabhängigen DBN-HMMs für die Real-World-Spracherkennung". NIPS -Workshop über Deep Learning und unbeaufsichtigtes Feature -Lernen. Archiviert vom Original am 2017-10-12. Abgerufen 2017-06-14.
  70. ^ Seide, F.; Li, G.; Yu, D. (2011). "Konversationssprachtranskription unter Verwendung von kontextabhängigen tiefen neuronalen Netzwerken". Interspeech: 437–440. doi:10.21437/interspeech.2011-169. Archiviert vom Original am 2017-10-12. Abgerufen 2017-06-14.
  71. ^ Deng, li; Li, Jinyu; Huang, Jui-Attent; Yao, Kaisheng; Yu, Dong; Seide, Frank; Seltzer, Mike; Zweig, Geoff; Er, Xiaodong (1. Mai 2013). "Jüngste Fortschritte beim Deep -Lernen für Sprachforschung bei Microsoft". Microsoft Research. Archiviert Aus dem Original am 12. Oktober 2017. Abgerufen 14. Juni 2017.
  72. ^ "Nvidia -CEO wetten sich auf Deep Learning und VR". Venture Beat. 5. April 2016. Archiviert vom Original am 25. November 2020. Abgerufen 21. April 2017.
  73. ^ "Von der Nichtarbeit bis zum neuronalen Netzwerk". Der Ökonom. Archiviert vom Original am 2016-12-31. Abgerufen 2017-08-26.
  74. ^ a b Oh, K.-S.; Jung, K. (2004). "GPU -Implementierung neuronaler Netzwerke". Mustererkennung. 37 (6): 1311–1314. Bibcode:2004patre..37.1311o. doi:10.1016/j.patcog.2004.01.013.
  75. ^ "Eine Übersicht über Techniken zur Optimierung des Deep -Lernens auf GPUs Archiviert 2021-05-09 am Wayback -Maschine", S. Mittal und S. Vaishay, Journal of Systems Architecture, 2019
  76. ^ a b Chellapilla, Kumar; Puri, Sidd; Simard, Patrice (2006), Hochleistungsverkäufe neuronale Netzwerke für die Verarbeitung von Dokumenten, archiviert vom Original am 2020-05-18, abgerufen 2021-02-14
  77. ^ Cireşan, Dan Claudiu; Meier, Ueli; Gambardella, Luca Maria; Schmidhuber, Jürgen (21. September 2010). "Tiefe, große, einfache neuronale Netze für handgeschriebene Ziffernerkennung". Neuronale Berechnung. 22 (12): 3207–3220. Arxiv:1003.0358. doi:10.1162/neco_a_00052. ISSN 0899-7667. PMID 20858131. S2CID 1918673.
  78. ^ Raina, Rajat; Madhavan, Anand; NG, Andrew Y. (2009). "Großes tiefes, unbeaufsichtigtes Lernen mit Grafikprozessoren". Verfahren der 26. jährlichen Internationalen Konferenz über maschinelles Lernen. ICML '09. New York, NY, USA: ACM: 873–880. Citeseerx 10.1.1.154.372. doi:10.1145/1553374.1553486. ISBN 9781605585161. S2CID 392458.
  79. ^ Sze, Vivienne; Chen, Yu-Hsin; Yang, Tien-ju; Emer, Joel (2017). "Effiziente Verarbeitung von tiefen neuronalen Netzwerken: Ein Tutorial und Umfrage". Arxiv:1703.09039 [cs.cv].
  80. ^ a b "Merck Molekularaktivität Herausforderung". kaggle.com. Archiviert vom Original am 2020-07-16. Abgerufen 2020-07-16.
  81. ^ a b "Multi-Task-Netzwerke für QSAR-Vorhersagen | Data Science Association". www.datasciencasesn.org. Archiviert vom Original am 30. April 2017. Abgerufen 14. Juni 2017.
  82. ^ a b "Toxikologie in der Datenherausforderung des 21. Jahrhunderts"
  83. ^ a b "NCATs kündigt TOX21 Data Challenge -Gewinner an". Archiviert vom Original am 2015-09-08. Abgerufen 2015-03-05.
  84. ^ a b "Archivierte Kopie". Archiviert von das Original am 28. Februar 2015. Abgerufen 5. März 2015.{{}}: CS1 Wartung: Archiviertes Kopie als Titel (Link)
  85. ^ Ciresan, D. C.; Meier, u.; Masci, J.; Gambardella, L. M.; Schmidhuber, J. (2011). "Flexible, Hochleistungssektor -Neural -Netzwerke für die Bildklassifizierung" (PDF). Internationale gemeinsame Konferenz über künstliche Intelligenz. doi:10.5591/978-1-57735-516-8/IJCAI11-210. Archiviert (PDF) vom Original am 2014-09-29. Abgerufen 2017-06-13.
  86. ^ Ciresan, Dan; Giusti, Alessandro; Gambardella, Luca M.; Schmidhuber, Juergen (2012). Pereira, F.; Burges, C. J. C.; Bottou, L.; Weinberger, K. Q. (Hrsg.). Fortschritte in den neuronalen Informationsverarbeitungssystemen 25 (PDF). Curran Associates, Inc. S. 2843–2851. Archiviert (PDF) vom Original am 2017-08-09. Abgerufen 2017-06-13.
  87. ^ Ciresan, D.; Giusti, a.; Gambardella, L.M.; Schmidhuber, J. (2013). "Mitose -Nachweis in Bildern der Brustkrebshistologie unter Verwendung von tiefen neuronalen Netzwerken". Proceedings Miccai. Vorlesungsnotizen in Informatik. 7908 (Pt 2): 411–418. doi:10.1007/978-3-642-40763-5_51. ISBN 978-3-642-38708-1. PMID 24579167.
  88. ^ Vinyals, Oriol; Thov, Alexander; Bengio, Samy; Erhan, Dumitru (2014). "Zeigen und Tell: Ein neuronaler Bildunterschrift Generator". Arxiv:1411.4555 [cs.cv]..
  89. ^ Fang, Hao; Gupta, Saurabh; Iandola, Forrest; Srivastava, Rupesh; Deng, li; Dollár, Piotr; Gao, Jianfeng; Er, Xiaodong; Mitchell, Margaret; Platt, John C; Lawrence Zitnick, C; Zweig, Geoffrey (2014). "Von Bildunterschriften zu visuellen Konzepten und zurück". Arxiv:1411.4952 [cs.cv]..
  90. ^ Kiros, Ryan; Salakhutdinov, Ruslan; Zemel, Richard S (2014). "Visuell-semantische Einbettungen mit multimodalen Nervensprachenmodellen vereinheitlichend". Arxiv:1411.2539 [cs.lg]..
  91. ^ "Warum tiefes Lernen plötzlich dein Leben verändert". Reichtum. 2016. Archiviert Aus dem Original am 14. April 2018. Abgerufen 13. April 2018.
  92. ^ Silber, David; Huang, Aja; Maddison, Chris J.; Guez, Arthur; Sifre, Laurent; DRIESSsche, George van Den; Schrittweser, Julian; Antonoglou, Ioannis; Panneershelvam, Veda (Januar 2016). "Mastering the Game of Go mit tiefen neuronalen Netzwerken und Baumsuche". Natur. 529 (7587): 484–489. Bibcode:2016natur.529..484s. doi:10.1038/nature16961. ISSN 1476-4687. PMID 26819042. S2CID 515925.
  93. ^ Ein Leitfaden für tiefes Lernen und neuronale Netze, archiviert vom Original am 2020-11-02, abgerufen 2020-11-16
  94. ^ Szegedy, Christus; Thov, Alexander; Erhan, Dumitru (2013). "Tiefe neuronale Netze zur Objekterkennung". Fortschritte in den neuronalen Informationsverarbeitungssystemen: 2553–2561. Archiviert vom Original am 2017-06-29. Abgerufen 2017-06-13.
  95. ^ Rolnick, David; Tegmark, Max (2018). "Die Kraft tieferer Netzwerke zum Ausdruck natürlicher Funktionen". Internationale Konferenz über Lernrepräsentationen. ICLR 2018. Archiviert vom Original am 2021-01-07. Abgerufen 2021-01-05.
  96. ^ Hof, Robert D. "Kommt künstliche Intelligenz endlich auf sich selbst?". MIT Technology Review. Archiviert von das Original am 31. März 2019. Abgerufen 10. Juli 2018.
  97. ^ a b Gers, Felix A.; Schmidhuber, Jürgen (2001). "LSTM -wiederkehrende Netzwerke lernen einfache kontextfreie und kontextsensitive Sprachen". IEEE -Transaktionen auf neuronale Netze. 12 (6): 1333–1340. doi:10.1109/72.963769. PMID 18249962. Archiviert vom Original am 2020-01-26. Abgerufen 2020-02-25.
  98. ^ a b c Sutskever, L.; Vinyals, O.; Le, Q. (2014). "Sequenz zur Sequenzlernen mit neuronalen Netzwerken" (PDF). Proc. Nips. Arxiv:1409.3215. Bibcode:2014ArXIV1409.3215s. Archiviert (PDF) vom Original am 2021-05-09. Abgerufen 2017-06-13.
  99. ^ a b Jozefowicz, Rafal; Vinyals, Oriol; Schuster, Mike; SHAZEER, NOAM; Wu, Yonghui (2016). "Erforschen der Grenzen der Sprachmodellierung". Arxiv:1602.02410 [cs.cl].
  100. ^ a b Gillick, Dan; Brunk, Klippe; Vinyals, Oriol; Subramanya, Amarnag (2015). "Mehrsprachige Sprachverarbeitung aus Bytes". Arxiv:1512.00103 [cs.cl].
  101. ^ Mikolov, T.; et al. (2010). "Rezidivierendes neuronales Netzwerk -basierte Sprachmodell" (PDF). Interspeech: 1045–1048. doi:10.21437/interspeech.2010-343. Archiviert (PDF) vom Original am 2017-05-16. Abgerufen 2017-06-13.
  102. ^ a b "Präzises Timing lernen mit LSTM -rezidivierenden Netzwerken (PDF -Download verfügbar)". ResearchGate. Archiviert vom Original am 9. Mai 2021. Abgerufen 13. Juni 2017.
  103. ^ Lecun, Y.; et al. (1998). "Gradientenbasiertes Lernen angewendet, um die Erkennung von Dokumenten zu dokumentieren". Proceedings of the IEEE. 86 (11): 2278–2324. doi:10.1109/5.726791. S2CID 14542261.
  104. ^ Sainath, Tara n.; Mohamed, Abdel-Rahman; Kingsbury, Brian; Ramabhadran, Bhuvana (2013). "Deep Figolutional Neural Networks für LVCSR". 2013 IEEE International Conference über Akustik, Sprach und Signalverarbeitung. S. 8614–8618. doi:10.1109/ICASSP.2013.6639347. ISBN 978-1-4799-0356-6. S2CID 13816461.
  105. ^ Bengio, Yoshua; Boulanger-Lewandowski, Nicolas; Pascanu, Razvan (2013). "Fortschritte bei der Optimierung wiederkehrender Netzwerke". 2013 IEEE International Conference über Akustik, Sprach und Signalverarbeitung. S. 8624–8628. Arxiv:1212.0901. Citeseerx 10.1.1.752.9151. doi:10.1109/ICASSP.2013.6639349. ISBN 978-1-4799-0356-6. S2CID 12485056.
  106. ^ Dahl, G.; et al. (2013). "Verbesserung der DNNs für LVCSR unter Verwendung von gleichgemachten linearen Einheiten und Ausfallern" (PDF). ICASSP. Archiviert (PDF) vom Original am 2017-08-12. Abgerufen 2017-06-13.
  107. ^ "Datenvergrößerung - DeepLearning.ai | Coursera". Coursera. Archiviert Aus dem Original am 1. Dezember 2017. Abgerufen 30. November 2017.
  108. ^ Hinton, G. E. (2010). "Ein praktischer Leitfaden für das Training eingeschränkte Boltzmann -Maschinen". Technik. Rep. UTML TR 2010-003. Archiviert vom Original am 2021-05-09. Abgerufen 2017-06-13.
  109. ^ Du, Yang; Buluç, Aydın; Demmel, James (November 2017). "Skalieren von tiefem Lernen an GPU und Ritter landete Cluster". Proceedings der Internationalen Konferenz für Hochleistungs -Computing, Networking, Speicher und Analyse auf - SC '17. SC '17, ACM. S. 1–12. doi:10.1145/3126908.3126912. ISBN 9781450351140. S2CID 8869270. Archiviert vom Original am 29. Juli 2020. Abgerufen 5. März 2018.
  110. ^ Viebke, André; Memeti, Suejb; Pllana, Sabri; Abraham, Ajith (2019). "Chaos: Ein Parallelisierungsschema zur Ausbildung von Faltungsnetzwerken auf Intel Xeon Phi". Das Journal of Supercomputing. 75: 197–227. Arxiv:1702.07908. Bibcode:2017ArXIV170207908V. doi:10.1007/s11227-017-1994-x. S2CID 14135321.
  111. ^ Ting Qin et al. "Ein Lernalgorithmus von CMAC basiert auf RLS." Neuronale Verarbeitungsbriefe 19.1 (2004): 49-61.
  112. ^ Ting Qin et al. "Kontinuierliche CMAC-QRLs und sein systolisches Array Archiviert 2018-11-18 bei der Wayback -Maschine. "Neuronale Verarbeitungsbriefe 22.1 (2005): 1-16.
  113. ^ Research, AI (23. Oktober 2015). "Tiefe neuronale Netzwerke für die akustische Modellierung in der Spracherkennung". Airesearch.com. Archiviert Aus dem Original am 1. Februar 2016. Abgerufen 23. Oktober 2015.
  114. ^ "GPUs dominieren vorerst den KI -Beschleunigermarkt weiter". Informationswoche. Dezember 2019. Archiviert vom Original am 10. Juni 2020. Abgerufen 11. Juni 2020.
  115. ^ Ray, Tiernan (2019). "KI verändert die gesamte Natur der Berechnung". ZDNET. Archiviert vom Original am 25. Mai 2020. Abgerufen 11. Juni 2020.
  116. ^ "Ai und berechnen". Openai. 16. Mai 2018. Archiviert vom Original am 17. Juni 2020. Abgerufen 11. Juni 2020.
  117. ^ "Huawei enthüllt die Zukunft der mobilen KI bei IFA 2017 | Huawei Neueste Nachrichten | Huawei Global". Consumer.huawei.com.
  118. ^ P, Jouppinorman; Youngcliff; Patilnishant; Pattersondavid; Agrawalgaurav; Bajwaraminder; Batessarah; Bhatiasuresh; Bodennan; Borchersal; Boylerick (2017-06-24). "In-Datacenter-Leistungsanalyse einer Tensor-Verarbeitungseinheit". ACM Sigarch Computer Architecture News. 45 (2): 1–12. doi:10.1145/3140659.3080246.
  119. ^ Woodie, Alex (2021-11-01). "Cerebras trifft den Beschleuniger für Deep Learning Workloads". Datanami. Abgerufen 2022-08-03.
  120. ^ "Cerebras startet einen neuen KI -Supercomputing -Prozessor mit 2,6 Billionen Transistoren". VentureBeat. 2021-04-20. Abgerufen 2022-08-03.
  121. ^ Marega, Guilherme Migliato; Zhao, Yanfei; Avsar, Ahmet; Wang, Zhenyu; Tripati, Mukesh; Renkenovic, areksandra; Kis, Anras (2020). "Logik in Memory basiert auf einem atomisch dünnen Halbleiter". Natur. 587 (2): 72–77. Bibcode:2020Natur.587 ... 72m. doi:10.1038/s41586-020-2861-0. PMC 7116757. PMID 33149289.
  122. ^ a b c Feldmann, J.; Youngblood, N.; Karpov, M.; et al. (2021). "Parallele Faltungsverarbeitung unter Verwendung eines integrierten photonischen Tensors". Natur. 589 (2): 52–58. Arxiv:2002.00281. doi:10.1038/s41586-020-03070-1. PMID 33408373. S2CID 211010976.
  123. ^ Timit akustisch-phonetische kontinuierliche Sprachkorpus Sprachdatenkonsortium, Philadelphia.
  124. ^ Robinson, Tony (30. September 1991). "Mehrere Verbesserungen an einem rezidivierenden Fehler -Ausbreitungsnetzwerk -Telefonerkennungssystem". Technischer Bericht der Cambridge University Engineering Department. CUED/F-INFENG/TR82. doi:10.13140/rg.2.2.15418.90567.
  125. ^ Abdel-Hamid, O.; et al. (2014). "Faltungsnetzwerke für Spracherkennung". IEEE/ACM -Transaktionen zu Audio-, Sprach- und Sprachverarbeitung. 22 (10): 1533–1545. doi:10.1109/taslp.2014.2339736. S2CID 206602362. Archiviert vom Original am 2020-09-22. Abgerufen 2018-04-20.
  126. ^ Deng, L.; Platt, J. (2014). "Ensemble Deep Learning für Spracherkennung". Proc. Interspeech. S2CID 15641618.
  127. ^ Tóth, Laszló (2015). "Telefonerkennung mit hierarchischen Faltungsnetzwerken" Deep Maxout "" (PDF). Eurasip Journal über Audio-, Sprach- und Musikverarbeitung. 2015. doi:10.1186/s13636-015-0068-3. S2CID 217950236. Archiviert (PDF) vom Original am 2020-09-24. Abgerufen 2019-04-01.
  128. ^ McMillan, Robert (17. Dezember 2014). "Wie Skype KI verwendet hat, um seinen erstaunlichen neuen Sprachtranslator | Wired zu bauen". Verdrahtet. Archiviert Aus dem Original am 8. Juni 2017. Abgerufen 14. Juni 2017.
  129. ^ Hannun, Awni; Fall, Carl; Casper, Jared; Catanzaro, Bryan; Diamos, Greg; Elsen, Erich; Penger, Ryan; Satheesh, Sanjeev; Sengupta, Shubho; Coates, Adam; Ng, Andrew Y (2014). "Deep Speech: Skalierung von End-to-End-Spracherkennung". Arxiv:1412.5567 [cs.cl].
  130. ^ "MNIST handgeschriebene Zifferndatenbank, Yann Lecun, Corinna Cortes und Chris Burges". yann.lecun.com. Archiviert vom Original am 2014-01-13. Abgerufen 2014-01-28.
  131. ^ Cireşan, Dan; Meier, Ueli; Masci, Jonathan; Schmidhuber, Jürgen (August 2012). "Multi-Säulen-tiefe neuronale Netzwerk für die Klassifizierung des Verkehrszeichens". Neuronale Netze. Ausgewählte Papiere von IJCNN 2011. 32: 333–338. Citeseerx 10.1.1.226.8219. doi:10.1016/j.neunet.2012.02.023. PMID 22386783.
  132. ^ https://arxiv.org/abs/1404.3840 Übertreffende menschliche Gesichtserkennung übertreffen von Chaochao lu & Xiaoou Tang abgerufen am 17.03.22
  133. ^ Nvidia Demos ein Autocomputer mit "Deep Learning" ausgebildet. (6. Januar 2015), David Talbot, MIT Technology Review
  134. ^ a b c G. W. Smith; Frederic Fol Leymarie (10. April 2017). "Die Maschine als Künstler: Eine Einführung". Künste. 6 (4): 5. doi:10.3390/arts6020005.
  135. ^ a b c Blaise Agüera y Arcas (29. September 2017). "Kunst im Zeitalter der maschinellen Intelligenz". Künste. 6 (4): 18. doi:10.3390/arts6040018.
  136. ^ Goldberg, Yoav; Levy, Omar (2014). "Word2VEC erklärt: Abgeleitet von Mikolov et al. Arxiv:1402.3722 [cs.cl].
  137. ^ a b Socker, Richard; Manning, Christopher. "Deep Learning für NLP" (PDF). Archiviert (PDF) Aus dem Original am 6. Juli 2014. Abgerufen 26. Oktober 2014.
  138. ^ Socker, Richard; Bauer, John; Manning, Christopher; NG, Andrew (2013). "Analyse mit Kompositionsvektorgrammatiken" (PDF). Verfahren der ACL 2013 -Konferenz. Archiviert (PDF) vom Original am 2014-11-27. Abgerufen 2014-09-03.
  139. ^ Socker, Richard (2013). "Rekursive tiefe Modelle für semantische Kompositionalität über eine Stimmungstaumbank" (PDF). Archiviert (PDF) vom Original am 2016-12-28. Abgerufen 2014-09-03. {{}}: Journal zitieren erfordert |journal= (Hilfe)
  140. ^ Shen, Yelong; Er, Xiaodong; Gao, Jianfeng; Deng, li; Mesnil, Gregoire (1. November 2014). "Ein latentes semantisches Modell mit Faltungs-Pooling-Struktur zum Abrufen von Informationen". Microsoft Research. Archiviert Aus dem Original am 27. Oktober 2017. Abgerufen 14. Juni 2017.
  141. ^ Huang, Po-sen; Er, Xiaodong; Gao, Jianfeng; Deng, li; Acero, Alex; Heck, Larry (1. Oktober 2013). "Tiefe strukturierte semantische Modelle für die Websuche mithilfe von Click -Through -Daten lernen". Microsoft Research. Archiviert Aus dem Original am 27. Oktober 2017. Abgerufen 14. Juni 2017.
  142. ^ Mesnil, G.; Dauphin, Y.; Ja ok.; Bengio, Y.; Deng, L.; Hakkani-Tur, D.; Er, x.; Heck, L.; Tur, G.; Yu, D.; Zweig, G. (2015). "Verwendung wiederkehrender neuronaler Netzwerke für die Ausfüllung von Slot -Ausfüllungen im Verständnis des gesprochenen Sprache". IEEE -Transaktionen zu Audio-, Sprach- und Sprachverarbeitung. 23 (3): 530–539. doi:10.1109/taslp.2014.2383614. S2CID 1317136.
  143. ^ a b Gao, Jianfeng; Er, Xiaodong; Yih, Scott Wen-Tau; Deng, Li (1. Juni 2014). "Lernen kontinuierlicher Phrasendarstellungen für die Übersetzungsmodellierung". Microsoft Research. Archiviert Aus dem Original am 27. Oktober 2017. Abgerufen 14. Juni 2017.
  144. ^ Brocardo, Marcelo Luiz; Traore, Issa; Woungang, Isaac; Obaidat, Mohammad S. (2017). "Urheberschaftsüberprüfung mit Deep Glaubensnetzwerksystemen". Internationales Journal of Communication Systems. 30 (12): E3259. doi:10.1002/DAC.3259. S2CID 40745740.
  145. ^ "Deep Learning for Natural Language Processing: Theorie und Praxis (CIKM2014 Tutorial) - Microsoft Research". Microsoft Research. Archiviert vom Original am 13. März 2017. Abgerufen 14. Juni 2017.
  146. ^ Turovsky, Barak (15. November 2016). "In Übersetzung gefunden: genauere, fließende Sätze in Google Translate". Das Keyword Google -Blog. Archiviert Aus dem Original am 7. April 2017. Abgerufen 23. März 2017.
  147. ^ a b c d Schuster, Mike; Johnson, Melvin; Thorat, Nikhil (22. November 2016). "Zero-Shot-Übersetzung mit Googles mehrsprachiger neuronaler Maschinenübersetzungssystem". Google Research Blog. Archiviert Aus dem Original am 10. Juli 2017. Abgerufen 23. März 2017.
  148. ^ Wu, Yonghui; Schuster, Mike; Chen, Zhifeng; Le, Quoc V; Norouzi, Mohammad; Macherey, Wolfgang; Krikun, Maxim; Cao, Yuan; Gao, Qin; Macherey, Klaus; Klingner, Jeff; Shah, Apurva; Johnson, Melvin; Liu, Xiaobing; Kaiser, łukasz; Gouws, Stephan; Kato, Yoshikiyo; Kudo, Taku; Kazawa, Hideto; Stevens, Keith; Kurian, George; Patil, Nishant; Wang, Wei; Jung, Klippe; Smith, Jason; Riesa, Jason; Rudnick, Alex; Vinyals, Oriol; Corrado, Greg; et al. (2016). "Googles neuronales maschinelles Übersetzungssystem: Überbrückung der Lücke zwischen menschlicher und maschineller Übersetzung". Arxiv:1609.08144 [cs.cl].
  149. ^ Metz, Cade (27. September 2016). "Eine Infusion von KI macht Google leistungsfähiger als je zuvor". Verdrahtet. Archiviert vom Original am 8. November 2020. Abgerufen 12. Oktober 2017.
  150. ^ a b Boitet, Christian; Blanchon, Hervé; Seligman, Mark; Bellynck, Valérie (2010). "MT on und für das Web" (PDF). Archiviert von das Original (PDF) am 29. März 2017. Abgerufen 1. Dezember 2016.
  151. ^ Arrowsmith, J; Miller, P (2013). "Versuchswache: Phase II- und Phase III-Abnutzungsraten 2011-2012". Nature Reviews Drug Discovery. 12 (8): 569. doi:10.1038/nrd4090. PMID 23903212. S2CID 20246434.
  152. ^ Verbist, b; Klambauer, G; Vervoort, L; Tallloen, W; Das Qstar, Konsortium; Shkedy, Z; Thas, o; Bender, a; Göhlmann, H. W.; Hochreiter, S (2015). "Verwenden der Transkriptomik, um die Lead -Optimierung bei Arzneimittelentdeckungsprojekten zu leiten: Lehren aus dem QSTAR -Projekt gelernt". Drogenentdeckung heute. 20 (5): 505–513. doi:10.1016/j.drudis.2014.12.014. PMID 25582842.
  153. ^ Wallach, Izhar; Dzamba, Michael; Heifets, Abraham (9. Oktober 2015). "Atomnet: Ein tiefes neuronales Netzwerk für die Bioaktivität in der strukturbasierten Arzneimittelentdeckung". Arxiv:1510.02855 [cs.lg].
  154. ^ "Toronto Startup hat einen schnelleren Weg, um wirksame Medikamente zu entdecken.". The Globe and Mail. Archiviert Aus dem Original am 20. Oktober 2015. Abgerufen 9. November 2015.
  155. ^ "Startup nutzt Supercomputer, um Heilmittel zu suchen". KQED -Zukunft von Ihnen. Archiviert Aus dem Original am 24. Dezember 2015. Abgerufen 9. November 2015.
  156. ^ "Toronto Startup hat einen schnelleren Weg, um wirksame Medikamente zu entdecken.". The Globe and Mail. Archiviert vom Original am 2015-12-25. Abgerufen 2017-08-26.
  157. ^ Gilmer, Justin; Schönholz, Samuel S.; Riley, Patrick F.; Vinyals, Oriol; Dahl, George E. (2017-06-12). "Neuronale Botschaft für Quantenchemie". Arxiv:1704.01212 [cs.lg].
  158. ^ Zhavoronkov, Alex (2019). "Deep Learning ermöglicht eine schnelle Identifizierung starker DDR1 -Kinase -Inhibitoren". Naturbiotechnologie. 37 (9): 1038–1040. doi:10.1038/s41587-019-0224-x. PMID 31477924. S2CID 201716327.
  159. ^ Gregory, Friseur. "Ein von AI entworfenes Molekül zeigt 'medikamentenähnliche Qualitäten". Verdrahtet. Archiviert vom Original am 2020-04-30. Abgerufen 2019-09-05.
  160. ^ Tkachenko, Yegor (8. April 2015). "Autonome CRM -Kontrolle über CLV -Näherung mit tiefem Verstärkungslernen im diskreten und kontinuierlichen Aktionraum". Arxiv:1504.01840 [cs.lg].
  161. ^ Van Den Oord, Aaron; Dieleman, Sander; Schrauwen, Benjamin (2013). Burges, C. J. C.; Bottou, L.; Welling, M.; Ghahramani, Z.; Weinberger, K. Q. (Hrsg.). Fortschritte in den neuronalen Informationsverarbeitungssystemen 26 (PDF). Curran Associates, Inc. S. 2643–2651. Archiviert (PDF) vom Original am 2017-05-16. Abgerufen 2017-06-14.
  162. ^ Feng, X.Y.; Zhang, H.; Ren, Y.J.; Shang, P.H.; Zhu, Y.; Liang, Y.C.; Guan, R.C.; Xu, D. (2019). "Das Deep Learning -basierte Empfehlungssystem" Pubmender "zur Auswahl eines biomedizinischen Veröffentlichungsortes: Entwicklungs- und Validierungsstudie". Journal of Medical Internet Research. 21 (5): E12957. doi:10.2196/12957. PMC 6555124. PMID 31127715.
  163. ^ Elkahky, Ali Mamdouh; Lied, Yang; Er, Xiaodong (1. Mai 2015). "Ein Multi-View-Deep-Learning-Ansatz für die Modellierung von Cross-Domain-Benutzer in Empfehlungssystemen". Microsoft Research. Archiviert Aus dem Original am 25. Januar 2018. Abgerufen 14. Juni 2017.
  164. ^ Chicco, Davide; Sadowski, Peter; Baldi, Pierre (1. Januar 2014). Deep AutoCoder Neuronale Netzwerke für Genotologie -Annotationsvorhersagen für Gen -Ontologie. Verfahren der 5. ACM -Konferenz über Bioinformatik, Computerbiologie und Gesundheitsfunktionen - BCB '14. ACM. S. 533–540. doi:10.1145/2649387.2649442. HDL:11311/964622. ISBN 9781450328944. S2CID 207217210. Archiviert vom Original am 9. Mai 2021. Abgerufen 23. November 2015.
  165. ^ Sathyanarayana, Aarti (1. Januar 2016). "Schlafqualität Vorhersage aus tragbaren Daten mit Deep Learning". Jmir Mhealth und Uhealth. 4 (4): e125. doi:10.2196/mHealth.6562. PMC 5116102. PMID 27815231. S2CID 3821594.
  166. ^ Choi, Edward; Schuetz, Andy; Stewart, Walter F.; Sun, Jimeng (13. August 2016). "Verwenden rezidivierender neuronaler Netzwerkmodelle zur frühzeitigen Erkennung des Einsetzens des Herzinsuffizienz". Zeitschrift der American Medical Informatics Association. 24 (2): 361–370. doi:10.1093/jamia/ocw112. ISSN 1067-5027. PMC 5391725. PMID 27521897.
  167. ^ Litjens, Geert; Kooi, Thijs; Bejnordi, Babak Ehteshami; Setio, Arnaud Arindra Adiyoso; Ciompi, Francesco; GHAFOORIAN, MOHSEN; Van der Laak, Jeroen A.W.M.; Van Ginneken, Bram; Sánchez, Clara I. (Dezember 2017). "Eine Umfrage zum Deep -Lernen in der medizinischen Bildanalyse". Medizinische Bildanalyse. 42: 60–88. Arxiv:1702.05747. Bibcode:2017ArXIV170205747L. doi:10.1016/j.media.2017.07.005. PMID 28778026. S2CID 2088679.
  168. ^ Forslid, Gustav; Wielander, Hakan; Bengtsson, eWert; Wahlby, Carolina; Hirsch, Jan-Michael; Stark, Christina Runow; Sadanandan, Sajith Kecheril (2017). "Tiefe dritte neuronale Netze zur Erkennung von zellulären Veränderungen aufgrund von Malignität". 2017 IEEE International Conference über Computer Vision Workshops (ICCVW). S. 82–89. doi:10.1109/ICCVW.2017.18. ISBN 9781538610343. S2CID 4728736. Archiviert vom Original am 2021-05-09. Abgerufen 2019-11-12.
  169. ^ Dong, Xin; Zhou, Yizhao; Wang, Lantian; Peng, Jingfeng; Lou, Yanbo; Fan, Yiqun (2020). "Erkennung von Leberkrebs unter Verwendung hybridisierter, vollständig faltbares neuronales Netzwerk basierend auf Deep Learning Framework". IEEE -Zugang. 8: 129889–129898. doi:10.1109/access.2020.3006362. ISSN 2169-3536. S2CID 220733699.
  170. ^ Lyakhov, Pavel Alekseevich; Lyakhova, Ulyana Alekseevna; Nagornov, Nikolay Nikolaevich (2022-04-03). "System zur Erkennung pigmentierter Hautläsionen mit Fusion und Analyse heterogener Daten basierend auf einem multimodalen neuronalen Netzwerk". Krebsarten. 14 (7): 1819. doi:10.3390/Cancer14071819. ISSN 2072-6694. PMC 8997449. PMID 35406591.
  171. ^ De, Shaunak; Maity, Abhishek; Goel, Vritti; Shitole, Sanjay; Bhattacharya, Avik (2017). "Vorhersage der Popularität von Instagram -Posts für ein Lifestyle -Magazin mit Deep Learning". 2017 2. Internationaler Konferenz über Kommunikationssysteme, Computing und IT -Anwendungen (CSCITA). S. 174–177. doi:10.1109/cscita.2017.8066548. ISBN 978-1-5090-4381-1. S2CID 35350962.
  172. ^ "Alte Bilder mit tiefem Lernen färben und restaurieren". Floydhub Blog. 13. November 2018. Archiviert Aus dem Original am 11. Oktober 2019. Abgerufen 11. Oktober 2019.
  173. ^ Schmidt, Uwe; Roth, Stefan. Schrumpfungsfelder für eine wirksame Bildwiederherstellung (PDF). Computer Vision und Mustererkennung (CVPR), 2014 IEEE -Konferenz über. Archiviert (PDF) vom Original am 2018-01-02. Abgerufen 2018-01-01.
  174. ^ Kleanthous, Christos; Chatzis, Sotirios (2020). "Variationsautoencoder für Wertschöpfungsteuerprüfungen für die Auswahl des Wertprüfungsfalles für Wertschöpfung". Wissensbasierte Systeme. 188: 105048. doi:10.1016/j.knosys.2019.105048. S2CID 204092079.
  175. ^ Czech, Tomasz (28. Juni 2018). "Deep Learning: Die nächste Grenze für Geldwäschekennung". Global Banking and Finance Review. Archiviert vom Original am 2018-11-16. Abgerufen 2018-07-15.
  176. ^ a b c "Armeeforscher entwickeln neue Algorithmen, um Roboter auszubilden.". Eurkalert!. Archiviert Aus dem Original am 28. August 2018. Abgerufen 29. August 2018.
  177. ^ Raissi, M.; Perdikaris, P.; Karniadakis, G. E. (2019-02-01). "Physik-informierte neuronale Netzwerke: Ein tiefes Lernrahmen zur Lösung von Vorwärts- und inversen Problemen mit nichtlinearen partiellen Differentialgleichungen". Journal of Computational Physics. 378: 686–707. Bibcode:2019jcoph.378..686r. doi:10.1016/j.jcp.2018.10.045. ISSN 0021-9991. Osti 1595805. S2CID 57379996.
  178. ^ Mao, Zhiping; Jagtap, Ameya D.; Karniadakis, George EM (2020-03-01). "Physik-informierte neuronale Netze für Hochgeschwindigkeitsflüsse". Computermethoden in angewandten Mechanik und Engineering. 360: 112789. Bibcode:2020cmame.360K2789m. doi:10.1016/j.cma.2019.112789. ISSN 0045-7825. S2CID 212755458.
  179. ^ Raissi, Maziar; Yazdani, Alireza; Karniadakis, George EM (2020-02-28). "Versteckte Flüssigkeitsmechanik: Lerngeschwindigkeits- und Druckfelder aus Durchflussvisualisierungen". Wissenschaft. 367 (6481): 1026–1030. Bibcode:2020Sci ... 367.1026r. doi:10.1126/Science.AAW4741. PMC 7219083. PMID 32001523.
  180. ^ Oktem, Figen S.; Kar, Oğuzhan Fatih; Bezek, kann Deniz; Kamalabadi, Farzad (2021). "Hochauflösende multispektrale Bildgebung mit unterschiedlichen Linsen und erlernte Rekonstruktion". IEEE -Transaktionen zur Computerbildgebung. 7: 489–504. Arxiv:2008.11625. doi:10.1109/tci.2021.3075349. ISSN 2333-9403. S2CID 235340737.
  181. ^ Bernhardt, Melanie; Vishnevskiy, Valery; Rau, Richard; Goksel, Orcun (Dezember 2020). "Trainingsvariationsnetzwerke mit Multidomänen-Simulationen: Einstellungsgeschwindigkeitsrekonstruktion". IEEE -Transaktionen zu Ultraschall, Ferroelektrik und Frequenzkontrolle. 67 (12): 2584–2594. Arxiv:2006.14395. doi:10.1109/tuffc.2020.3010186. ISSN 1525-8955. PMID 32746211. S2CID 220055785.
  182. ^ Utgoff, P. E.; Stracuzzi, D. J. (2002). "Many-Layered Learning". Neuronale Berechnung. 14 (10): 2497–2529. doi:10.1162/08997660260293319. PMID 12396572. S2CID 1119517.
  183. ^ Elman, Jeffrey L. (1998). Innaction überdenken: eine verbindungsistische Perspektive auf die Entwicklung. MIT Press. ISBN 978-0-262-55030-7.
  184. ^ Shrager, J.; Johnson, MH (1996). "Dynamische Plastizität beeinflusst das Auftreten von Funktionen in einem einfachen kortikalen Array". Neuronale Netze. 9 (7): 1119–1129. doi:10.1016/0893-6080 (96) 00033-0. PMID 12662587.
  185. ^ Quarz, SR; Sejnowski, TJ (1997). "Die neuronale Grundlage der kognitiven Entwicklung: ein konstruktivistisches Manifest". Verhaltens- und Gehirnwissenschaften. 20 (4): 537–556. Citeseerx 10.1.1.41.7854. doi:10.1017/s0140525x97001581. PMID 10097006. S2CID 5818342.
  186. ^ S. Blakeslee., "Im frühen Wachstum des Gehirns kann der Zeitplan kritisch sein," Die New York Times, Wissenschaftsabteilung, S. B5 - B6, 1995.
  187. ^ Mazzoni, P.; Andersen, R. A.; Jordan, M. I. (15. Mai 1991). "Eine biologisch plausiblere Lernregel für neuronale Netze". Verfahren der National Academy of Sciences. 88 (10): 4433–4437. Bibcode:1991pnas ... 88.4433m. doi:10.1073/pnas.88.10.4433. ISSN 0027-8424. PMC 51674. PMID 1903542.
  188. ^ O'Reilly, Randall C. (1. Juli 1996). "Biologisch plausibler fehlergetriebenes Lernen unter Verwendung lokaler Aktivierungsunterschiede: der verallgemeinerte Rezirkulationsalgorithmus". Neuronale Berechnung. 8 (5): 895–938. doi:10.1162/neco.1996.8.5.895. ISSN 0899-7667. S2CID 2376781.
  189. ^ Testolin, Alberto; Zorzi, Marco (2016). "Probabilistische Modelle und generative neuronale Netzwerke: Auf dem Weg zu einem einheitlichen Rahmen zur Modellierung normaler und beeinträchtigter neurokognitiver Funktionen". Grenzen in der Computerneurowissenschaft. 10: 73. doi:10.3389/fncom.2016.00073. ISSN 1662-5188. PMC 4943066. PMID 27468262. S2CID 9868901.
  190. ^ Testolin, Alberto; Stoianov, Ivilin; Zorzi, Marco (September 2017). "Die Wahrnehmung der Buchstaben entsteht aus unbeaufsichtigtem tiefem Lernen und Recycling natürlicher Bildmerkmale." Natures menschliches Verhalten. 1 (9): 657–664. doi:10.1038/s41562-017-0186-2. ISSN 2397-3374. PMID 31024135. S2CID 24504018.
  191. ^ Buesing, Lars; Bill, Johannes; Nessler, Bernhard; Maass, Wolfgang (3. November 2011). "Neuronale Dynamik als Probenahme: Ein Modell für stochastische Berechnungen in wiederkehrenden Netzwerken von Spike -Neuronen". PLoS Computational Biology. 7 (11): E1002211. Bibcode:2011PLSCB ... 7E2211B. doi:10.1371/journal.pcbi.1002211. ISSN 1553-7358. PMC 3207943. PMID 22096452. S2CID 7504633.
  192. ^ Cash, S.; Yuste, R. (Februar 1999). "Lineare Summe der exzitatorischen Eingaben durch CA1 -Pyramidenneuronen". Neuron. 22 (2): 383–394. doi:10.1016/s0896-6273 (00) 81098-3. ISSN 0896-6273. PMID 10069343. S2CID 14663106.
  193. ^ Olshhausen, b; Field, D (1. August 2004). "Spärliche Codierung sensorischer Eingänge". Aktuelle Meinung in der Neurobiologie. 14 (4): 481–487. doi:10.1016/j.conb.2004.07.007. ISSN 0959-4388. PMID 15321069. S2CID 16560320.
  194. ^ Yamins, Daniel L K; Dicarlo, James J (März 2016). "Mit zielorientierten Deep Learning-Modellen zum Verständnis des sensorischen Kortex". Nature Neurowissenschaften. 19 (3): 356–365. doi:10.1038/nn.4244. ISSN 1546-1726. PMID 26906502. S2CID 16970545.
  195. ^ Zorzi, Marco; Testolin, Alberto (19. Februar 2018). "Eine Emergentistenperspektive auf den Ursprung des Zahlensinns". Phil. Trans. R. Soc. B. 373 (1740): 20170043. doi:10.1098/rstb.2017.0043. ISSN 0962-8436. PMC 5784047. PMID 29292348. S2CID 39281431.
  196. ^ Güçlü, Umut; Van Gerven, Marcel A. J. (8. Juli 2015). "Tiefe neuronale Netze zeigen einen Gradienten in der Komplexität der neuronalen Darstellungen im ventralen Strom". Journal of Neurowissenschaften. 35 (27): 10005–10014. Arxiv:1411.6422. doi:10.1523/jneurosci.5023-14.2015. PMC 6605414. PMID 26157000.
  197. ^ Metz, C. (12. Dezember 2013). "Facebooks 'Deep Learning' Guru enthüllt die Zukunft der KI". Verdrahtet. Archiviert Aus dem Original am 28. März 2014. Abgerufen 26. August 2017.
  198. ^ Gibney, Elizabeth (2016). "Google AI Algorithmus Masters Altes Spiel von Go". Natur. 529 (7587): 445–446. Bibcode:2016natur.529..445g. doi:10.1038/529445a. PMID 26819021. S2CID 4460235. Archiviert Aus dem Original am 2. Mai 2019. Abgerufen 30. Januar 2016.
  199. ^ Silber, David; Huang, Aja; Maddison, Chris J.; Guez, Arthur; Sifre, Laurent; DRIESSsche, George van Den; Schrittweser, Julian; Antonoglou, Ioannis; Panneershelvam, Veda; Lanctot, Marc; Dieleman, Sander; Grewe, Dominik; Nham, John; Kalchbrenner, Nal; Sutskever, Ilya; Lillicrap, Timothy; Leach, Madeleine; Kavukcuoglu, Koray; Graepel, Thore; Hassabis, Demis (28. Januar 2016). "Mastering the Game of Go mit tiefen neuronalen Netzwerken und Baumsuche". Natur. 529 (7587): 484–489. Bibcode:2016natur.529..484s. doi:10.1038/nature16961. ISSN 0028-0836. PMID 26819042. S2CID 515925.closed access
  200. ^ "Ein Google DeepMind -Algorithmus nutzt Deep Learning und mehr, um das Game of Go | MIT Technology Review zu beherrschen.". MIT Technology Review. Abgerufen 30. Januar 2016.
  201. ^ Metz, Cade (6. November 2017). "A.I. Forscher verlassen das Elon Musk Lab, um das Robotik-Start-up zu beginnen.". Die New York Times. Archiviert Aus dem Original am 7. Juli 2019. Abgerufen 5. Juli 2019.
  202. ^ Bradley Knox, W.; Stone, Peter (2008). "Tamer: Training eines Agenten manuell über evaluative Verstärkung". 2008 7. IEEE Internationale Konferenz über Entwicklung und Lernen: 292–297. doi:10.1109/devlrn.2008.4640845. ISBN 978-1-4244-2661-4. S2CID 5613334.
  203. ^ "Sprechen Sie mit den Algorithmen: KI wird zu einem schnelleren Lernenden". Governmentciomedia.com. Archiviert Aus dem Original am 28. August 2018. Abgerufen 29. August 2018.
  204. ^ Marcus, Gary (14. Januar 2018). "Zur Verteidigung der Skepsis gegenüber tiefem Lernen". Gary Marcus. Archiviert Aus dem Original am 12. Oktober 2018. Abgerufen 11. Oktober 2018.
  205. ^ Knight, Will (14. März 2017). "DARPA finanziert Projekte, die versuchen, die schwarzen Kisten von AI zu öffnen.". MIT Technology Review. Archiviert Aus dem Original am 4. November 2019. Abgerufen 2. November 2017.
  206. ^ Marcus, Gary (25. November 2012). "Ist" tiefes Lernen "eine Revolution in der künstlichen Intelligenz?". Der New Yorker. Archiviert vom Original am 2009-11-27. Abgerufen 2017-06-14.
  207. ^ Alexander Mordvintsev; Christopher Olah; Mike Tyka (17. Juni 2015). "Inceptionism: Tiefer in neuronale Netzwerke gehen". Google Research Blog. Archiviert Aus dem Original am 3. Juli 2015. Abgerufen 20. Juni 2015.
  208. ^ Alex Hern (18. Juni 2015). "Ja, Androids träumen von elektrischen Schafen". Der Wächter. Archiviert Aus dem Original am 19. Juni 2015. Abgerufen 20. Juni 2015.
  209. ^ a b c Goertzel, Ben (2015). "Gibt es tiefe Gründe, die den Pathologien der heutigen Deep -Learning -Algorithmen zugrunde liegen?" (PDF). Archiviert (PDF) vom Original am 2015-05-13. Abgerufen 2015-05-10.
  210. ^ Nguyen, anh; Yosinski, Jason; Clune, Jeff (2014). "Tiefe neuronale Netzwerke lassen sich leicht täuschen: hohe Konfidenzvorhersagen für nicht wiederzuerkennbare Bilder". Arxiv:1412.1897 [cs.cv].
  211. ^ Szegedy, Christus; Zaremba, Wojciech; Sutskever, Ilya; Bruna, Joan; Erhan, Dumitru; Goodfellow, Ian; Fergus, Rob (2013). "Faszinierende Eigenschaften neuronaler Netzwerke". Arxiv:1312.6199 [cs.cv].
  212. ^ Zhu, S.C.; Mumford, D. (2006). "Eine stochastische Grammatik von Bildern". Gefunden. Trends Comput. Graph. Vis. 2 (4): 259–362. Citeseerx 10.1.1.681.2190. doi:10.1561/0600000018.
  213. ^ Miller, G. A. und N. Chomsky. "Musterkonzeption." Papier für Konferenz über Mustererkennung, Universität von Michigan. 1957.
  214. ^ Eisner, Jason. "Tiefes Lernen einer rekursiven Struktur: Grammatikinduktion". Archiviert von das Original Am 2017-12-30. Abgerufen 2015-05-10.
  215. ^ "Hacker haben bereits begonnen, künstliche Intelligenz zu waffen". Gizmodo. 11. September 2017. Archiviert Aus dem Original am 11. Oktober 2019. Abgerufen 11. Oktober 2019.
  216. ^ "Wie Hacker KI zwingen können, dumme Fehler zu machen". Der tägliche Punkt. 18. Juni 2018. Archiviert Aus dem Original am 11. Oktober 2019. Abgerufen 11. Oktober 2019.
  217. ^ a b c d e "KI ist leicht zu täuschen - warum das sich ändern muss". Singularity Hub. 10. Oktober 2017. Archiviert Aus dem Original am 11. Oktober 2017. Abgerufen 11. Oktober 2017.
  218. ^ Gibney, Elizabeth (2017). "Der Wissenschaftler, der gefälschte Videos entdeckt". Natur. doi:10.1038/Nature.2017.22784. Archiviert vom Original am 2017-10-10. Abgerufen 2017-10-11.
  219. ^ a b c d Mühlhoff, Rainer (6. November 2019). "Menschliche künstliche Intelligenz: Oder wie man große Berechnungen im menschlichen Gehirn durchführt? Auf dem Weg zu einer Mediensoziologie des maschinellen Lernens". Neue Medien & Gesellschaft. 22 (10): 1868–1884. doi:10.1177/1461444819885334. ISSN 1461-4448. S2CID 209363848.
  220. ^ "Facebook kann jetzt Ihr Gesicht finden, auch wenn es nicht markiert ist". Verdrahtet. ISSN 1059-1028. Archiviert Aus dem Original am 10. August 2019. Abgerufen 22. November 2019.

Weitere Lektüre