Maschinelles Lernen
Maschinelles Lernen (Ml) ist ein Untersuchungsfeld, das dem Verständnis und dem Aufbau von Methoden widmet, die „lernen“, dh Methoden, die Daten nutzen, um die Leistung bei einigen Aufgaben zu verbessern.[1] Es wird als Teil von gesehen künstliche Intelligenz. Algorithmen für maschinelles Lernen erstellen ein Modell basierend auf Beispieldaten, bekannt als Trainingsdaten, um Vorhersagen oder Entscheidungen zu treffen, ohne ausdrücklich darauf programmiert zu werden.[2] Algorithmen für maschinelles Lernen werden in einer Vielzahl von Anwendungen verwendet, wie z. B. in der Medizin, E -Mail -Filterung, Spracherkennung, und Computer Vision, wo es schwierig oder unmöglich ist, herkömmliche Algorithmen zu entwickeln, um die erforderlichen Aufgaben auszuführen.[3]
Eine Untergruppe des maschinellen Lernens ist eng mit dem verwandt mit Computerstatistik, was sich darauf konzentriert, Vorhersagen mit Computern zu treffen, aber nicht das gesamte maschinelle Lernen ist statistisches Lernen. Das Studium der Mathematische Optimierung Liefert Methoden, Theorie- und Anwendungsdomänen an das Gebiet des maschinellen Lernens. Data Mining ist ein verwandtes Studienbereich, der sich auf konzentriert Explorationsdatenanalyse durch unbeaufsichtigtes Lernen.[5][6] Einige Implementierungen von maschinellem Lernen verwenden Daten und Neuronale Netze auf eine Weise, die die Arbeit eines biologischen Gehirns nachahmt.[7][8] In seiner Anwendung über Geschäftsprobleme hinweg wird auch maschinelles Lernen auch als bezeichnet Prädiktive Analytics.
Überblick
Lernalgorithmen funktionieren auf der Grundlage, dass Strategien, Algorithmen und Schlussfolgerungen, die in der Vergangenheit gut funktionierten, in Zukunft wahrscheinlich weiterhin gut funktionieren. Diese Schlussfolgerungen können offensichtlich sein, wie "da die Sonne in den letzten 10.000 Tagen jeden Morgen aufstieg, wird sie wahrscheinlich auch morgen früh aufsteigen". Sie können nuanciert sein, wie "x% von" Familien Geografisch Arten mit Farbvarianten getrennt haben, daher besteht eine y% -Chance, die unentdeckt ist Schwarze Schwäne existieren".[9]
Programme für maschinelles Lernen können Aufgaben ausführen, ohne dies ausdrücklich programmiert zu werden. Es beinhaltet das Lernen von Computern aus Daten, die bestimmte Aufgaben ausführen. Bei einfachen Aufgaben, die Computern zugeordnet sind, können Algorithmen programmiert werden, die der Maschine sagen, wie er alle Schritte ausführt, die erforderlich sind, um das vorliegende Problem zu lösen. Vom Teil des Computers ist kein Lernen erforderlich. Für fortgeschrittenere Aufgaben kann es für einen Menschen eine Herausforderung sein, die erforderlichen Algorithmen manuell zu erstellen. In der Praxis kann es sich herausstellen, dass es effektiver ist, um der Maschine zu helfen, einen eigenen Algorithmus zu entwickeln, anstatt dass menschliche Programmierer jeden erforderlichen Schritt angeben.[10]
Die Disziplin des maschinellen Lernens verwendet verschiedene Ansätze, um Computer zu lehren, um Aufgaben zu erledigen, bei denen kein vollständig zufriedenstellender Algorithmus verfügbar ist. In Fällen, in denen eine große Anzahl potenzieller Antworten vorhanden ist, besteht ein Ansatz darin, einige der richtigen Antworten als gültig zu kennzeichnen. Dies kann dann als Trainingsdaten für den Computer verwendet werden, um die von ihm verwendeten Algorithmus zu verbessern, um die richtigen Antworten zu ermitteln. Zum Beispiel, um ein System für die Aufgabe der digitalen Charaktererkennung zu trainieren, die MNIST Der Datensatz handgeschriebener Ziffern wurde häufig verwendet.[10]
Geschichte und Beziehungen zu anderen Feldern
Der Begriff maschinelles Lernen wurde 1959 von geprägt von Arthur Samuel, ein IBM Mitarbeiter und Pionier im Bereich von Computerspiele und künstliche Intelligenz.[11][12] Auch das Synonym selbstunterrichtende Computer wurden in diesem Zeitraum verwendet.[13][14]
In den frühen 1960er Jahren eine experimentelle "Lernmaschine" mit Stempelband Das Gedächtnis, Cybertron genannt, wurde von entwickelt von Raytheon Company Analyse von Sonarsignalen, Elektrokardiogrammen und Sprachmustern unter Verwendung von rudimentären Verstärkungslernen. Es wurde von einem menschlichen Bediener/Lehrer wiederholt "trainiert", um Muster zu erkennen und mit einem "ausgestattet zu sein"Goof"Button, damit es falsche Entscheidungen neu bewertet.[15] Ein repräsentatives Buch über die Erforschung des maschinellen Lernens in den 1960er Jahren war Nilssons Buch über Lernmaschinen, das hauptsächlich mit maschinellem Lernen für die Musterklassifizierung zu tun hat.[16] Das Interesse im Zusammenhang mit der Mustererkennung wurde bis in die 1970er Jahre fortgesetzt, wie von Duda und Hart 1973 beschrieben.[17] 1981 wurde ein Bericht über die Verwendung von Lehrstrategien gegeben, damit a neurales Netzwerk lernt, 40 Zeichen (26 Buchstaben, 10 Ziffern und 4 spezielle Symbole) aus einem Computerterminal zu erkennen.[18]
Tom M. Mitchell bildete eine weit verbreitete, formalere Definition der im Bereich des maschinell gelernten Algorithmen: "Ein Computerprogramm soll aus Erfahrung lernen E In Bezug auf eine Klasse von Aufgaben T und Leistungsmaßnahme P Wenn seine Leistung bei Aufgaben in T, gemessen von P, verbessert sich mit Erfahrung E. "[19] Diese Definition der Aufgaben, bei denen sich maschinelles Lernen betrifft Arbeitsdefinition anstatt das Feld kognitiv zu definieren. Dies folgt Alan Turing's Vorschlag in seiner Zeitung "Computermaschinen und Intelligenz", in der die Frage" können Maschinen denken? "Ersetzt durch die Frage" Können Maschinen das tun, was wir (als Denkstoffe) tun können? ".[20]
Das moderne maschinelle Lernen hat zwei Ziele, eines ist es, Daten basierend auf entwickelten Modellen zu klassifizieren. Der andere Zweck besteht darin, Vorhersagen für zukünftige Ergebnisse auf der Grundlage dieser Modelle zu treffen. Ein hypothetischer Algorithmus, der für die Klassifizierung von Daten spezifisch ist, kann eine Computervision von Maulwürfen verwenden, die mit überwachtem Lernen gekoppelt sind, um sie zur Klassifizierung der Krebsmaulwürfe zu trainieren. Ein Algorithmus für maschinelles Lernen für den Aktienhandel kann den Händler über zukünftige potenzielle Vorhersagen informieren.[21]
Künstliche Intelligenz


Als wissenschaftliches Unterfangen wuchs maschinelles Lernen aus der Suche nach künstlicher Intelligenz heraus. In den frühen Tagen von AI als Akademische DisziplinEinige Forscher waren daran interessiert, Maschinen aus Daten zu lernen. Sie versuchten, das Problem mit verschiedenen symbolischen Methoden sowie dem, was damals bezeichnet wurde, anzugehen. "Neuronale Netze"; diese waren meistens Wahrnehmung und andere Modelle Das wurde später als Neuerfindung der Verallgemeinerte lineare Modelle von Statistiken.[24] Probabilistisches Denken war auch angestellt, besonders in Automatisierte medizinische Diagnose.[25]: 488
Eine zunehmende Betonung der Logischer, wissensbasierter Ansatz verursachte einen Riss zwischen KI und maschinellem Lernen. Probabilistische Systeme wurden von theoretischen und praktischen Problemen der Datenerfassung und -darstellung geplagt.[25]: 488 Bis 1980, Expertensysteme war gekommen, um die KI zu dominieren, und Statistiken waren Unbevölkerungszahl.[26] Die Arbeit an symbolischem/wissensbasiertem Lernen wurde innerhalb der KI fortgesetzt und führte zu Induktive Logikprogrammierung, aber die statistischere Forschungslinie lag jetzt außerhalb des Feldes der KI, in Mustererkennung und Informationsrückgewinnung.[25]: 708–710, 755 Die Forschung neuronaler Netzwerke war von AI und aufgegeben worden Informatik um die selbe Zeit. Auch diese Linie wurde außerhalb des KI/CS -Feldes als "fortgesetzt"Verbindungismus", von Forschern aus anderen Disziplinen, einschließlich Hopfield, Rumelhart und Hinton. Ihr Haupterfolg kam Mitte der 1980er Jahre mit der Neuerfindung von Backpropagation.[25]: 25
Das maschinelle Lernen (ML), das als separates Feld neu organisiert wurde, begann in den neunziger Jahren zu gedeihen. Das Feld veränderte sein Ziel von der Erreichung künstlicher Intelligenz bis hin zur Bewältigung lösbarer Probleme praktischer Natur. Es verlagerte den Fokus von der weg Symbolische Ansätze Es hatte von der KI geerbt und zu Methoden und Modellen aus Statistiken geliehen. Fuzzy Logic, und Wahrscheinlichkeitstheorie.[26]
Der Unterschied zwischen ML und KI wird häufig missverstanden. ML lernt und prognostiziert basierend auf passiven Beobachtungen, während KI impliziert, dass ein Agent mit der Umgebung interagiert, um Maßnahmen zu lernen und zu ergreifen, die seine Chance maximieren, seine Ziele erfolgreich zu erreichen.[27]
Ab 2020 behaupten viele Quellen weiterhin, dass ML ein Teilfeld der KI bleibt.[28][29][26] Andere haben die Ansicht, dass nicht alle ML Teil von AI sind, sondern nur eine „intelligente Untergruppe“ von ML als AI angesehen werden sollte.[4][30][31]
Data Mining
Maschinelles Lernen und Data Mining Verwenden Sie häufig die gleichen Methoden und überlappen sich erheblich, während sich maschinelles Lernen jedoch auf die Vorhersage konzentriert, basierend auf bekannt Eigenschaften, die aus den Trainingsdaten gelernt wurden, Data Mining konzentriert sich auf das Entdeckung von (zuvor) Unbekannt Eigenschaften in den Daten (dies ist der Analyseschritt von Wissensentdeckung in Datenbanken). Data Mining verwendet viele Methoden für maschinelles Lernen, jedoch mit unterschiedlichen Zielen. Andererseits verwendet maschinelles Lernen auch Data Mining -Methoden als "unbeaufsichtigtes Lernen" oder als Vorverarbeitungsschritt zur Verbesserung der Genauigkeit der Lernenden. Ein Großteil der Verwirrung zwischen diesen beiden Forschungsgemeinschaften (die häufig getrennte Konferenzen und getrennte Zeitschriften haben, ECML PKDD Eine große Ausnahme) stammt aus den grundlegenden Annahmen, mit denen sie arbeiten: Im maschinellen Lernen wird die Leistung normalerweise in Bezug auf die Fähigkeit zu bewerten Reproduzieren bekannt Kenntnis Unbekannt Wissen. Bewertet in Bezug auf bekannte Kenntnisse wird eine nicht informierte (unbeaufsichtigte) Methode leicht durch andere überwachte Methoden übertroffen, während in einer typischen KDD -Aufgabe beaufsichtigte Methoden aufgrund der Nichtverfügbarkeit von Trainingsdaten nicht verwendet werden können.
Optimierung
Maschinelles Lernen hat auch enge Beziehungen zu Optimierung: Viele Lernprobleme werden als Minimierung einiger formuliert verlustfunktion Bei einem Trainingsbild von Beispielen. Verlustfunktionen drücken die Diskrepanz zwischen den Vorhersagen des ausgebildeten Modells und den tatsächlichen Probleminstanzen aus (z. B. in der Klassifizierung möchte man den Instanzen ein Etikett zuweisen, und Modelle werden geschult, um die vorab zugewiesenen Etiketten eines Satzes von korrekt vorherzusagen Beispiele).[32]
Verallgemeinerung
Der Unterschied zwischen Optimierung und maschinellem Lernen ergibt sich aus dem Ziel der Verallgemeinerung: Während Optimierungsalgorithmen den Verlust an einem Trainingssatz minimieren können, befasst sich maschinelles Lernen mit der Minimierung des Verlusts bei unsichtbaren Proben. Die Charakterisierung der Verallgemeinerung verschiedener Lernalgorithmen ist ein aktives Thema der aktuellen Forschung, insbesondere für tiefes Lernen Algorithmen.
Statistiken
Maschinelles Lernen und Statistiken sind eng verwandte Felder in Bezug auf Methoden, sind jedoch in ihrem Hauptziel unterschiedlich: Statistik zieht die Bevölkerung an Schlussfolgerungen von einem Probe, während maschinelles Lernen verallgemeinerbare prädiktive Muster findet.[33] Entsprechend Michael I. JordanDie Ideen des maschinellen Lernens von methodischen Prinzipien bis hin zu theoretischen Werkzeugen hatten eine lange Vorgeschichte in Statistiken.[34] Er schlug auch den Begriff vor Datenwissenschaft als Platzhalter, um das Gesamtfeld anzurufen.[34]
LEO BREIMAN Unterscheidete zwei statistische Modellierungsparadigmen: Datenmodell und algorithmisches Modell,[28] wobei das "algorithmische Modell" mehr oder weniger die Algorithmen für maschinelles Lernen bedeutet wie Zufallswald.
Einige Statistiker haben Methoden aus dem maschinellen Lernen angewendet, was zu einem kombinierten Bereich führte, das sie anrufen statistisches Lernen.[29]
Theorie
Ein zentrales Ziel eines Lernenden ist es, seine Erfahrung zu verallgemeinern.[4][30] Die Verallgemeinerung in diesem Zusammenhang ist die Fähigkeit einer Lernmaschine, nach dem Erleben eines Lerndatensatzes genau auf neuen, unsichtbaren Beispielen/Aufgaben zu arbeiten. Die Schulungsbeispiele stammen aus einer allgemein unbekannten Wahrscheinlichkeitsverteilung (als repräsentativ für den Raum des Vorkommens), und der Lernende muss ein allgemeines Modell über diesen Raum erstellen, mit dem er in neuen Fällen ausreichend genaue Vorhersagen erzeugen kann.
Die Computeranalyse von Algorithmen für maschinelles Lernen und ihre Leistung ist ein Zweig von Theoretische Informatik bekannt als Computerlerntheorie über die Wahrscheinlich ungefähr korrektes Lernen (PAC) Modell. Da die Schulungssätze endlich sind und die Zukunft ungewiss ist, liefert die Lerntheorie normalerweise keine Garantien für die Leistung von Algorithmen. Stattdessen sind probabilistische Grenzen für die Leistung weit verbreitet. Das Bias -Varianz -Zerlegung ist eine Möglichkeit, die Verallgemeinerung zu quantifizieren Error.
Für die beste Leistung im Kontext der Verallgemeinerung sollte die Komplexität der Hypothese mit der Komplexität der der Daten zugrunde liegenden Funktion übereinstimmen. Wenn die Hypothese weniger komplex ist als die Funktion, hat das Modell unter den Daten angepasst. Wenn die Komplexität des Modells als Reaktion erhöht wird, nimmt der Trainingsfehler ab. Aber wenn die Hypothese zu komplex ist, unterliegt das Modell gegenüber Überanpassung und die Verallgemeinerung wird ärmer.[31]
Neben den Leistungsgrenzen untersuchen Lerntheoretiker die zeitliche Komplexität und Machbarkeit des Lernens. In der Computer -Lerntheorie wird eine Berechnung als machbar angesehen, wenn sie in erfolgt werden kann Polynomzeit. Es gibt zwei Arten von Zeitkomplexität Ergebnisse: Positive Ergebnisse zeigen, dass eine bestimmte Klasse von Funktionen in der Polynomzeit gelernt werden kann. Negative Ergebnisse zeigen, dass bestimmte Klassen in der Polynomzeit nicht gelernt werden können.
Ansätze
Ansätze für maschinelles Lernen werden traditionell in drei breite Kategorien unterteilt, abhängig von der Art des "Signals" oder "Feedback", der dem Lernsystem zur Verfügung steht:
- Überwachtes Lernen: Der Computer wird mit Beispieleingaben und ihren gewünschten Ausgängen, die von einem "Lehrer" angegeben, präsentiert, und das Ziel ist es, eine allgemeine Regel zu lernen, dass Karten Eingänge zu Ausgängen.
- Unbeaufsichtigtes Lernen: Der Lernalgorithmus werden keine Beschriftungen verabreicht, sodass es von sich aus überlassen, Struktur in seiner Eingabe zu finden. Unbeaufsichtigtes Lernen kann ein Ziel an sich sein (entdecken versteckte Muster in Daten) oder ein Mittel gegen Ende (Feature -Lernen).
- Verstärkungslernen: Ein Computerprogramm interagiert mit einer dynamischen Umgebung, in der es ein bestimmtes Ziel durchführen muss (wie z. Fahren ein Fahrzeug oder ein Spiel gegen einen Gegner spielen). Wenn es seinen Problemraum navigiert, wird das Programm Feedback bereitgestellt, das analog zu Belohnungen ist, die es zu maximieren versucht.[4]
Überwachtes Lernen

Überwachende Lernalgorithmen erstellen ein mathematisches Modell einer Datenmenge, die sowohl die Eingänge als auch die gewünschten Ausgaben enthält.[35] Die Daten sind als bekannt als Trainingsdatenund besteht aus einer Reihe von Trainingsbeispielen. Jedes Trainingsbeispiel hat eine oder mehrere Eingänge und die gewünschte Ausgabe, auch als Aufsichtssignal bezeichnet. Im mathematischen Modell wird jedes Trainingsbeispiel durch eine dargestellt Array oder Vektor, manchmal als Merkmalsvektor bezeichnet, und die Trainingsdaten werden durch a dargestellt Matrix. Durch iterative Optimierung von einem Zielfunktion, überwachte Lernalgorithmen lernen eine Funktion, mit der die mit neue Eingaben verbundene Ausgabe vorhergesagt werden kann.[36] Eine optimale Funktion ermöglicht es dem Algorithmus, die Ausgabe für Eingänge, die nicht Teil der Trainingsdaten waren, korrekt zu bestimmen. Ein Algorithmus, der die Genauigkeit seiner Ergebnisse oder Vorhersagen im Laufe der Zeit verbessert, soll gelernt haben, diese Aufgabe auszuführen.[19]
Zu den Arten von Algorithmen für beaufsichtigtes Lernen gehören aktives Lernen, Einstufung und Regression.[27] Klassifizierungsalgorithmen werden verwendet, wenn die Ausgänge auf einen begrenzten Wertesatz beschränkt sind, und Regressionsalgorithmen werden verwendet, wenn die Ausgänge innerhalb eines Bereichs einen numerischen Wert haben können. Beispielsweise wäre für einen Klassifizierungsalgorithmus, der E -Mails filtert, die Eingabe eine eingehende E -Mail, und der Ausgang wäre der Name des Ordners, in dem die E -Mail eingereicht werden soll.
Ähnlichkeitslernen ist ein Bereich des überwachten maschinellen Lernens, der eng mit Regression und Klassifizierung verbunden ist, aber das Ziel ist es, aus Beispielen zu lernen, die eine Ähnlichkeitsfunktion verwenden, die misst, wie ähnlich oder verwandte zwei Objekte sind. Es hat Anwendungen in Rangfolge, Empfehlungssysteme, visuelle Identitätsverfolgung, Gesichtsprüfung und Lautsprecherüberprüfung.
Unbeaufsichtigtes Lernen
Unbewegte Lernalgorithmen nehmen eine Reihe von Daten an, die nur Eingaben enthalten, und finden Struktur in den Daten, z. B. die Gruppierung oder Clusterbildung von Datenpunkten. Die Algorithmen lernen daher aus Testdaten, die nicht bezeichnet, klassifiziert oder kategorisiert wurden. Anstatt auf Feedback zu reagieren, identifizieren unbeaufsichtigte Lernalgorithmen Gemeinsamkeiten in den Daten und reagieren auf der Grundlage des Vorhandenseins oder der Fehlen solcher Gemeinsamkeiten in jedem neuen Daten. Eine zentrale Anwendung des unbeaufsichtigten Lernens befindet sich im Bereich von Dichteschätzung in Statistiken, wie das Finden der Wahrscheinlichkeitsdichtefunktion.[37] Obwohl unbeaufsichtigtes Lernen andere Domänen umfasst, die Datenfunktionen zusammenfassen und erklären.
Die Clusteranalyse ist die Zuordnung einer Reihe von Beobachtungen in Teilmengen (genannt Cluster) so dass Beobachtungen innerhalb desselben Clusters gemäß einem oder mehreren vorgefertigten Kriterien ähnlich sind, während Beobachtungen aus verschiedenen Clustern unterschiedlich sind. Unterschiedliche Clustering -Techniken treffen unterschiedliche Annahmen über die Struktur der Daten, die häufig von einigen definiert werden Ähnlichkeitsmetrik und bewertet beispielsweise durch interne Kompaktheitoder die Ähnlichkeit zwischen Mitgliedern desselben Clusters und Trennung, der Unterschied zwischen Clustern. Andere Methoden basieren auf geschätzte Dichte und Grafikkonnektivität.
Semi-betriebliches Lernen
Semi-überprüftes Lernen fällt dazwischen unbeaufsichtigtes Lernen (ohne markierte Trainingsdaten) und überwachtes Lernen (mit vollständig beschrifteten Trainingsdaten). Einige der Schulungsbeispiele fehlen Schulungsbezeichnungen, doch viele maschinell-lernende Forscher haben festgestellt, dass unmarkierte Daten, wenn sie in Verbindung mit einer geringen Menge an beschrifteten Daten verwendet werden, eine erhebliche Verbesserung der Lerngenauigkeit führen können.
Im schwach überwachtes Lernen, Die Trainingsetiketten sind laut, begrenzt oder ungenau; Diese Etiketten sind jedoch häufig billiger zu erhalten, was zu größeren effektiven Trainingssätzen führt.[38]
Verstärkungslernen
Das Verstärkungslernen ist ein Bereich des maschinellen Lernens, der sich darum befasst, wie Software -Agenten sollte nehmen Aktionen in einer Umgebung, um einen Begriff der kumulativen Belohnung zu maximieren. Aufgrund seiner Allgemeinheit wird das Feld in vielen anderen Disziplinen untersucht, wie z. Spieltheorie, Kontrolltheorie, Unternehmensforschung, Informationstheorie, Simulationsbasierte Optimierung, Multi-Agent-Systeme, Schwarmintelligenz, Statistiken und genetische Algorythmen. Im maschinellen Lernen wird die Umgebung normalerweise als dargestellt Markov -Entscheidungsprozess (MDP). Viele Verstärkungslernalgorithmen verwenden Dynamische Programmierung Techniken.[39] Verstärkungslernalgorithmen nehmen nicht das Wissen über ein exaktes mathematisches Modell des MDP an und werden verwendet, wenn genaue Modelle nicht realisierbar sind. Verstärkungslernalgorithmen werden in autonomen Fahrzeugen oder in Lernen verwendet, ein Spiel gegen einen menschlichen Gegner zu spielen.
Dimensionsreduzierung
Die Reduzierung der Dimensionalität ist ein Prozess zur Reduzierung der Anzahl der betrachteten Zufallsvariablen, indem eine Reihe von Hauptvariablen erhalten werden.[40] Mit anderen Worten, es ist ein Prozess, die Dimension des Merkmalssatzes zu reduzieren, auch als "Anzahl der Merkmale" bezeichnet. Die meisten Techniken zur Reduzierung der Dimensionalität können entweder als Merkmalsiminierung oder als Extraktion betrachtet werden. Eine der beliebten Methoden zur Reduzierung der Dimensionalität ist Hauptkomponentenanalyse (PCA). PCA beinhaltet die Änderung höherdimensionaler Daten (z. B. 3D) in einen kleineren Raum (z. B. 2D). Dies führt zu einer kleineren Datendimension (2D anstelle von 3D), während alle ursprünglichen Variablen im Modell ohne Änderung der Daten aufbewahrt werden.[41] Das Vielfache Hypothese schlägt vor, dass hochdimensionale Datensätze entlang niedrigdimensionaler liegen Verteilerund viele Techniken zur Reduzierung von Dimensionalität führen diese Annahme, was zum Bereich von führt vielfältiges Lernen und Verteiler Regularisierung.
Andere Arten
Es wurden andere Ansätze entwickelt, die nicht ordentlich in diese dreifache Kategorisierung passen, und manchmal wird mehr als eins von demselben maschinellen Lernsystem verwendet. Zum Beispiel Themenmodellierung, Metalernen.[42]
Ab 2020, tiefes Lernen ist zum dominierenden Ansatz für viele laufende Arbeiten im Bereich des maschinellen Lernens geworden.[10]
Selbstlernen
Das selbstlernende Paradigma als maschinelles Lernen wurde 1982 zusammen mit einem neuronalen Netzwerk eingeführt, das sich selbst lernt, benannt Crossbar Adaptive Array (CAA).[43] Es ist ein Lernen ohne externe Belohnungen und ohne Rat für externe Lehrer. Der CAA-Selbstlernalgorithmus berechnet in Querlatte sowohl Entscheidungen über Handlungen als auch Emotionen (Gefühle) über Konsequenzsituationen. Das System wird von der Wechselwirkung zwischen Erkenntnis und Emotion angetrieben.[44] Der selbstlernende Algorithmus aktualisiert eine Speichermatrix w = || w (a, s) || so dass in jeder Iteration die folgende Routine für maschinelles Lernen ausführt:
In Situation s führen s eine Aktion A durch; Konsequenzsituation erhalten S ’; Berechnen Sie die Emotionen des Seins in Konsequenzsituation V (s ’); Aktualisieren Sie das Crossbar -Speicher w ’(a, s) = w (a, s) + v (s’).
Es ist ein System mit nur einer Eingabe, Situation und nur einer Ausgabe, einer Aktion (oder einem Verhalten) a. Es gibt weder einen separaten Verstärkungseintrag noch einen Ratschlag aus der Umgebung. Der Back -Propag -Wert (sekundäre Verstärkung) ist die Emotion in Richtung der Konsequenzsituation. Die CAA existiert in zwei Umgebungen, eines ist die Verhaltensumgebung, in der sie sich verhält, und das andere ist die genetische Umgebung, in der sie zunächst und nur einmal erste Emotionen über Situationen erhält, die in der Verhaltensumgebung auftreten müssen. Nachdem die CAA den Genomvektor (Spezies) aus der genetischen Umgebung erhalten hat, lernt sie ein Zielsuchverhalten in einer Umgebung, die sowohl wünschenswerte als auch unerwünschte Situationen enthält.[45]
Feature -Lernen
Mehrere Lernalgorithmen zielen darauf ab, bessere Darstellungen der während des Trainings bereitgestellten Eingaben zu entdecken.[46] Klassische Beispiele sind Hauptkomponentenanalyse und Clusteranalyse. Feature-Lernalgorithmen, auch als Repräsentations-Lernalgorithmen bezeichnet, versuchen häufig, die Informationen in ihren Eingaben zu erhalten, sondern auch auf eine Weise zu transformieren, die es nützlich macht, häufig als Vorverarbeitungsschritt, bevor Klassifizierung oder Vorhersagen durchgeführt werden. Diese Technik ermöglicht die Rekonstruktion der Eingaben aus der unbekannten Datengenerierungsverteilung, während sie nicht unbedingt den Konfigurationen treu sind, die unter dieser Verteilung unplausibel sind. Dies ersetzt Handbuch Feature Engineeringund ermöglicht es einer Maschine, sowohl die Funktionen zu lernen als auch eine bestimmte Aufgabe auszuführen.
Feature -Lernen kann entweder überwacht oder unbeaufsichtigt werden. In überwachtem Feature -Lernen werden die Funktionen unter Verwendung beschrifteter Eingabedaten gelernt. Beispiele beinhalten künstliche neurale Netzwerke, Mehrschichtige Wahrnehmungund überwacht Wörterbuchlernen. Im unbeaufsichtigten Feature -Lernen werden Merkmale mit nicht beleidigten Eingabedaten gelernt. Beispiele sind Wörterbuchlernen, Unabhängige Komponentenanalyse, Autoencoder, Matrixfaktorisierung[47] und verschiedene Formen von Clustering.[48][49][50]
Vielfältiges Lernen Algorithmen versuchen dies unter der Einschränkung, dass die erlernte Darstellung niedrig dimensional ist. Spärliche Codierung Algorithmen versuchen dies unter der Einschränkung, dass die erlernte Darstellung spärlich ist, was bedeutet, dass das mathematische Modell viele Nullen hat. Multilineares Subspace -Lernen Algorithmen zielen darauf ab, niedrigdimensionale Darstellungen direkt von zu lernen Tensor Darstellungen für mehrdimensionale Daten, ohne sie in höherdimensionale Vektoren umzuwandeln.[51] Tiefes Lernen Algorithmen entdecken mehrere Repräsentationsebenen oder eine Hierarchie von Merkmalen mit höheren, abstrakteren Merkmalen, die in Bezug auf (oder generierende) Merkmale auf niedrigerer Ebene definiert sind. Es wurde argumentiert, dass eine intelligente Maschine eine Darstellung lernt, die die zugrunde liegenden Variationsfaktoren entwirft, die die beobachteten Daten erklären.[52]
Das Lernen von Merkmalen wird durch die Tatsache motiviert, dass maschinelle Lernaufgaben wie Klassifizierung häufig Eingaben erfordern, die mathematisch und rechnerisch bequem zu verarbeiten sind. In realen Daten wie Bildern, Video- und sensorischen Daten wurden jedoch keine Versuche zur algorithmischen Definition bestimmter Merkmale erzeugt. Eine Alternative besteht darin, solche Merkmale oder Darstellungen durch Untersuchung zu entdecken, ohne sich auf explizite Algorithmen zu verlassen.
Spärliches Wörterbuchlernen
Spartes Wörterbuchlernen ist eine Merkmal -Lernmethode, bei der ein Trainingsbeispiel als lineare Kombination von dargestellt wird Basisfunktionenund wird als a angenommen spärliche Matrix. Die Methode ist stark np-hard und schwer ungefähr zu lösen.[53] Ein populärer Heuristik Methode zum spärlichen Wörterbuchlernen ist die K-SVD Algorithmus. In mehreren Kontexten wurde ein spärliches Wörterbuch gelernt. In der Klassifizierung besteht das Problem darin, die Klasse zu bestimmen, zu der ein bisher unsichtbares Trainingsbeispiel gehört. Für ein Wörterbuch, in dem bereits jede Klasse gebaut wurde, ist ein neues Trainingsbeispiel mit der Klasse verbunden, die am besten durch das entsprechende Wörterbuch dargestellt wird. Es wurde auch ein spärliches Wörterbuchlernen angewendet in Bild De-Noising. Die Schlüsselidee ist, dass ein sauberer Bild Patch durch ein Bildwörterbuch spärlich dargestellt werden kann, das Rauschen jedoch nicht.[54]
Anomalieerkennung
Im Data MiningDie Anomalie -Erkennung, auch als Ausreißererkennung bezeichnet, ist die Identifizierung seltener Elemente, Ereignisse oder Beobachtungen, die den Verdacht erhöhen, indem sie sich signifikant von den meisten Daten unterscheiden.[55] Typischerweise stellen die anomalen Elemente ein Problem dar, wie z. Bankbetrug, ein struktureller Defekt, medizinische Probleme oder Fehler in einem Text. Anomalien werden als bezeichnet Ausreißer, Neuheiten, Rauschen, Abweichungen und Ausnahmen.[56]
Insbesondere im Kontext von Missbrauch und Netzwerkeindrückererkennung sind die interessanten Objekte oft keine seltenen Objekte, sondern unerwartete Inaktivitätsausbrüche. Dieses Muster hält sich nicht an die gemeinsame statistische Definition eines Ausreißers als seltenes Objekt ein, und viele Ausreißer -Erkennungsmethoden (insbesondere unbeaufsichtigte Algorithmen) sind bei solchen Daten fehlschlagen, es sei denn, es wurde aggregiert. Stattdessen kann ein Clusteranalyse-Algorithmus möglicherweise die durch diese Muster gebildeten Mikrokluster nachweisen.[57]
Es gibt drei breite Kategorien von Anomalie -Detektionstechniken.[58] Unüberwachte Anomalie -Detektionstechniken erkennen Anomalien in einem nicht markierten Testdatensatz unter der Annahme, dass die Mehrheit der Fälle im Datensatz normal ist, indem nach Fällen gesucht wird, die am wenigsten zum Rest des Datensatzes passen. Überwachende Anomalie -Detektionstechniken erfordern einen Datensatz, der als "normal" und "abnormal" bezeichnet wurde und einen Klassifikator beinhaltet (der wichtigste Unterschied zu vielen anderen statistischen Klassifizierungsproblemen ist die von Natur aus unausgeglichene Natur der Ausreißererkennung). Halbüberwachende Anomalie-Detektionstechniken konstruieren ein Modell, das ein normales Verhalten aus einem bestimmten normalen Trainingsdatensatz darstellt, und testen dann die Wahrscheinlichkeit einer vom Modell generierten Testinstanz.
Roboterlernen
Roboterlernen ist inspiriert von einer Vielzahl von Methoden für maschinelles Lernen, beginnend mit überwachtem Lernen, Verstärkungslernen,[59][60] und schlussendlich Meta-Learning (z. B. Maml).
Assoziationsregeln
Assoziationsregel -Lernen ist a Regelbasiertes maschinelles Lernen Methode zum Entdecken von Beziehungen zwischen Variablen in großen Datenbanken. Es ist beabsichtigt, starke Regeln zu identifizieren, die in Datenbanken unter Verwendung eines Maßes für "Interessante" entdeckt wurden.[61]
Regelbasiertes maschinelles Lernen ist ein allgemeiner Begriff für jede maschinelle Lernmethode, die "Regeln" identifiziert, lernt oder weiterentwickelt, um Wissen zu speichern, zu manipulieren oder anzuwenden. Das definierende Merkmal eines regelbasierten Algorithmus für maschinelles Lernen ist die Identifizierung und Nutzung einer Reihe von relationalen Regeln, die das vom System erfasste Wissen kollektiv darstellen. Dies steht im Gegensatz zu anderen Algorithmen für maschinelles Lernen, die üblicherweise ein singuläres Modell identifizieren, das allgemein auf jede Instanz angewendet werden kann, um eine Vorhersage zu machen.[62] Zu regelbasierten Ansätzen für maschinelles Lernen gehören Lernklassifikatorsysteme, Assoziationsregel -Lernen und künstliches Immunsystem.
Basierend auf dem Konzept starker Regeln, Rakesh Agrawal, Tomasz Imieliński und Arun Swami führte Assoziationsregeln ein, um Regelmäßigkeiten zwischen Produkten in groß angelegten Transaktionsdaten zu entdecken, die von aufgezeichnet wurden Kasse (POS) Systeme in Supermärkten.[63] Zum Beispiel die Regel In den Verkaufsdaten eines Supermarkts finden Sie darauf, dass ein Kunde, wenn sie zusammen Zwiebeln und Kartoffeln kauft, wahrscheinlich auch Hamburgerfleisch kaufen. Solche Informationen können als Grundlage für Entscheidungen über Marketingaktivitäten wie Werbung verwendet werden Preisgestaltung oder Produktplatzierungen. Zusätzlich zu Marktkorbanalyse, Assoziationsregeln werden heute in Anwendungsbereichen einschließlich der Einhaltung der Anmeldungen eingesetzt Webnutzungsabbau, Intrusionserkennung, kontinuierliche Produktion, und Bioinformatik. Im Gegensatz zu Sequenzabbau, Assoziationsregel -Lernen berücksichtigt in der Regel die Reihenfolge der Elemente entweder innerhalb einer Transaktion oder über Transaktionen hinweg.
Lernklassifikatorsysteme (LCS) sind eine Familie von regelbasierten Algorithmen für maschinelles Lernen, die eine Entdeckungskomponente kombinieren, typischerweise a genetischen Algorithmus, mit einer Lernkomponente, entweder durchführen überwachtes Lernen, Verstärkungslernen, oder unbeaufsichtigtes Lernen. Sie versuchen, eine Reihe von kontextabhängigen Regeln zu identifizieren, die gemeinsam Wissen in a speichern und anwenden stückweise Art, um Vorhersagen zu treffen.[64]
Die induktive Logikprogrammierung (ILP) ist ein Ansatz zur Regelende mit Verwendung Logikprogrammierung Als einheitliche Darstellung für Input -Beispiele, Hintergrundwissen und Hypothesen. Bei einer Codierung des bekannten Hintergrundwissens und einer Reihe von Beispielen, die als logische Datenbank von Fakten dargestellt werden, leitet ein ILP -System ein hypothetisches Logikprogramm ab, das mit sich bringen Alle positiven und keine negativen Beispiele. Induktive Programmierung ist ein verwandt Funktionsprogramme.
Induktive logische Programmierung ist besonders nützlich in Bioinformatik und Verarbeitung natürlicher Sprache. Gordon Plotkin und Ehud Shapiro legte die anfängliche theoretische Grundlage für induktives maschinelles Lernen in einer logischen Umgebung.[65][66][67] Shapiro baute 1981 ihre erste Implementierung (Modellinferenzsystem) auf: ein Prolog -Programm, das induktiv Logikprogramme aus positiven und negativen Beispielen abgeleitete.[68] Der Begriff induktiv Hier bezieht sich auf philosophisch Induktion, die eine Theorie vorschlägt, um beobachtete Tatsachen zu erklären, anstatt mathematische InduktionBeweis für alle Mitglieder eines gut geordneten Sets.
Modelle
Durch das Erstellen von maschinellem Lernen wird ein erstellt Modell, das in einigen Trainingsdaten geschult wird und dann zusätzliche Daten verarbeiten kann, um Vorhersagen zu treffen. Verschiedene Arten von Modellen wurden für maschinelle Lernsysteme verwendet und erforscht.
Künstliche neurale Netzwerke

Künstliche neuronale Netzwerke (Anns) oder Verbindungswissenschaftler Systeme, Computersysteme sind vage von der inspiriert Biologische neuronale Netze Das bildet ein Tier Gehirn. Solche Systeme "lernen", um Aufgaben auszuführen, indem Beispiele in Betracht gezogen werden, ohne mit jeglichen aufgabenspezifischen Regeln programmiert zu werden.
Ein ANN ist ein Modell, das auf einer Sammlung angeschlossener Einheiten oder Knoten basiert, die genannt werden ".künstliche Neuronen", die lose modellieren Neuronen in einem biologischen Gehirn. Jede Verbindung, wie die Synapsen in einem biologischen Gehirn, kann Informationen, ein "Signal", von einem künstlichen Neuron zum anderen übertragen. Ein künstliches Neuron, das ein Signal empfängt, kann es verarbeiten und dann zusätzliche künstliche Neuronen signalisieren, die damit verbunden sind. Bei gemeinsamen Ann -Implementierungen ist das Signal in einem Zusammenhang zwischen künstlichen Neuronen a reelle Zahlund die Ausgabe jedes künstlichen Neurons wird durch eine nichtlineare Funktion der Summe seiner Eingaben berechnet. Die Verbindungen zwischen künstlichen Neuronen werden als "Kanten" bezeichnet. Künstliche Neuronen und Kanten haben typischerweise a Gewicht Das passt sich an, wenn das Lernen fortgesetzt wird. Das Gewicht nimmt die Festigkeit des Signals bei einer Verbindung zu oder verringert sie. Künstliche Neuronen können einen Schwellenwert haben, so dass das Signal nur gesendet wird, wenn das Aggregatsignal diesen Schwellenwert überschreitet. Typischerweise werden künstliche Neuronen in Schichten aggregiert. Verschiedene Schichten können verschiedene Arten von Transformationen für ihre Eingaben durchführen. Signale wandern von der ersten Ebene (der Eingangsschicht) bis zur letzten Schicht (die Ausgangsschicht), möglicherweise nach mehrmaliger Durchführung der Ebenen.
Das ursprüngliche Ziel des Ann -Ansatzes war es, Probleme auf die gleiche Weise zu lösen, wie a menschliches Gehirn möchten. Im Laufe der Zeit bewegte sich die Aufmerksamkeit jedoch darauf, bestimmte Aufgaben auszuführen, was zu Abweichungen von führte Biologie. Künstliche neuronale Netze wurden für eine Vielzahl von Aufgaben verwendet, einschließlich Computer Vision, Spracherkennung, Maschinenübersetzung, Soziales Netzwerk Filterung, Board- und Videospiele spielen und medizinische Diagnose.
Tiefes Lernen besteht aus mehreren versteckten Schichten in einem künstlichen neuronalen Netzwerk. Dieser Ansatz versucht, die Art und Weise zu modellieren, wie das menschliche Gehirn Licht und Klang in Seh- und Hören verarbeitet. Einige erfolgreiche Anwendungen von Deep Learning sind Computer Vision und Spracherkennung.[69]
Entscheidungsbäume
Entscheidungsbaumlernen verwendet a Entscheidungsbaum Als ein Prädiktivmodell von Beobachtungen über einen Gegenstand (in den Zweigen vertreten) zu Schlussfolgerungen über den Zielwert des Elements (in den Blättern dargestellt). Es ist einer der prädiktiven Modellierungsansätze, die in Statistik, Data Mining und maschinellem Lernen verwendet werden. Baummodelle, bei denen die Zielvariable einen diskreten Satz von Werten annehmen kann, werden als Klassifizierungsbäume bezeichnet. In diesen Baumstrukturen, Laub darstellen Klassenbezeichnungen und Zweige repräsentieren Konjunktionen von Funktionen, die zu diesen Klassenetiketten führen. Entscheidungsbäume, bei denen die Zielvariable kontinuierliche Werte annehmen kann (normalerweise reale Nummern) werden Regressionsbäume genannt. In der Entscheidungsanalyse kann ein Entscheidungsbaum verwendet werden, um Entscheidungen visuell und explizit darzustellen und Entscheidung fällen. Im Data Mining beschreibt ein Entscheidungsbaum Daten, aber der resultierende Klassifizierungsbaum kann ein Eingabe für die Entscheidungsfindung sein.
Support-Vektor-Maschinen
Support-Vektor-Maschinen (SVMs), auch als Support-Vektor-Netzwerke bekannt, sind eine Reihe von verwandten überwachtes Lernen Methoden zur Klassifizierung und Regression. Angesichts einer Reihe von Trainingsbeispielen, die jeweils als zu einer von zwei Kategorien gehörend markiert sind, baut ein SVM -Trainingsalgorithmus ein Modell auf, das vorhersagt, ob ein neues Beispiel in die eine oder andere Kategorie fällt.[70] Ein SVM-Trainingsalgorithmus ist ein Nichtsprobabilistisch, binär, linearer Klassifikator, obwohl Methoden wie z. Platt Skaling existieren, um SVM in einer probabilistischen Klassifizierungsumgebung zu verwenden. Neben der linearen Klassifizierung kann SVMs eine nichtlineare Klassifizierung mit dem sogenannten so genannten so genannten so effizient durchführen Kerneltrickimplizit ihre Eingaben in hochdimensionale Merkmalsräume abbilden.

Regressionsanalyse
Die Regressionsanalyse umfasst eine Vielzahl statistischer Methoden, um die Beziehung zwischen Eingabevariablen und ihren zugehörigen Merkmalen abzuschätzen. Seine häufigste Form ist lineare Regression, wo eine einzelne Linie gezeichnet wird, um die angegebenen Daten nach einem mathematischen Kriterium wie am besten zu passen, z. Gewöhnliche kleinste Quadrate. Letzteres wird oft von erweitert von Regulierung Methoden zur Minderung von Überanpassung und Voreingenommenheit wie in Ridge Regression. Beim Umgang mit nichtlinearen Problemen enthalten Modelle die Anlaufstelle Polynomregression (Zum Beispiel für Trendlinienanpassung in Microsoft Excel verwendet[71]), logistische Regression (oft verwendet in Statistische Klassifizierung) oder auch Kernelregression, was Nichtlinearität einführt, indem sie die ausnutzen Kerneltrick Um Eingabevariablen implizit in den höherdimensionalen Raum zuzuordnen.
Bayes'sche Netzwerke

Ein Bayes'sche Netzwerk, ein Glaubensnetzwerk oder ein gerichtetes acyclisches grafisches Modell ist ein probabilistisch Grafisches Modell das stellt einen Satz von dar zufällige Variablen und ihre bedingte Unabhängigkeit mit einer Regie acyclische Graphen (DAG). Zum Beispiel könnte ein Bayes'sche Netzwerk die probabilistischen Beziehungen zwischen Krankheiten und Symptomen darstellen. Bei den Symptomen kann das Netzwerk verwendet werden, um die Wahrscheinlichkeiten des Vorhandenseins verschiedener Krankheiten zu berechnen. Es gibt effiziente Algorithmen, die durchführen Inferenz und lernen. Bayesische Netzwerke, die Sequenzen von Variablen modellieren, wie Sprachsignale oder Proteinsequenzen, werden genannt Dynamische Bayes'sche Netzwerke. Verallgemeinerungen von Bayes'schen Netzwerken, die Entscheidungsprobleme unter Unsicherheit darstellen und lösen können Einfluss von Diagrammen.
Genetische Algorythmen
Ein genetischer Algorithmus (GA) ist a Suchalgorithmus und Heuristik Technik, die den Prozess von nachahmt natürliche Auslesemit Methoden wie z. Mutation und Crossover Neue generieren Genotypen in der Hoffnung, gute Lösungen für ein bestimmtes Problem zu finden. Im maschinellen Lernen wurden genetische Algorithmen in den 1980er und 1990er Jahren verwendet.[72][73] Umgekehrt wurden Techniken für maschinelles Lernen verwendet, um die Leistung von Genetik und zu verbessern und Evolutionsalgorithmen.[74]
Trainingsmodelle
Typischerweise erfordern maschinelle Lernmodelle eine hohe Menge zuverlässiger Daten, damit die Modelle genaue Vorhersagen durchführen können. Beim Training eines maschinellen Lernmodells müssen maschinelle Lerningenieure ein großes und repräsentatives Datenprobe abzielen und sammeln. Daten aus dem Trainingssatz können so unterschiedlich sein wie ein Textkorpus, eine Sammlung von Bildern, Sensordaten und Daten, die von einzelnen Benutzern eines Dienstes gesammelt wurden. Überanpassung ist etwas, auf das man beim Training eines maschinellen Lernmodells achten muss. Geschulte Modelle, die aus verzerrten oder nicht bewerteten Daten abgeleitet wurden, können zu verzerrten oder unerwünschten Vorhersagen führen. Bias -Modelle können zu nachteiligen Ergebnissen führen, wodurch die negativen Auswirkungen auf die Gesellschaft oder die Ziele fördern. Algorithmische Voreingenommenheit ist ein potenzielles Ergebnis von Daten, die nicht vollständig für das Training vorbereitet sind. Die Ethik des maschinellen Lernens wird zu einem Studienbereich und wird insbesondere in Teams für maschinelles Lernen integriert.
Föderierte Lernen
Federated Learning ist eine angepasste Form von verteilte künstliche Intelligenz Um maschinelles Lernmodelle zu trainieren, die den Trainingsprozess dezentralisieren, sodass die Privatsphäre der Benutzer beibehalten werden kann, indem sie ihre Daten nicht an einen zentralisierten Server senden müssen. Dies erhöht auch die Effizienz durch die Dezentralisierung des Schulungsprozesses auf viele Geräte. Zum Beispiel, Gboard Verwendet das föderierte maschinelle Lernen, um Suchabfrage -Vorhersagemodelle auf den Mobiltelefonen der Benutzer zu trainieren, ohne die individuelle Suchvorgänge zurück zu senden zu müssen Google.[75]
Anwendungen
Es gibt viele Anwendungen für maschinelles Lernen, einschließlich:
- Landwirtschaft
- Anatomie
- Adaptive Website
- Affektives Computing
- Astronomie
- Automatisierte Entscheidungsfindung
- Bankgeschäft
- Bioinformatik
- Hirn -Machine -Schnittstellen
- Cheminformatik
- Bürgerwissenschaft
- Klimakwissenschaft
- Computernetzwerke
- Computer Vision
- Kreditkartenbetrug Erkennung
- Datenqualität
- DNA -Sequenz Einstufung
- Wirtschaft
- Finanzmarkt Analyse[76]
- Allgemeines Spiel spielen
- Handschrifterkennung
- Informationsrückgewinnung
- Versicherung
- Internetbetrug Erkennung
- Wissensgrafikbettierung
- Linguistik
- Maschinenlernsteuerung
- Maschinenwahrnehmung
- Maschinenübersetzung
- Marketing
- Medizinische Diagnose
- Verarbeitung natürlicher Sprache
- Natürliches Sprachverständnis
- Onlinewerbung
- Optimierung
- Empfehlungssysteme
- Roboterbewegung
- Suchmaschinen
- Stimmungsanalyse
- Sequenzabbau
- Softwareentwicklung
- Spracherkennung
- Strukturelle Gesundheitsüberwachung
- Syntaktische Mustererkennung
- Telekommunikation
- Theorem beweisen
- Vorhersage der Zeitreihen
- Benutzerverhaltensanalyse
- Behaviorismus
Im Jahr 2006 der Anbieter von Mediendiensten Netflix hielt die erste "Netflix -Preis"Wettbewerb um ein Programm zur besseren Vorhersage der Benutzerpräferenzen und zur Verbesserung der Genauigkeit seines bestehenden Cinematch -Filmempfehlungalgorithmus um mindestens 10%. Ein gemeinsames Team, das sich aus Forschern zusammensetzt AT & T Labs-Forschen in Zusammenarbeit mit den Teams Big Chaos und pragmatische Theorie bauten eine Ensemble -Modell Um den Hauptpreis 2009 für 1 Million US -Dollar zu gewinnen.[77] Kurz nachdem der Preis vergeben worden war, stellte Netflix fest, dass die Bewertungen der Zuschauer nicht die besten Indikatoren für ihre Betrachtungsmuster waren ("Alles ist eine Empfehlung") und sie änderten ihre Empfehlungsmotor entsprechend.[78] Im Jahr 2010 schrieb das Wall Street Journal über die Firma Rebellion Research und ihre Verwendung von maschinellem Lernen, um die Finanzkrise vorherzusagen.[79] 2012 Mitbegründer von Sun Microsystems, Vinod Khosla, prognostizierte, dass in den nächsten zwei Jahrzehnten 80% der Arbeitsplätze von Ärzten verloren gehen würden, um maschinelles medizinisches Diagnosesoftware für maschinelles Lernen zu erhalten.[80] Im Jahr 2014 wurde berichtet, dass im Bereich der Kunstgeschichte ein Algorithmus für maschinelles Lernen angewendet worden war, um bildende Kunstgemälde zu studieren, und dass er möglicherweise zuvor nicht erkannte Einflüsse unter den Künstlern offenbart hat.[81] 2019 Springer Natur veröffentlichte das erste Forschungsbuch, das mit maschinellem Lernen erstellt wurde.[82] Im Jahr 2020 wurde die Technologie für maschinelles Lernen verwendet, um Diagnosen zu erstellen und Forschern bei der Entwicklung eines Heilmittels für Covid-19 zu unterstützen.[83] Maschinelles Lernen wird kürzlich angewendet, um das grüne Verhalten des Menschen zu vorherzusagen.[84] In jüngster Zeit wird auch die Technologie für maschinelles Lernen angewendet, um die Leistung und das thermische Verhalten des Smartphones basierend auf der Interaktion des Benutzers mit dem Telefon zu optimieren.[85][86][87]
Einschränkungen
Obwohl maschinelles Lernen in einigen Bereichen transformativ war, liefern maschinelle Lernprogramme häufig nicht erwartete Ergebnisse.[88][89][90] Gründe dafür sind zahlreich: Mangel an (geeigneten) Daten, mangelnder Zugriff auf die Daten, Datenverzerrungen, Datenschutzprobleme, schlecht ausgewählte Aufgaben und Algorithmen, falsche Tools und Personen, mangelnde Ressourcen und Bewertungsprobleme.[91]
Im Jahr 2018 ein selbstfahrendes Auto von Uber versäumte es, einen Fußgänger zu entdecken, der nach einer Kollision getötet wurde.[92] Versuche, maschinelles Lernen im Gesundheitswesen mit dem zu verwenden IBM Watson Das System lieferte auch nach jahrelanger Zeit und Milliarden von Dollar investiert.[93][94]
Maschinelles Lernen wurde als Strategie zur Aktualisierung der Beweise im Zusammenhang mit einer systematischen Überprüfung und einer erhöhten Belastung von Rezensenten im Zusammenhang mit dem Wachstum der biomedizinischen Literatur verwendet. Während es sich mit Trainingssätzen verbessert hat, hat es sich noch nicht ausreichend entwickelt, um die Arbeitsbelastung zu verringern, ohne die erforderliche Sensibilität für die Erforschung selbst zu begrenzen.[95]
Voreingenommenheit
Insbesondere maschinelle Lernansätze können unter unterschiedlichen Datenverzerrungen leiden. Ein maschinelles Lernsystem, das speziell für aktuelle Kunden geschult ist, kann die Anforderungen neuer Kundengruppen möglicherweise nicht vorhersagen, die in den Trainingsdaten nicht vertreten sind. Wenn man auf künstliche Daten ausgebildet ist, wird das maschinelle Lernen wahrscheinlich die konstitutionellen und unbewussten Vorurteile aufnehmen, die bereits in der Gesellschaft vorhanden sind.[96] Es wurde gezeigt, dass Sprachmodelle, die aus Daten gelernt wurden, menschliche Vorurteile enthalten.[97][98] Es wurde festgestellt, dass maschinelle Lernsysteme für die Bewertung des kriminellen Risikos gegen Schwarze voreingenommen sind.[99][100] Im Jahr 2015 markierten Google Fotos häufig Schwarze als Gorillas,[101] Und im Jahr 2018 war dies immer noch nicht gut gelöst, aber Google benutzte Berichten zufolge noch die Problemumgehung, um alle Gorillas aus den Trainingsdaten zu entfernen, und konnte daher echte Gorillas überhaupt nicht erkennen.[102] Ähnliche Probleme bei der Erkennung von nicht-weißen Menschen wurden in vielen anderen Systemen gefunden.[103] Im Jahr 2016 testete Microsoft a Chatbot Das lernte von Twitter und nahm schnell rassistische und sexistische Sprache auf.[104] Aufgrund solcher Herausforderungen kann der effektive Gebrauch des maschinellen Lernens länger dauern, bis sie in anderen Bereichen angenommen werden können.[105] Sorge um Gerechtigkeit In maschinellem Lernen, dh eine Verringerung der Verzerrung im maschinellen Lernen und das Antrieb der Verwendung für das Gute für das Menschen, wird zunehmend von Wissenschaftlern künstlicher Intelligenz ausgedrückt, einschließlich Fei-Fei li, der Ingenieure daran erinnert, dass "KI nichts Künstliches hat ... es ist von Menschen inspiriert, es wird von Menschen geschaffen, und - vor allem - es wirkt sich aus Menschen aus. Es ist ein mächtiges Werkzeug, das wir gerade erst verstehen, und das ist ein tiefgreifende Verantwortung. “[106]
Überanpassung

Das Einsetzen einer schlechten, übermäßig komplexen Theorie, die auf alle früheren Trainingsdaten passt, wird als Überanpassung bezeichnet. Viele Systeme versuchen, die Überanpassung zu reduzieren, indem sie eine Theorie belohnen, in Übereinstimmung mit der Art und Weise, wie gut sie zu den Daten passt, aber die Theorie gemäß der Komplexe der Theorie bestraft.[9]
Andere Einschränkungen und Schwachstellen
Lernende können auch enttäuschen, indem sie "die falsche Lektion lernen". Ein Spielzeugbeispiel ist, dass ein Bildklassifikator, das nur auf Bildern von braunen Pferden und schwarzen Katzen trainiert wird, zu dem Schluss kommen könnte, dass alle braunen Flecken wahrscheinlich Pferde sind.[107] Ein Beispiel in der realen Welt ist, dass aktuelle Bildklassifizierer im Gegensatz zu Menschen oft nicht vor allem Urteile aus der räumlichen Beziehung zwischen den Komponenten des Bildes fällen, und sie lernen Beziehungen zwischen Pixel, die Menschen nicht ahnungslos sind, aber die immer noch mit Bildern von korrelieren Bestimmte Arten von realen Objekten. Das Ändern dieser Muster auf einem legitimen Bild kann zu "widersprüchlichen" Bildern führen, die das System falsch klassifiziert.[108][109]
Gegentliche Schwachstellen können auch zu nichtlinearen Systemen oder zu Nicht-Muster-Störungen führen. Einige Systeme sind so spröde, dass das Ändern eines einzelnen kontroversen Pixels vorhersehbar eine Fehlklassifizierung induziert. Modelle für maschinelles Lernen sind oft anfällig für Manipulation und/oder Ausweichen durch Konverselles maschinelles Lernen.[110]
Forscher haben gezeigt, wie Hintertüren kann unzuwerts in die Klassifizierung (z. B. für Kategorien "Spam" und gut sichtbares "Nicht-Spam" von Posts) maschinelles Lernmodellen eingesetzt werden, die häufig von Dritten entwickelt und/oder trainiert werden. Parteien können die Klassifizierung jeglicher Eingabe ändern, auch in Fällen, für die eine Art von Art von Daten-/Software -Transparenz wird zur Verfügung gestellt, möglicherweise einschließlich White-Box-Zugriff.[111][112][113]
Modellbewertungen
Die Klassifizierung von Modellen für maschinelles Lernen kann durch Genauigkeitsschätzungstechniken wie die validiert werden aushalten Methode, die die Daten in einem Trainings- und Testsatz aufteilt (herkömmlich 2/3 Trainingssatz und 1/3 Testsatzbezeichnung) und die Leistung des Trainingsmodells im Testsatz bewertet. Im Vergleich dazu die k-fold-cross-validation Die Methode partitioniert die Daten zufällig in k-Teilmengen, und dann werden jeweils K-Experimente unter Berücksichtigung einer 1-Untergruppe zur Bewertung und den verbleibenden K-1-Teilmengen für das Training des Modells durchgeführt. Zusätzlich zu den Holdout- und Kreuzvalidierungsmethoden,, Bootstrap, mit welchen Beispielen n Instanzen mit Ersatz aus dem Datensatz, können zur Bewertung der Modellgenauigkeit verwendet werden.[114]
Zusätzlich zur Gesamtgenauigkeit berichten die Forscher häufig Empfindlichkeit und Spezifität bedeutet echte positive Rate (TPR) bzw. echte negative Rate (TNR). In ähnlicher Weise berichten die Ermittler manchmal die Falsche positive Rate (FPR) sowie die Falsche negative Rate (FNR). Diese Raten sind jedoch Verhältnisse, die ihre Zahlen und Nenner nicht offenbaren. Das Gesamtbetriebsmerkmal (TOC) ist eine effektive Methode, um die diagnostische Fähigkeit eines Modells auszudrücken. TOC zeigt die Zähler und Nenner der zuvor genannten Raten, daher liefert TOC mehr Informationen als die häufig verwendeten Empfängerbetriebsmerkmal (ROC) und ROCs zugehöriger Bereich unter der Kurve (AUC).[115]
Ethik
Maschinelles Lernen zeigt eine Vielzahl von Ethische Fragen. Systeme, die auf Datensätzen geschult werden, die mit Verzerrungen gesammelt wurden, können diese Verzerrungen bei der Verwendung aufweisen ((Algorithmische Voreingenommenheit), so digitalisieren kulturelle Vorurteile.[116] Zum Beispiel stellte die britische Kommission für Rassengleichheit 1988 fest, dass die medizinische Fakultät von St. George ein Computerprogramm verwendet hatte, das aus Daten des früheren Zulassungsmitarbeiter geschult wurde, und dieses Programm hatte fast 60 Kandidaten bestritten, die entweder Frauen waren oder nicht hatten -Europäisch klingende Namen.[96] Die Verwendung von Dateneinstellungsdaten von einem Unternehmen mit rassistischen Einstellungsrichtlinien kann zu einem maschinellen Lernsystem führen, das die Verzerrung dupliziert, indem Bewerber bei Bewerbern durch Ähnlichkeit mit früheren erfolgreichen Bewerbern bewertet werden.[117][118] Verantwortlich Datensammlung und Dokumentation von algorithmischen Regeln, die von einem System verwendet werden, ist daher ein kritischer Bestandteil des maschinellen Lernens.
KI kann gut ausgestattet sein, um Entscheidungen in technischen Bereichen zu treffen, die stark auf Daten und historische Informationen beruhen. Diese Entscheidungen beruhen auf Objektivität und logischem Denken.[119] Weil menschliche Sprachen Vorurteile enthalten, Maschinen, die auf Sprache trainiert wurden Korpora wird notwendigerweise auch diese Vorurteile lernen.[120][121]
Andere Formen ethischer Herausforderungen, die nicht mit persönlichen Vorurteilen zusammenhängen, sind im Gesundheitswesen zu sehen. Es gibt Bedenken bei den Angehörigen der Gesundheitsberufe, dass diese Systeme möglicherweise nicht im Interesse der Öffentlichkeit konzipiert werden, sondern als einkommensschaffende Maschinen.[122] Dies gilt insbesondere in den Vereinigten Staaten, in denen ein seit langem bestehendes ethisches Dilemma der Verbesserung der Gesundheitsversorgung vorhanden ist, aber auch die Gewinne erhöht. Zum Beispiel könnten die Algorithmen so konzipiert werden, dass sie Patienten unnötige Tests oder Medikamente liefern, bei denen die Eigentümer des Algorithmus Beteiligungen besitzen. Es besteht das Potenzial für maschinelles Lernen in der Gesundheitsversorgung, Fachleuten ein zusätzliches Instrument zur Diagnose, Medikat- und Planungspfade für Patienten zu bieten. Dies erfordert jedoch, dass diese Verzerrungen gemildert werden müssen.[123]
Hardware
Seit den 2010er Jahren haben Fortschritte sowohl in Algorithmen für maschinelles Lernen als auch in Computerhardware zu effizienteren Methoden für das Training geführt tiefe neuronale Netze (Eine bestimmte schmale Subdomäne des maschinellen Lernens), die viele Schichten nichtlinear versteckter Einheiten enthalten.[124] Bis 2019 grafische Verarbeitungseinheiten (GPUS), oft mit KI-spezifischen Verbesserungen, hatte CPUs als dominierende Methode zur Ausbildung von großflächiger kommerzieller Cloud-KI verdrängt.[125] Openai schätzte das Hardware-Computing, das bei den größten Deep-Learning-Projekten von Alexnet (2012) bis Alphazero (2017) verwendet wurde, und fand eine 300.000-fache Erhöhung der erforderlichen Berechnung mit einer Verdoppelungszeit-Trendlinie von 3,4 Monaten.[126][127]
Neuromorphe/physikalische Neuralnetzwerke
A physisches neuronales Netzwerk oder Neuromorpher Computer ist eine Art von Art von künstliche neuronale Netz in dem ein elektrisch einstellbares Material verwendet wird, um die Funktion von a zu emulieren neuronale Synapse. "Physisches" neuronales Netzwerk wird verwendet, um die Abhängigkeit von physischer Hardware zu betonen, die zum Nachahmung verwendet wird Neuronen im Gegensatz zu Software-basierten Ansätzen. Allgemeiner gilt der Begriff für andere künstliche neuronale Netze, in denen a Memristor oder anderes elektrisch einstellbares Widerstandsmaterial wird verwendet, um eine neuronale Synapse zu emulieren.[128][129]
Eingebettetes maschinelles Lernen
Eingebettetes maschinelles Lernen ist ein Unterfeld des maschinellen Lernens, auf dem das maschinelle Lernmodell ausgeführt wird eingebettete Systeme mit begrenzten Rechenressourcen wie z. Tragbare Computer, Kantengeräte und Mikrocontroller.[130][131][132] Durch das Ausführen von maschinellem Lernmodell in eingebetteten Geräten wird die Notwendigkeit des Übertragens und Speicherns von Daten auf Cloud -Servern zur weiteren Verarbeitung, fortan die Verringerung von Datenverletzungen und Datenschutzlecks aufgrund der Übertragung von Daten beseitigt und minimiert auch Diebstahl von intellektuellen Eigenschaften, personenbezogenen Daten und Geschäftsgeheimnisse. Eingebettete maschinelles Lernen könnte durch verschiedene Techniken angewendet werden, einschließlich Hardware-Beschleunigung,[133][134] Verwendung ungefähres Computer,[135] Optimierung von Modellen für maschinelles Lernen und vieles mehr.[136][137]
Software
Software -Suiten enthalten eine Vielzahl von Algorithmen für maschinelles Lernen: Folgendes:
Kostenlose und Open-Source-Software
Proprietäre Software mit kostenlosen und Open-Source-Editionen
Proprietäre Software
- Amazon maschinelles Lernen
- Angoss Kenntnisgestudio
- Azure maschinelles Lernen
- Ayasdi
- IBM Watson Studio
- Google Prediction API
- IBM SPSS -Modellierer
- KXEN -Modellierer
- Lionsolver
- Mathematica
- Matlab
- Neuraldesigner
- Neurosolutionen
- Oracle Data Mining
- Oracle AI -Plattform -Cloud -Dienst
- Polyanalytiker
- Rasse
- SAS Enterprise Miner
- Sequencel
- Splunk
- Statistik Datengräber
Zeitschriften
- Journal of Machine Learning Research
- Maschinelles Lernen
- Nature Machine Intelligence
- Neuronale Berechnung
Konferenzen
- AAAI -Konferenz über künstliche Intelligenz
- Assoziation für rechnerische Linguistik (ACL)
- Europäische Konferenz über maschinelles Lernen und Prinzipien und Praxis der Erkennung von Wissen in Datenbanken (ECML PKDD)
- Internationale Konferenz über Computer -Intelligenzmethoden für Bioinformatik und Biostatistik (CIBB)
- Internationale Konferenz über maschinelles Lernen (ICML)
- Internationale Konferenz über Lernrepräsentationen (ICLR)
- Internationale Konferenz über intelligente Roboter und Systeme (Iros)
- Konferenz über Wissenserkennung und Data Mining (KDD)
- Konferenz über neuronale Informationsverarbeitungssysteme (Neurips)
Siehe auch
- Automatisiertes maschinelles Lernen- Prozess der Automatisierung der Anwendung des maschinellen Lernens
- Große Daten- Informationsvermögen, die durch hohe Volumen, Geschwindigkeit und Vielfalt gekennzeichnet sind
- Differenzierbare Programmierung- Programmierparadigma
- Liste wichtiger Veröffentlichungen im maschinellen Lernen
- Liste der Datensätze für die maschinelle Lernforschung
Verweise
- ^ Mitchell, Tom (1997). Maschinelles Lernen. New York: McGraw Hill. ISBN 0-07-042807-7. OCLC 36417892.
- ^ Die Definition "ohne explizit programmiert zu werden" wird oft auf Arthur Samuel, der 1959 den Begriff "maschinelles Lernen" geprägt hat, aber der Ausdruck wird in dieser Veröffentlichung nicht wörtlich gefunden und kann ein Paraphrase das erschien später. Konferenzieren "Paraphrasierung von Arthur Samuel (1959), die Frage ist: Wie können Computer lernen, Probleme zu lösen, ohne explizit programmiert zu werden?" in Koza, John R.; Bennett, Forrest H.; Andre, David; Keane, Martin A. (1996). "Automatisiertes Design der Topologie und Größe von analogen elektrischen Schaltungen mit genetischer Programmierung". Künstliche Intelligenz im Design '96. Künstliche Intelligenz im Design '96. Springer, Dordrecht. S. 151–170. doi:10.1007/978-94-009-0279-4_9. ISBN 978-94-010-6610-5.
- ^ Hu, J.; Niu, H.; Carrasco, J.; Lennox, b.; Arvin, F., "Voronoi-basierte Multi-Robot-autonome Erkundung in unbekannten Umgebungen durch tiefes Verstärkungslernen"IEEE -Transaktionen zur Fahrzeugtechnologie, 2020.
- ^ a b c d Bischof, C. M. (2006), Mustererkennung und maschinelles Lernen, Springer, ISBN 978-0-387-31073-2
- ^ Maschinelles Lernen und Mustererkennung "kann als zwei Facetten desselben Feldes angesehen werden."[4]: Vii
- ^ Friedman, Jerome H. (1998). "Data Mining und Statistik: Was ist die Verbindung?" Computerwissenschaft und Statistik. 29 (1): 3–9.
- ^ "Was ist maschinelles Lernen?". www.ibm.com. Abgerufen 2021-08-15.
- ^ Zhou, Victor (2019-12-20). "Maschinelles Lernen für Anfänger: Eine Einführung in neuronale Netze". Mittel. Abgerufen 2021-08-15.
- ^ a b Domingos 2015, Kapitel 6, Kapitel 7.
- ^ a b c Ethem Alpaydin (2020). Einführung in maschinelles Lernen (Viertes Ausgabe). MIT. S. xix, 1–3, 13–18. ISBN 978-0262043793.
- ^ Samuel, Arthur (1959). "Einige Studien zum maschinellen Lernen mit dem Spiel der Prüfer". IBM Journal of Research and Development. 3 (3): 210–229. Citeseerx 10.1.1.368.2254. doi:10.1147/rd.33.0210.
- ^ R. Kohavi und F. Provost, "Glossary of Begriffe", Machine Learning, Vol. 30, nein. 2–3, S. 271–274, 1998.
- ^ Gerovitch, Slava (9. April 2015). "Wie der Computer seine Rache an der Sowjetunion bekam". Nautilus. Abgerufen 19. September 2021.
- ^ Lindsay, Richard P. (1. September 1964). "Die Auswirkungen der Automatisierung auf die öffentliche Verwaltung". Westliche politische vierteljährlich. 17 (3): 78–81. doi:10.1177/106591296401700364. ISSN 0043-4078. S2CID 154021253. Abgerufen 6. Oktober 2021.
- ^ "Wissenschaft: Der Button", " Zeit (Magazin), 18. August 1961.
- ^ Nilsson N. Lernmaschinen, McGraw Hill, 1965.
- ^ Duda, R., Hart P. Mustererkennung und Szenenanalyse, Wiley Interscience, 1973
- ^ S. Bozinovski "Unterrichtsraum: Ein Repräsentationskonzept für adaptive Musterklassifizierung" Münzen Technischer Bericht Nr. 81-28, Abteilung für Computer- und Informationswissenschaft, Universität von Massachusetts bei Amherst, MA, 1981. https://web.cs.umass.edu/publication/docs/1981/um-cs-1981-028.pdf
- ^ a b Mitchell, T. (1997). Maschinelles Lernen. McGraw Hill. p. 2. ISBN 978-0-07-042807-2.
- ^ Harnad, Stevan (2008), "Das Annotationsspiel: Über Turing (1950) über Computer, Maschinen und Intelligenz"in Epstein, Robert; Peters, Grace (Hrsg.), Das Quellbuch zum Turing -Test: Philosophische und methodische Themen auf der Suche nach dem Denkcomputer, Kluwer, S. 23–66, ISBN 9781402067082, archiviert von das Original Am 2012-03-09, abgerufen 2012-12-11
- ^ "Einführung in AI Teil 1". Edzion. 2020-12-08. Abgerufen 2020-12-09.
- ^ "Eine empirische wissenschaftliche Forschung zu Bioinformatik im maschinellen Lernen - Journal". Abgerufen 28. Oktober 2020.
{{}}
: Journal zitieren erfordert|journal=
(Hilfe) - ^ "RASBT/STAT453-Deep-Learning-SS20" (PDF). GitHub. 9. November 2021.
- ^ Sarle, Warren (1994). "Neuronale Netze und statistische Modelle". Citeseerx 10.1.1.27.699.
- ^ a b c d Russell, Stuart; Norvig, Peter (2003) [1995]. Künstliche Intelligenz: ein moderner Ansatz (2. Aufl.). Prentice Hall. ISBN 978-0137903955.
- ^ a b c Langley, Pat (2011). "Die sich verändernde Wissenschaft des maschinellen Lernens". Maschinelles Lernen. 82 (3): 275–279. doi:10.1007/s10994-011-5242-y.
- ^ a b Alpaydin, Ethem (2010). Einführung in maschinelles Lernen. MIT Press. p. 9. ISBN 978-0-262-01243-0.
- ^ a b Bibliothek der Cornell University (August 2001). "Breiman: Statistische Modellierung: Die beiden Kulturen (mit Kommentaren und eine Wiederaufnahme des Autors)". Statistische Wissenschaft. 16 (3). doi:10.1214/ss/1009213726. S2CID 62729017. Abgerufen 8. August 2015.
- ^ a b Gareth James; Daniela Witten; Trevor Hastie; Robert Tibshirani (2013). Eine Einführung in statistisches Lernen. Springer. p. vii.
- ^ a b Mohri, Mehryar; Rostamizadeh, Afshin; Talwalkar, Ameet (2012). Grundlagen des maschinellen Lernens. USA, Massachusetts: MIT Press. ISBN 9780262018258.
- ^ a b Alpaydin, Ethem (2010). Einführung in maschinelles Lernen. London: Die MIT -Presse. ISBN 978-0-262-01243-0. Abgerufen 4. Februar 2017.
- ^ Le Roux, Nicolas; Bengio, Yoshua; Fitzgibbon, Andrew (2012). "Verbesserung+First+und+zweiter Ordnung+Methoden+nach+Modellierung+Unsicherheit & PG = PA403" Verbesserung der Methoden erster und zweiter Ordnung durch Modellierung der Unsicherheit ". In SRA, Suvrit; Nowozin, Sebastian; Wright, Stephen J. (Hrsg.). Optimierung für maschinelles Lernen. MIT Press. p. 404. ISBN 9780262016469.
- ^ Bzdok, Danilo; Altman, Naomi; Krzywinski, Martin (2018). "Statistik gegen maschinelles Lernen". Naturmethoden. 15 (4): 233–234. doi:10.1038/nmeth.4642. PMC 6082636. PMID 30100822.
- ^ a b Michael I. Jordan (2014-09-10). "Statistik und maschinelles Lernen". Reddit. Abgerufen 2014-10-01.
- ^ Russell, Stuart J.; Norvig, Peter (2010). Künstliche Intelligenz: ein moderner Ansatz (Dritter Aufl.). Prentice Hall. ISBN 9780136042594.
- ^ Mohri, Mehryar; Rostamizadeh, Afshin; Talwalkar, Ameet (2012). Grundlagen des maschinellen Lernens. Die MIT -Presse. ISBN 9780262018258.
- ^ Jordan, Michael I.; Bishop, Christopher M. (2004). "Neuronale Netze". In Allen B. Tucker (Hrsg.). Informatikhandbuch, zweite Ausgabe (Abschnitt VII: Intelligente Systeme). Boca Raton, Florida: Chapman & Hall/CRC Press LLC. ISBN 978-1-58488-360-9.
- ^ Alex Ratner; Stephen Bach; Paroma Varma; Chris. "Schwache Überwachung: Das neue Programmierparadigma für maschinelles Lernen". hazyresearch.github.io. Referenzierung von Arbeiten vieler anderer Mitglieder von dunstigen Forschung. Archiviert von das Original Am 2019-06-06. Abgerufen 2019-06-06.
- ^ Van Otterlo, M.; Wiering, M. (2012). Verstärkungslernen und Markov -Entscheidungsprozesse. Verstärkungslernen. Anpassung, Lernen und Optimierung. Vol. 12. S. 3–42. doi:10.1007/978-3-642-27645-3_1. ISBN 978-3-642-27644-6.
- ^ Science.sciencemag.org/content/290/5500/2323
- ^ in RichtungDatascience.com/all-machine-learning-models-explained-in-6-Minutes-9Fe30ff6776a
- ^ Pavel Brazdil, Christophe Giraud Carrier, Carlos Soares, Ricardo Vilalta (2009). Metalarning: Anwendungen zum Data Mining (Viertes Ausgabe). Springer Science+Business Media. S. 10–14, passim. ISBN 978-3540732624.
{{}}
: CS1 Wartung: Verwendet Autorenparameter (Link) - ^ Bozinovski, S. (1982). "Ein selbstlernendes System mit sekundärer Verstärkung". In Trappl, Robert (Hrsg.). Kybernetik und Systemforschung: Verfahren des sechsten Europäischen Treffens zur Kybernetik und Systemforschung. North Holland. S. 397–402. ISBN978-0-444-86488-8.
- ^ Bozinovski, Stevo (2014) "Modellierungsmechanismen der Kognitionsemotion-Interaktion in künstlichen neuronalen Netzwerken seit 1981". Verfahren Informatik p. 255-263
- ^ Bozinovski, S. (2001) "Selbstlernende Agenten: Eine verbindungsistische Emotionstheorie, die auf Crossbar Value-Urteilsvermögen basiert." Kybernetik und Systeme 32 (6) 637-667.
- ^ Y. Bengio; A. Courville; P. Vincent (2013). "Repräsentation Learning: Eine Überprüfung und neue Perspektiven". IEEE -Transaktionen zur Musteranalyse und Maschinenintelligenz. 35 (8): 1798–1828. Arxiv:1206.5538. doi:10.1109/tpami.2013.50. PMID 23787338. S2CID 393948.
- ^ Nathan Srebro; Jason D. M. Rennie; Tommi S. Jaakkola (2004). Maximal-Margin-Matrixfaktorisierung. Nips.
- ^ Coates, Adam; Lee, Honglak; NG, Andrew Y. (2011). Eine Analyse von einschichtigen Netzwerken im unbeaufsichtigten Feature-Lernen (PDF). Int'l Conf. auf KI und Statistik (Aistats). Archiviert von das Original (PDF) Am 2017-08-13. Abgerufen 2018-11-25.
- ^ Csurka, Gabriella; Tanz, Christopher C.; Fan, Lixin; Willamowski, Jutta; Bray, Cédric (2004). Visuelle Kategorisierung mit Taschen von Tastaturen (PDF). ECCV -Workshop zum statistischen Lernen in Computer Vision.
- ^ Daniel Jurafsky; James H. Martin (2009). Sprach- und Sprachverarbeitung. Pearson Education International. S. 145–146.
- ^ Lu, Haiping; Plataniotis, K.N.; Venetsanopoulos, A.N. (2011). "Eine Umfrage zum multilinearen Unterraumlernen für Tensordaten" (PDF). Mustererkennung. 44 (7): 1540–1551. Bibcode:2011patre..44.1540L. doi:10.1016/j.patcog.2011.01.004.
- ^ Yoshua Bengio (2009). Tiefe Architekturen für KI lernen. Jetzt Publishers Inc. S. 1–3. ISBN 978-1-60198-294-0.
- ^ Tillmann, A. M. (2015). "Über die rechnerische Unverdierbarkeit des genauen und ungefähren Wörterbuchlernens". IEEE -Signalverarbeitungsbuchstaben. 22 (1): 45–49. Arxiv:1405.6664. Bibcode:2015ISPL ... 22 ... 45T. doi:10.1109/lsp.2014.2345761. S2CID 13342762.
- ^ Aharon, m, M elad und ein bruckstein. 2006. "K-SVD: Ein Algorithmus zum Entwerfen von Überkompetenzwörterbüchern für die spärliche Darstellung. "Signalverarbeitung, IEEE -Transaktionen auf 54 (11): 4311–4322
- ^ Zimek, Arthur; Schubert, Erich (2017), "Ausreißererkennung", Enzyklopädie von Datenbanksystemen, Springer New York, S. 1–5, doi:10.1007/978-1-4899-7993-3_80719-1, ISBN 9781489979933
- ^ Hodge, V. J.; Austin, J. (2004). "Eine Übersicht über Ausreißer -Erkennungsmethoden" (PDF). Künstliche Intelligenzbewertung. 22 (2): 85–126. Citeseerx 10.1.1.318.4023. doi:10.1007/s10462-004-4304-y. S2CID 59941878.
- ^ Dokas, Paul; Ertoz, Levent; Kumar, Vipin; Lazarevic, Aleksandar; Srivastava, Jaideep; Tan, Pang-nun (2002). "Data Mining für die Erkennung von Netzwerkeindrückung" (PDF). Proceedings NSF Workshop zum Data Mining der nächsten Generation.
- ^ Chandola, V.; Banerjee, a.; Kumar, V. (2009). "Anomalieerkennung: Eine Umfrage". ACM Computing -Umfragen. 41 (3): 1–58. doi:10.1145/1541880.1541882. S2CID 207172599.
- ^ Fleer, S.; Moringen, A.; Klatzky, R. L.; Ritter, H. (2020). "Lernen effizienter haptischer Formuntersuchung mit einem starren taktilen Sensorarray, S. Fleer, A. Moringen, R. Klatzky, H. Ritter". PLUS EINS. 15 (1): e0226880. Arxiv:1902.07501. doi:10.1371/journal.pone.0226880. PMC 6940144. PMID 31896135.
- ^ Moringen, Alexandra; Fleer, Sascha; Walck, Guillaume; Ritter, Helge (2020), Nisky, Ilana; Hartcher-O'Brien, Jess; Wattlewski, Michaël; Smeets, Jeroen (Hrsg.), "Aufmerksamkeitsbasiertes Roboterlernen der haptischen Interaktion", Haptik: Wissenschaft, Technologie, Anwendungen, Cham: Springer International Publishing, Vol. 12272, S. 462–470, doi:10.1007/978-3-030-58147-3_51, ISBN 978-3-030-58146-6, S2CID 220069113, abgerufen 2022-01-19
- ^ Piatetsky-Shapiro, Gregory (1991), Entdeckung, Analyse und Darstellung starker Regelnin Piatetsky-Shapiro, Gregory; und Frawley, William J.; eds., Wissensentdeckung in Datenbanken, AAAI/MIT Press, Cambridge, MA.
- ^ Bassel, George W.; Glaab, Enrico; Marquez, Julietta; Holdsworth, Michael J.; Bacardit, Jaume (2011-09-01). "Funktionelle Netzwerkkonstruktion in Arabidopsis mit regelbasiertem maschinellem Lernen auf großen Datensätzen". Die Pflanzenzelle. 23 (9): 3101–3116. doi:10.1105/tpc.111.088153. ISSN 1532-298x. PMC 3203449. PMID 21896882.
- ^ Agrawal, R.; Imieliński, T.; Swami, A. (1993). "Mining -Assoziationsregeln zwischen Elementen in großen Datenbanken". Proceedings der ACM Sigmod Internationalen Konferenz von 1993 zum Management von Daten - Sigmod '93. p. 207. Citeseerx 10.1.1.40.6984. doi:10.1145/170035.170072. ISBN 978-0897915922. S2CID 490415.
- ^ Urbanowicz, Ryan J.; Moore, Jason H. (2009-09-22). "Lernklassifizierersysteme: Eine vollständige Einführung, Überprüfung und Roadmap". Zeitschrift für künstliche Evolution und Anwendungen. 2009: 1–25. doi:10.1155/2009/736398. ISSN 1687-6229.
- ^ Plotkin G.D. Automatische Methoden der induktiven Inferenz, PhD -These, Universität von Edinburgh, 1970.
- ^ Shapiro, ehud Y. Induktives Inferenz von Theorien aus Fakten, Research Report 192, Yale University, Abteilung für Informatik, 1981. Nachdruck in J.-L. Lassez, G. Plotkin (Hrsg.), Computational Logic, The MIT Press, Cambridge, MA, 1991, S. 199–254.
- ^ Shapiro, Ehud Y. (1983). Algorithmisches Programm Debugging. Cambridge, Masse: MIT Press. ISBN0-262-19218-7
- ^ Shapiro, ehud y. "Das Modellinferenzsystem. "
- ^ Honglak Lee, Roger Grosse, Rajesh Ranganath, Andrew Y. Ng. "Faltungsguthilfennetzwerke für skalierbare unbeaufsichtigte Lernen hierarchischer Repräsentationen"Proceedings der 26. jährlichen Internationalen Konferenz über maschinelles Lernen, 2009.
- ^ Cortes, Corinna; Vapnik, Vladimir N. (1995). "Support-Vector-Netzwerke". Maschinelles Lernen. 20 (3): 273–297. doi:10.1007/bf00994018.
- ^ Stevenson, Christopher. "Tutorial: Polynomregression in Excel". Fakultätsfass. Richmond.edu. Abgerufen 22. Januar 2017.
- ^ Goldberg, David E.; Holland, John H. (1988). "Genetische Algorithmen und maschinelles Lernen" (PDF). Maschinelles Lernen. 3 (2): 95–99. doi:10.1007/bf00113892. S2CID 35506513.
- ^ Michie, D.; Spiegelhalter, D. J.; Taylor, C. C. (1994). "Maschinelles Lernen, neuronale und statistische Klassifizierung". Ellis Horwood -Serie in künstlicher Intelligenz. Bibcode:1994mlns.book ..... m.
- ^ Zhang, jun; Zhan, Zhi-Hui; Lin, Ying; Chen, Ni; Gong, Yue-Jiao; Zhong, Jing-Hui; Chung, Henry S.H.; Li, yun; Shi, Yu-Hui (2011). "Evolutionäre Berechnung trifft maschinelles Lernen: eine Umfrage". Computational Intelligence Magazine. 6 (4): 68–75. doi:10.1109/MCI.2011.942584. S2CID 6760276.
- ^ "Federated Learning: Kollaboratives maschinelles Lernen ohne zentrale Trainingsdaten". Google AI Blog. Abgerufen 2019-06-08.
- ^ Maschinelles Lernen ist in der enthalten CFA -Lehrplan (Diskussion ist oben nach unten); sehen: Kathleen Derose und Christophe Le Lanno (2020). "Maschinelles Lernen".
- ^ "Belkor -Homepage" Research.att.com
- ^ "Der Netflix Tech -Blog: Netflix Empfehlungen: Beyond the 5 Sterne (Teil 1)". 2012-04-06. Archiviert von das Original am 31. Mai 2016. Abgerufen 8. August 2015.
- ^ Scott Patterson (13. Juli 2010). "Die Maschinen entscheiden lassen". Das Wall Street Journal. Abgerufen 24. Juni 2018.
- ^ Vinod Khosla (10. Januar 2012). "Brauchen wir Ärzte oder Algorithmen?". Tech Crunch.
- ^ Als ein Algorithmus für maschinelles Lernen bildende Kunst Gemälde studierte, sah es, dass Kunsthistoriker es nie bemerkt hatten, Die Physik bei Arxiv Blog
- ^ Vincent, James (2019-04-10). "Das erste Lehrbuch für AI-generiertes zeigt, was Roboterautoren tatsächlich gut sind.". Der Verge. Abgerufen 2019-05-05.
- ^ Vaishya, Raju; Javaid, Mohd; Khan, Ibrahim Haleem; Haleem, Abid (1. Juli 2020). "KIS-Anwendungen für künstliche Intelligenz (AI) für Covid-19-Pandemie". Diabetes & metabolisches Syndrom: Klinische Forschung und Überprüfungen. 14 (4): 337–339. doi:10.1016/j.dsx.2020.04.012. PMC 7195043. PMID 32305024.
- ^ Rezapouraghdam, Hamed; Akhshik, Arash; Ramkissoon, Haywantee (10. März 2021). "Anwendung des maschinellen Lernens zur Vorhersage des grünen Verhaltens der Besucher in marinen Schutzgebieten: Beweise aus Zypern". Zeitschrift für nachhaltige Tourismus: 1–25. doi:10.1080/09669582.2021.1887878.
- ^ Dey, somdip; Singh, Amit Kumar; Wang, Xiaohang; McDonald-Maier, Klaus (2020-06-15). "Benutzerinteraktion bewusst Verstärkungslernen für Leistung und thermische Effizienz von mobilen MPSOCs von CPU-GPU". 2020 Design, Automatisierungstest in Europa Konferenzausstellung (Datum): 1728–1733. doi:10.23919/Date48585.2020.9116294. ISBN 978-3-9819263-4-7. S2CID 219858480.
- ^ Quested, Tony. "Smartphones werden intelligent mit Essex Innovation | Business Weekly | Technology News | Business News | Cambridge und der Osten Englands". www.businessweekly.co.uk. Abgerufen 2021-06-17.
{{}}
: CS1 Wartung: URL-Status (Link) - ^ Williams, Rhiannon (2020-07-21). "Zukünftige Smartphones" werden ihre eigene Akkulaufzeit verlängern, indem sie das Verhalten des Eigentümers überwacht ".". i. Abgerufen 2021-06-17.
{{}}
: CS1 Wartung: URL-Status (Link) - ^ "Warum maschinelle Lernmodelle oft nicht lernen: Quick -Take -Q & A". Bloomberg.com. 2016-11-10. Archiviert von das Original Am 2017-03-20. Abgerufen 2017-04-10.
- ^ "Die erste Welle der KI wird zum Scheitern verurteilt". Harvard Business Review. 2017-04-18. Abgerufen 2018-08-20.
- ^ "Warum der A.I. Euphoria zum Scheitern verurteilt ist". VentureBeat. 2016-09-18. Abgerufen 2018-08-20.
- ^ "9 Gründe, warum Ihr maschinelles Lernprojekt scheitern wird". www.kdnuggets.com. Abgerufen 2018-08-20.
- ^ "Warum Ubers selbstfahrendes Auto einen Fußgänger getötet hat". Der Ökonom. Abgerufen 2018-08-20.
- ^ "Watson von IBM empfahl 'unsichere und falsche' Krebsbehandlungen - STAT". Stat. 2018-07-25. Abgerufen 2018-08-21.
- ^ Hernandez, Daniela; Greenwald, Ted (2018-08-11). "IBM hat ein Watson -Dilemma". Wallstreet Journal. ISSN 0099-9660. Abgerufen 2018-08-21.
- ^ Reddy, Shivani M.; Patel, Sheila; Weyrich, Meghan; Fenton, Joshua; Viswanathan, Meera (2020). "Vergleich eines traditionellen systematischen Überprüfungsansatzes mit Überprüfung der Überprüfung und Halbautomation als Strategien zur Aktualisierung der Beweise". Systematische Bewertungen. 9 (1): 243. doi:10.1186/s13643-020-01450-2. ISSN 2046-4053. PMC 7574591. PMID 33076975.
- ^ a b Garcia, Megan (2016). "Rassist in der Maschine". World Policy Journal. 33 (4): 111–117. doi:10.1215/07402775-3813015. ISSN 0740-2775. S2CID 151595343.
- ^ Caliskan, Aylin; Bryson, Joanna J.; Narayanan, Arvind (2017-04-14). "Die Semantik, die automatisch aus den Sprachkorpora abgeleitet wurde, enthalten menschliche Vorurteile". Wissenschaft. 356 (6334): 183–186. Arxiv:1608.07187. Bibcode:2017Sci ... 356..183c. doi:10.1126/science.aal4230. ISSN 0036-8075. PMID 28408601. S2CID 23163324.
- ^ Wang, Xinan; Dasgupta, Sanjoy (2016), Lee, D. D.; Sugiyama, M.; Luxburg, U. V.; Guyon, I. (Hrsg.), "Ein Algorithmus für die Suche nach L1 am nächsten nach Nachbarn durch monotones Einbettung" (PDF), Fortschritte in den neuronalen Informationsverarbeitungssystemen 29, Curran Associates, Inc., S. 983–991, abgerufen 2018-08-20
- ^ Julia Angwin; Jeff Larson; Lauren Kirchner; Surya Mattu (2016-05-23). "Maschinenbias". ProPublica. Abgerufen 2018-08-20.
- ^ "Meinungen | Wenn ein Algorithmus Ihnen hilft, ins Gefängnis zu schicken". New York Times. Abgerufen 2018-08-20.
- ^ "Google entschuldigt sich für den rassistischen Fehler". BBC News. 2015-07-01. Abgerufen 2018-08-20.
- ^ "Google 'hat seinen rassistischen Algorithmus behoben, indem Gorillas von seiner Image-markierenden Technologie entfernt wurden.". Der Verge. Abgerufen 2018-08-20.
- ^ "Meinung | Problem der künstlichen Intelligenz des weißen Kerls". New York Times. Abgerufen 2018-08-20.
- ^ Metz, Rachel. "Warum Microsofts Teen Chatbot, Tay, viele schreckliche Dinge online gesagt hat". MIT Technology Review. Abgerufen 2018-08-20.
- ^ Simonite, Tom. "Microsoft sagt, sein rassistischer Chatbot zeigt, wie KI nicht anpassbar genug ist, um den meisten Unternehmen zu helfen.". MIT Technology Review. Abgerufen 2018-08-20.
- ^ Hempel, Jessi (2018-11-13). "Fei-Fei Lis Streben, Maschinen für die Menschheit besser zu machen". Verdrahtet. ISSN 1059-1028. Abgerufen 2019-02-17.
- ^ Domingos 2015, p. 286.
- ^ "Single Pixel Change Fools AI -Programme". BBC News. 3. November 2017. Archiviert Aus dem Original am 22. März 2018. Abgerufen 12. März 2018.
- ^ "KI hat ein Halluzinationsproblem, das sich als schwer zu beheben herausstellt". VERDRAHTET. 2018. Archiviert Aus dem Original am 12. März 2018. Abgerufen 12. März 2018.
- ^ "Konverselles maschinelles Lernen - CLTC UC Berkeley Center für langfristige Cybersicherheit". CLTC.
- ^ "Maschinenlernende Modelle, die für nicht nachweisbare Hintertüren anfällig sind". Das Register. Abgerufen 13. Mai 2022.
- ^ "Nicht nachweisbare Hintertüren in jedem maschinenlernenden Algorithmus". IEEE -Spektrum. 10. Mai 2022. Abgerufen 13. Mai 2022.
- ^ Goldwasser, Shafi; Kim, Michael P.; Vaikuntanathan, Vinod; Zamir, oder (14. April 2022). "Anpflanzen nicht nachweisbare Hintertüren in maschinellen Lernmodellen". Arxiv:2204.06974 [cs.lg].
- ^ Kohavi, Ron (1995). "Eine Studie zur Kreuzvalidierung und Bootstrap für die Genauigkeitsschätzung und die Modellauswahl" (PDF). Internationale gemeinsame Konferenz über künstliche Intelligenz.
- ^ Pontius, Robert Gilmore; Si, Kangping (2014). "Das Gesamtbetriebsmerkmal zur Messung der diagnostischen Fähigkeit mehrerer Schwellenwerte". Internationales Journal of Geographical Information Science. 28 (3): 570–583. doi:10.1080/13658816.2013.862623. S2CID 29204880.
- ^ Bostrom, Nick (2011). "Die Ethik der künstlichen Intelligenz" (PDF). Archiviert von das Original (PDF) am 4. März 2016. Abgerufen 11. April 2016.
- ^ Edionwe, Toluloop. "Der Kampf gegen rassistische Algorithmen". Der Umriss. Abgerufen 17. November 2017.
- ^ Jeffries, Adrianne. "Maschinelles Lernen ist rassistisch, weil das Internet rassistisch ist". Der Umriss. Abgerufen 17. November 2017.
- ^ Bostrom, Nick; Yudkowsky, Eliezer (2011). "Die Ethik der künstlichen Intelligenz" (PDF). Nick Bostrom.
- ^ M.O.R. Prates, P.H.C. Avelar, L.C. Lamm (11. März 2019). "Bewertung der Geschlechterverzerrung bei der maschinellen Übersetzung - eine Fallstudie mit Google Translate". Arxiv:1809.02208 [cs.cy].
{{}}
: CS1 Wartung: Verwendet Autorenparameter (Link) - ^ Narayanan, Arvind (24. August 2016). "Die Sprache enthält notwendigerweise menschliche Vorurteile, ebenso wie Maschinen, die auf Sprachkorpora ausgebildet sind". Freiheit zum Basteln.
- ^ Char, Danton S.; Shah, Nigam H.; Magnus, David (2018-03-15). "Implementierung des maschinellen Lernens im Gesundheitswesen - sich ethischen Herausforderungen bewältigen". New England Journal of Medicine. 378 (11): 981–983. doi:10.1056/nejmp1714229. ISSN 0028-4793. PMC 5962261. PMID 29539284.
- ^ Char, D. S.; Shah, N. H.; Magnus, D. (2018). "Implementierung des maschinellen Lernens in der Gesundheitsversorgung - wirken ethische Herausforderungen an". New England Journal of Medicine. 378 (11): 981–983. doi:10.1056/nejmp1714229. PMC 5962261. PMID 29539284.
- ^ Research, AI (23. Oktober 2015). "Tiefe neuronale Netzwerke für die akustische Modellierung in der Spracherkennung". Airesearch.com. Abgerufen 23. Oktober 2015.
- ^ "GPUs dominieren vorerst den KI -Beschleunigermarkt weiter". Informationswoche. Dezember 2019. Abgerufen 11. Juni 2020.
- ^ Ray, Tiernan (2019). "KI verändert die gesamte Natur des Berechnung". ZDNET. Abgerufen 11. Juni 2020.
- ^ "Ai und berechnen". Openai. 16. Mai 2018. Abgerufen 11. Juni 2020.
- ^ "Cornell & NTTs physische neuronale Netze: Eine" radikale Alternative zur Implementierung von tiefen neuronalen Netzwerken ", das ein willkürliches Training für physikalische Systeme ermöglicht | Synchronisiert" ". 27. Mai 2021.
- ^ "Nano-Spaghetti zur Lösung des Stromverbrauchs des neuronalen Netzwerks".
- ^ Fafoutis, Xenofon; Marchegiani, Letizia; Elsts, Atis; Papst, James; Piechocki, Robert; Craddock, Ian (2018-05-07). "Erweitern Sie die Batteriedauer von tragbaren Sensoren mit eingebettetem maschinellem Lernen". 2018 IEEE 4th World Forum im Internet der Dinge (WF-Iot): 269–274. doi:10.1109/wf-iot.2018.8355116. HDL:1983/B8FDB58B-7114-45C6-82E4-4AB239C1327f. ISBN 978-1-4673-9944-9. S2CID 19192912.
- ^ "Ein Anfängerleitfaden für maschinelles Lernen für eingebettete Systeme". Analytics India Magazine. 2021-06-02. Abgerufen 2022-01-17.
- ^ Synchronisiert (2022-01-12). "Google, Purdue & Harvard Us Open-Source-Framework für TinyML erreicht bis zu 75-fache Beschleunigungen auf FPGAs | Synchiert". syncedReview.com. Abgerufen 2022-01-17.
- ^ Giri, Davide; Chiu, Kuan-Lin; Di Guglielmo, Giuseppe; Mantovani, Paolo; Carloni, Luca P. (2020-06-15). "ESP4ML: Plattformbasiertes Design von Systemen-auf-Chips für eingebettetes maschinelles Lernen". 2020 Design, Automatisierungstest in Europa Konferenzausstellung (Datum): 1049–1054. Arxiv:2004.03640. doi:10.23919/Date48585.2020.9116317. ISBN 978-3-9819263-4-7. S2CID 210928161.
- ^ Louis, Marcia Sahaya; Azad, Zahra; Delshattehrani, Leila; Gupta, Suyog; Warden, Pete; Reddi, Vijay Janapa; Joshi, Ajay (2019). "In Richtung Deep Learning mit Tensorflow Lite auf RISC-V". Harvard Universität. Abgerufen 2022-01-17.
{{}}
: CS1 Wartung: URL-Status (Link) - ^ Ibrahim, Ali; Osta, Mario; Alameh, Mohamad; Saleh, Moustafa; Chibles, Hussein; Valle, Maurizio (2019-01-21). "Ungefähre Computermethoden für eingebettetes maschinelles Lernen". 2018 25. IEEE Internationale Konferenz über Elektronik, Schaltkreise und Systeme (ICECs): 845–848. doi:10.1109/icecs.2018.8617877. ISBN 978-1-5386-9562-3. S2CID 58670712.
- ^ "DBLP: TensorFlow Eifrig: Eine mehrstufige, python-eingebettete DSL für maschinelles Lernen". dblp.org. Abgerufen 2022-01-17.
- ^ Branco, Sérgio; Ferreira, André G.; Cabral, Jorge (2019-11-05). "Maschinelles Lernen in eingebetteten Systemen, FPGAs und Endverhältnissen in Ressourcen-SCARCE: Eine Umfrage". Elektronik. 8 (11): 1289. doi:10.3390/Electronics8111289. ISSN 2079-9292.
Quellen
- Domingos, Pedro (22. September 2015). Der Master -Algorithmus: Wie die Suche nach der ultimativen Lernmaschine unsere Welt neu gestalten wird. Grundbücher. ISBN 978-0465065707.
- Nilsson, Nils (1998). Künstliche Intelligenz: Eine neue Synthese. Morgan Kaufmann. ISBN 978-1-55860-467-4. Archiviert Aus dem Original am 26. Juli 2020. Abgerufen 18. November 2019.
- Russell, Stuart J.; Norvig, Peter (2003), Künstliche Intelligenz: ein moderner Ansatz (2. Aufl.), Upper Saddle River, New Jersey: Prentice Hall, ISBN 0-13-790395-2.
- Poole, David; Mackworth, Alan; Goebel, Randy (1998). Computational Intelligence: Ein logischer Ansatz. New York: Oxford University Press. ISBN 978-0-19-510270-3. Archiviert Aus dem Original am 26. Juli 2020. Abgerufen 22. August 2020.
Weitere Lektüre
- Nils J. Nilsson, Einführung in maschinelles Lernen.
- Trevor Hastie, Robert Tibshirani und Jerome H. Friedman (2001). Die Elemente des statistischen Lernens, Springer. ISBN0-387-95284-5.
- Pedro Domingos (September 2015), Der Master -Algorithmus, Grundlegende Bücher, ISBN978-0-465-06570-7
- Ian H. Witten und Eibe Frank (2011). Data Mining: Tools und Techniken für maschinelles Lernen Morgan Kaufmann, 664pp., ISBN978-0-12-374856-0.
- Ethem Alpaydin (2004). Einführung in maschinelles Lernen, MIT Press, ISBN978-0-262-01243-0.
- David J. C. Mackay. Informationstheorie, Inferenz und Lernalgorithmen Cambridge: Cambridge University Press, 2003. ISBN0-521-64298-1
- Richard O. Duda, Peter E. Hart, David G. Stork (2001) Musterklassifizierung (2. Ausgabe), Wiley, New York, ISBN0-471-05669-3.
- Christopher Bishop (1995). Neuronale Netze für die Mustererkennung, Oxford University Press. ISBN0-19-853864-2.
- Stuart Russell & Peter Norvig, (2009). Künstliche Intelligenz - ein moderner Ansatz. Pearson, ISBN9789332543515.
- Ray Solomonoff, Eine induktive Inferenzmaschine, IRE Convention Record, Abschnitt über Informationstheorie, Teil 2, S., 56–62, 1957.
- Ray Solomonoff, Eine induktive Inferenzmaschine Ein privat verteilter Bericht aus dem Jahr 1956 Dartmouth Summer Research Conference über KI.
- Kevin P. Murphy (2021). Probabilistisches maschinelles Lernen: Eine Einführung, MIT Press.
Externe Links
-
Zitate im Zusammenhang mit maschinellem Lernen bei Wikiquote
- Internationale Gesellschaft für maschinelles Lernen
- Mloss ist eine akademische Datenbank mit Open-Source-Software für maschinelles Lernen.