Künstliche Intelligenz
Künstliche Intelligenz (Ai) ist Intelligenz vorgezeigt durch Maschinenim Gegensatz zu der natürliche Intelligenz angezeigt von Tiere einschließlich Menschen. Die KI -Forschung wurde als Studiengebiet definiert intelligente Agenten, was sich auf jedes System bezieht, das seine Umgebung wahrnimmt und Maßnahmen ergriffen, die seine Chance maximieren, seine Ziele zu erreichen.[a]
Der Begriff "künstliche Intelligenz" wurde zuvor verwendet, um Maschinen zu beschreiben, die "menschliche" kognitive Fähigkeiten nachahmen und zeigen, die mit dem verbunden sind menschlicher Verstand, wie "Lernen" und "Problemlösung". Diese Definition wurde seitdem von großen KI -Forschern abgelehnt, die jetzt KI in Bezug auf Rationalität und rational handeln, was nicht einschränkt, wie Intelligenz artikuliert werden kann.[b]
KI -Anwendungen umfassen Fortgeschrittene Web-Suche Motoren (z. B.,, Google), Empfehlungssysteme (benutzt von Youtube, Amazonas und Netflix), menschliche Sprache verstehen (wie zum Beispiel Siri und Alexa), selbstfahrende Autos (z.B., Tesla), automatisierte Entscheidungsfindung und auf höchstem Niveau in der Konkurrenz in Strategisches Spiel Systeme (wie z. Schach und gehen).[2] Wenn Maschinen immer fähiger werden, werden Aufgaben, die "Intelligenz" erfordern, häufig aus der Definition von AI entfernt, einem Phänomen, das als das bekannt ist AI -Effekt.[3] Zum Beispiel, optische Zeichenerkennung wird häufig von Dingen ausgeschlossen, die als KI angesehen werden,[4] zu einer Routine -Technologie geworden.[5]
Künstliche Intelligenz wurde 1956 als akademische Disziplin gegründet und in den Jahren seitdem mehrere Wellen des Optimismus erlebt.[6][7] gefolgt von Enttäuschung und dem Finanzierungsverlust (bekannt als "bekannt"AI Winter"),,[8][9] gefolgt von neuen Ansätzen, Erfolg und erneuerten Finanzmitteln.[7][10] AI -Forschung hat seit ihrer Gründung viele verschiedene Ansätze versucht und verworfen, einschließlich der Simulation des Gehirns, Modellierung menschlicher Problemlösung, formelle Logik, große Wissensdatenbanken und das Tierverhalten imitieren. In den ersten Jahrzehnten des 21. Jahrhunderts sehr mathematisch-statistisch maschinelles Lernen hat das Gebiet dominiert, und diese Technik hat sich als äußerst erfolgreich erwiesen und dazu beigetragen, viele herausfordernde Probleme in der gesamten Industrie und in der Wissenschaft zu lösen.[10][11]
Die verschiedenen Unterfelder der KI-Forschung konzentrieren sich auf bestimmte Ziele und die Verwendung bestimmter Tools. Zu den traditionellen Zielen der KI -Forschung gehören Argumentation, Wissensrepräsentation, Planung, Lernen, Verarbeitung natürlicher Sprache, Wahrnehmungund die Fähigkeit, Objekte zu bewegen und zu manipulieren.[c] Generelle Intelligenz (Die Fähigkeit, ein willkürliches Problem zu lösen) gehört zu den langfristigen Zielen des Feldes.[12] Um diese Probleme zu lösen, haben KI-Forscher eine breite Palette von Problemlösungstechniken angepasst und integriert-einschließlich der Suche und mathematischer Optimierung, formaler Logik, künstliche neurale Netzwerkeund Methoden basierend auf Statistiken, Wahrscheinlichkeit und Wirtschaft. KI stützt sich auch auf Informatik, Psychologie, Linguistik, Philosophieund viele andere Felder.
Das Feld wurde auf der Annahme beruht, dass die menschliche Intelligenz "so genau beschrieben werden kann, dass eine Maschine dazu gebracht werden kann, sie zu simulieren".[d] Dies löste philosophische Argumente über den Geist und die ethischen Folgen der Schaffung künstlicher Wesen mit menschlicher Intelligenz aus; Diese Probleme wurden zuvor von untersucht von Mythos, Fiktion und Philosophie Seit der Antike.[14] Informatiker und Philosophen seitdem vorgeschlagen haben, dass KI eine werden kann existenzielles Risiko für die Menschheit, wenn ihre rationalen Kapazitäten nicht auf vorteilhafte Ziele gesteuert werden.[e]
Geschichte
Fiktionen und frühe Konzepte
Künstliche Wesen mit Intelligenz erschien als als Geschichtenerzählgeräte in der Antike,[15] und waren in der Fiktion üblich, wie in Mary Shelley's Frankenstein oder Karel čapek's R.U.R.[16] Diese Charaktere und ihr Schicksals haben viele der gleichen Themen aufgeworfen, die jetzt in der diskutiert wurden Ethik der künstlichen Intelligenz.[17]
Die Untersuchung von Mechanik oder "formelle" Argumentation begann mit Philosophen und Mathematiker in der Antike. Die Untersuchung der mathematischen Logik führte direkt zu Alan Turing's Theorie der Berechnung, was darauf hindeutet, dass eine Maschine, indem sie Symbole so einfach wie "0" und "1" mischen, jeden denkbaren Akt des mathematischen Abzugs simulieren könnte. Diese Einsicht, dass digitale Computer jeden Prozess des formalen Denkens simulieren können, wird als die bezeichnet These der Kirche und tätige These.[18]
Die These der Kirche, zusammen mit gleichzeitigen Entdeckungen in Neurobiologie, Informationstheorie und Kybernetik, veranlassten Forscher, die Möglichkeit zu berücksichtigen, ein elektronisches Gehirn aufzubauen.[19] Die erste Arbeit, die jetzt allgemein als KI anerkannt ist McCullouch und Pitts'1943 formelles Design für Turing-Complete "Künstliche Neuronen".[20]
Frühe Forschungen
In den 1950er Jahren entstanden zwei Visionen für die Erreichung von Maschinenintelligenz. Eine Vision, bekannt als Symbolische AI oder Gofai, war mit Computern, um eine symbolische Darstellung der Welt und Systeme zu schaffen, die über die Welt argumentieren könnten. Befürworter eingeschlossen Allen Newell, Herbert A. Simon, und Marvin Minsky. Eng mit diesem Ansatz verbunden war der "Heuristische Suche" Ansatz, der Intelligenz mit einem Problem der Erforschung eines Raums der Möglichkeiten für Antworten verglichen. Die zweite Vision, bekannt als die Verbindungsansatz, versuchte, durch das Lernen Intelligenz zu erreichen. Befürworter dieses Ansatzes, am deutlichsten Frank Rosenblatt, versuchte sich zu verbinden Perzeptron in einer Weise, die durch Verbindungen von Neuronen inspiriert ist.[21] James Manyika und andere haben die beiden Ansätze mit dem Geist (symbolische KI) und dem Gehirn (Verbindungspersonal) verglichen. Manyika argumentiert, dass symbolische Ansätze den Vorstoß nach künstlicher Intelligenz in dieser Zeit dominierten, was teilweise auf seine Verbindung zu intellektuellen Traditionen von aufgrund der Intellektuellen zurückzuführen ist Descarte, Boole, Gottlob Frege, Bertrand Russell, und andere. Verbindungsorientierte Ansätze basierend auf Kybernetik oder künstliche neurale Netzwerke wurden in den Hintergrund gedrängt, haben aber in den letzten Jahrzehnten neue Bedeutung gewonnen.[22]
Das Gebiet der KI -Forschung wurde bei geboren ein Workshop bei Dartmouth College 1956.[f][25] Die Teilnehmer wurden die Gründer und Führer der KI -Forschung.[g] Sie und ihre Schüler produzierten Programme, die die Presse als "erstaunlich" bezeichnete:[h] Computer lernten Dame Strategien, Wortprobleme in Algebra, beweisen Logische Theoreme und Englisch sprechen.[ich][27] Mitte der 1960er Jahre wurde die Forschung in den USA stark von der finanziert Verteidigungsministerium[28] und Labors waren weltweit eingerichtet worden.[29]
Die Forscher in den 1960er und 1970er Jahren waren überzeugt, dass symbolische Ansätze schließlich gelingen würden, eine Maschine mit zu schaffen künstliche allgemeine Intelligenz und betrachtete dies als Ziel ihres Feldes.[30] Herbert Simon Vorhersagte "Maschinen werden innerhalb von zwanzig Jahren in der Lage sein, jede Arbeit zu erledigen, die ein Mann tun kann".[31] Marvin Minsky Einverstanden, das Schreiben "innerhalb einer Generation ... Das Problem der Schaffung künstlicher Intelligenz wird erheblich gelöst".[32]
Sie erkannten die Schwierigkeit einiger der verbleibenden Aufgaben nicht. Fortschritt verlangsamte sich und 1974 als Reaktion auf die Kritik von Sir James Lighthill[33] und fortlaufender Druck vom US -Kongress zu produktivere Projekte finanzierenSowohl die US -amerikanischen als auch die britische Regierungen haben die Erkundungsforschung in der KI abgeschnitten. Die nächsten Jahre würden später als "als" bezeichnet werden "AI Winter", Eine Zeit, in der die Finanzierung von KI -Projekten eine Finanzierung erhielt.[8]
Von Expertensystemen bis hin zu maschinellem Lernen
In den frühen 1980er Jahren wurde die KI -Forschung durch den kommerziellen Erfolg von wiederbelebt Expertensysteme,[34] Eine Form des KI -Programms, das das Wissen und die analytischen Fähigkeiten menschlicher Experten simulierte. Bis 1985 hatte der Markt für KI über eine Milliarde Dollar erreicht. Gleichzeitig Japans Computer der fünften Generation Das Projekt inspirierte die US -amerikanischen und britischen Regierungen, die Finanzierung wiederherzustellen wissenschaftliche Forschung.[7] Beginnend mit dem Zusammenbruch der Lisp -Maschine Der Markt im Jahr 1987 geriet AI erneut in Verruf, und ein zweiter, länger anhaltender Winter begann.[9]
Viele Forscher bezweifeln, dass die Symbolischer Ansatz Würde in der Lage sein, alle Prozesse der menschlichen Wahrnehmung insbesondere nachzuahmen, insbesondere der menschlichen Erkenntnis Wahrnehmung, Robotik, Lernen und Mustererkennung. Eine Reihe von Forschern begann sich mit "subsymbolischen" Ansätzen für bestimmte KI-Probleme zu untersuchen.[35] Robotik Forscher wie z. Rodney Brooks, lehnte symbolische KI ab und konzentrierte sich auf die grundlegenden technischen Probleme, die es Robotern ermöglichen würden, sich zu bewegen, zu überleben und ihre Umgebung zu lernen.[j] Interessiert an Neuronale Netze und "Verbindungismus"wurde von wiederbelebt von Geoffrey Hinton, David Rumelhart und andere Mitte der 1980er Jahre.[40] Soft Computing In den 80ern wurden Werkzeuge entwickelt, wie z. Neuronale Netze, Fuzzy -Systeme, Theorie des grauen Systems, Evolutionsberechnung und viele Werkzeuge aus Statistiken oder Mathematische Optimierung.
AI stellte ihren Ruf Ende der neunziger und des frühen 21. Jahrhunderts allmählich wieder her, indem er spezifische Lösungen für spezifische Probleme fand. Der enge Fokus ermöglichte es den Forschern, überprüfbare Ergebnisse zu erzielen, mathematische Methoden auszunutzen und mit anderen Bereichen zusammenzuarbeiten (wie z. Statistiken, Wirtschaft und Mathematik).[41] Bis 2000 wurden von KI -Forschern entwickelte Lösungen weit verbreitet, obwohl sie in den neunziger Jahren selten als "künstliche Intelligenz" bezeichnet wurden.[11]
Schnellere Computer, algorithmische Verbesserungen und Zugang zu große Datenmengen Aktivierte Fortschritte in maschinelles Lernen und Wahrnehmung; datenhungry tiefes Lernen Methoden dominierten die Genauigkeitsbenchmarks um 2012.[42] Entsprechend Bloombergs Jack Clark, 2015 war ein Meilenstein für künstliche Intelligenz, mit der Anzahl der Softwareprojekte, die KI verwenden Google von einem "sporadischen Gebrauch" im Jahr 2012 auf mehr als 2.700 Projekte erhöht.[k] Er führt dies auf eine Erschwinglichkeit zu Neuronale Netze, aufgrund eines Anstiegs der Cloud -Computing -Infrastruktur und einer Zunahme von Forschungstools und Datensätzen.[10] In einer Umfrage von 2017 berichtete jedes fünfte Unternehmen, dass er "KI in einige Angebote oder Prozesse integriert" hatte.[43] Die Forschung an KI (gemessen an Gesamtveröffentlichungen) stieg in den Jahren 2015–2019 um 50%.[44]
Zahlreiche akademische Forscher waren besorgt darüber, dass KI nicht mehr das ursprüngliche Ziel verfolgte, vielseitige, vollständig intelligente Maschinen zu schaffen. Ein Großteil der aktuellen Forschung umfasst statistische KI, die überwiegend verwendet wird tiefes Lernen. Diese Sorge hat zum Unterfeld von geführt künstliche allgemeine Intelligenz (oder "Agi"), das in den 2010er Jahren mehrere gut finanzierte Institutionen hatte.[12]
Ziele
Das allgemeine Problem der Simulation (oder Erstellung) von Intelligenz wurde in Unterprobleme unterteilt. Diese bestehen aus bestimmten Merkmalen oder Funktionen, die Forscher erwarten, dass ein intelligentes System angezeigt wird. Die nachstehend beschriebenen Eigenschaften haben die größte Aufmerksamkeit erhalten.[c]
Argumentation, Problemlösung
Frühe Forscher entwickelten Algorithmen, die Schritt-für-Schritt-Argumentation imitierten, die Menschen verwenden, wenn sie Rätsel lösen oder logische Abzüge vornehmen.[45] In den späten 1980er und 1990er Jahren hatte AI Research Methoden für den Umgang mit unsicher oder unvollständige Informationen, die Konzepte aussetzen von Wahrscheinlichkeit und Wirtschaft.[46]
Viele dieser Algorithmen erwiesen sich als nicht ausreichend, um große Argumentationsprobleme zu lösen, da sie eine "kombinatorische Explosion" erlebten: Sie wurden exponentiell langsamer, als die Probleme größer wurden.[47] Sogar Menschen verwenden selten den schrittweisen Abzug, den die frühe KI-Forschung modellieren könnte. Sie lösen die meisten Probleme mit schnellen, intuitiven Urteilen.[48]
Wissensrepräsentation
Wissensrepräsentation und Knowledge Engineering[49] Erlauben Sie KI-Programmen, Fragen intelligent zu beantworten und Abzüge zu realen Fakten zu führen.
Eine Darstellung von "was existiert" ist eine Ontologie: Die Reihe von Objekten, Beziehungen, Konzepten und Eigenschaften, die formell beschrieben werden, damit Softwareagenten sie interpretieren können.[50] Die allgemeinsten Ontologien werden genannt Obere Ontologien, die versuchen, eine Grundlage für alle anderen Wissen zu bilden und als Mediatoren dazwischen zu fungieren Domain -Ontologien Dieser decken spezifisches Wissen über ein bestimmtes Wissen ab Domain (Interessensfeld oder Besorgnis des Gebiets). Ein wirklich intelligentes Programm würde auch Zugang zu vernünftigen Wissen erfordern. Die Fakten, die eine durchschnittliche Person kennt. Das Semantik einer Ontologie wird typischerweise in Beschreibung Logik dargestellt, wie z. Web -Ontologie -Sprache.[51]
AI -Forschung hat Tools entwickelt, um bestimmte Domänen darzustellen, wie Objekte, Eigenschaften, Kategorien und Beziehungen zwischen Objekten.[51] Situationen, Ereignisse, Staaten und Zeit;[52] Ursachen und Wirkungen;[53] Wissen über Wissen (was wir wissen, was andere Menschen wissen);.[54] Standard -Argumentation (Dinge, von denen Menschen annehmen, sind wahr, bis sie anders erzählt werden und auch dann wahr bleiben, wenn sich andere Tatsachen ändern);[55] sowie andere Bereiche. Zu den schwierigsten Problemen in der KI zählen: Die Breite des gesunden Menschenkenntnisses (die Anzahl der atomaren Tatsachen, die die durchschnittliche Person kennt, ist enorm);[56] und die subsymbolische Form des am meisten gewohnten Wissens (vieles, was Menschen wissen, wird nicht als "Tatsachen" oder "Aussagen" dargestellt, die sie verbal ausdrücken könnten).[48]
Formale Wissensdarstellungen werden in inhaltsbasierter Indexierung und Abruf verwendet,[57] Szeneninterpretation,[58] Klinische Entscheidungsunterstützung,[59] Wissensentdeckung (Mining "interessant" und umsetzbare Schlussfolgerungen aus großen Datenbanken),[60] und andere Bereiche.[61]
Planung
Ein intelligenter Agent, der kann planen macht eine Darstellung des Zustands der Welt, macht Vorhersagen darüber, wie ihre Handlungen es verändern und Entscheidungen treffen, die die maximieren Dienstprogramm (oder "Wert") der verfügbaren Auswahlmöglichkeiten.[62] Bei klassischen Planungsproblemen kann der Agent davon ausgehen, dass es das einzige System ist, das in der Welt handelt, sodass der Agent die Konsequenzen seiner Handlungen sicher ist.[63] Wenn der Agent jedoch nicht der einzige Akteur ist, muss der Agent unter Unsicherheit unter der Unsicherheit und seiner Anpassung kontinuierlich erneut bewertet werden.[64] Multi-Agent-Planung verwendet die Zusammenarbeit und Wettbewerb vieler Agenten, um ein bestimmtes Ziel zu erreichen. Aufstrebendes Verhalten solch dies wird von verwendet von Evolutionsalgorithmen und Schwarmintelligenz.[65]
Lernen
Maschinelles Lernen (ML), ein grundlegendes Konzept der KI -Forschung seit der Gründung des Feldes,[l] ist die Untersuchung von Computeralgorithmen, die sich automatisch durch Erfahrung verbessern.[m]
Unbeaufsichtigtes Lernen Findet Muster in einem Eingangsstrom. Überwachtes Lernen Erfordert ein Mensch zuerst die Eingabedaten und erhält zwei Hauptsorten: Einstufung und numerisch Regression. Die Klassifizierung wird verwendet, um zu bestimmen, in welcher Kategorie etwas gehört - das Programm sieht eine Reihe von Beispielen für Dinge aus mehreren Kategorien und lernt, neue Eingaben zu klassifizieren. Die Regression ist der Versuch, eine Funktion zu erzeugen, die die Beziehung zwischen Eingaben und Ausgängen beschreibt und vorhersagt, wie sich die Ausgänge ändern sollten, wenn sich die Eingaben ändern. Sowohl Klassifikatoren als auch Regressionslernende können als "Funktionsapparat" angesehen werden, die versuchen, eine unbekannte (möglicherweise implizite) Funktion zu lernen. Beispielsweise kann ein Spam -Klassifizierer als Lernfunktion angesehen werden, die vom Text einer E -Mail in eine von zwei Kategorien, "Spam" oder "nicht Spam", abgebildet werden.[69]Im Verstärkungslernen Der Agent wird für gute Antworten belohnt und für schlechte bestraft. Der Agent klassifiziert seine Antworten, um eine Strategie für den Betrieb in seinem Problemraum zu bilden.[70] Transferlernen Wird das Wissen aus einem Problem auf ein neues Problem angewendet.[71]
Computerlerntheorie kann die Lernenden durch beurteilen Rechenkomplexität, durch Probenkomplexität (wie viel Daten benötigt) oder nach anderen Vorstellungen von Optimierung.[72]
Verarbeitung natürlicher Sprache
Verarbeitung natürlicher Sprache (NLP)[73] ermöglicht Maschinen zu lesen und verstehe menschliche Sprache. Ein ausreichend leistungsstarkes System für natürliche Sprachverarbeitung würde ermöglichen Natürliche Benutzeroberflächen und der Erwerb von Wissen direkt aus von Menschen geschriebenen Quellen wie Newswire-Texten. Einige einfache Anwendungen von NLP umfassen Informationsrückgewinnung, Frage Beantwortung und Maschinenübersetzung.[74]
Symbolische AI Gebraucht formell Syntax um die zu übersetzen tiefe Struktur von Sätzen in Logik. Dies konnte aufgrund der nicht nützliche Anwendungen erzeugen Uneinheitlichkeit der Logik[47] und die Breite des gesunden Menschenkenntnisses.[56] Zu den modernen statistischen Techniken gehören die Zusammenhäufigkeit von Ko-Auftreten (wie oft ein Wort in der Nähe des anderen erscheint), "Schlüsselwort-Spotting" (Suche nach einem bestimmten Wort zum Abrufen von Informationen). Transformator-basierend tiefes Lernen (die Muster im Text findet) und andere.[75] Sie haben auf der Seite oder auf Absatzebene eine akzeptable Genauigkeit erreicht und bis 2019 einen kohärenten Text erzeugen.[76]
Wahrnehmung
Maschinenwahrnehmung[77] ist die Möglichkeit, Eingaben von Sensoren zu verwenden (wie Kameras, Mikrofone, drahtlose Signale und aktiv LIDAR, Sonar, Radar und taktile Sensoren) Aspekte der Welt abzuleiten. Anwendungen umfassen Spracherkennung,[78] Gesichtserkennung, und Objekterkennung.[79] Computer Vision ist die Fähigkeit, visuelle Eingaben zu analysieren.[80]
Bewegung und Manipulation
KI wird stark in der Robotik eingesetzt.[81] Lokalisierung ist, wie ein Roboter seinen Standort kennt und Karten seine Umgebung. Bei einer kleinen, statischen und sichtbaren Umgebung ist dies einfach. dynamische Umgebungen wie (in Endoskopie) Das Innere des Atemkörpers eines Patienten stellt eine größere Herausforderung dar.[82]
Bewegungsplanung ist der Prozess, eine Bewegungsaufgabe in "Primitiven" wie individuelle gemeinsame Bewegungen aufzuteilen. Eine solche Bewegung beinhaltet häufig eine konforme Bewegung, ein Prozess, bei dem die Bewegung einen physischen Kontakt mit einem Objekt aufrechterhalten muss. Roboter können aus Erfahrung lernen, wie man trotz der Anwesenheit von Reibung und Ausrüstung effizient bewegt.[83]
Soziale Intelligenz
Affective Computing ist ein interdisziplinärer Dach, der Systeme umfasst, die Menschen erkennen, interpretieren, verarbeiten oder simulieren Gefühl, Emotion und Stimmung.[85] Zum Beispiel einige Virtuelle Assistenten sind programmiert, um unterhaltsam oder sogar humorvoll zu sprechen; Es lässt sie empfindlicher für die emotionale Dynamik der menschlichen Interaktion oder auf andere Weise erleichtern Menschliche interaktion mit dem Computer. Dies gibt jedoch tendenziell naive Benutzer eine unrealistische Vorstellung davon, wie intelligent vorhandene Computeragenten tatsächlich sind.[86] Mäßige Erfolge im Zusammenhang mit affektivem Computing umfassen Textual Stimmungsanalyse und in jüngerer Zeit, multimodale Stimmungsanalyse), wobei AI die Affekte klassifiziert, die von einem auf Video aufgezeichneten Thema angezeigt werden.[87]
Generelle Intelligenz
Eine Maschine mit allgemeiner Intelligenz kann eine Vielzahl von Problemen mit Breite und Vielseitigkeit wie menschlicher Intelligenz lösen. Es gibt mehrere konkurrierende Ideen, wie man künstliche allgemeine Intelligenz entwickelt. Hans Moravec und Marvin Minsky argumentieren, dass die Arbeit in verschiedenen einzelnen Bereichen in einen Fortgeschrittenen aufgenommen werden kann Multi-Agent-System oder Kognitive Architektur mit allgemeiner Intelligenz.[88] Pedro Domingos hofft, dass es eine konzeptionell unkomplizierte, aber mathematisch schwierige gibt, "Master -Algorithmus"Das könnte zu Agi führen.[89] Andere glauben das anthropomorph Funktionen wie ein künstliches Gehirn[90] oder simuliert Entwicklung des Kindes[n] wird eines Tages einen kritischen Punkt erreichen, an dem allgemeine Intelligenz entsteht.
Werkzeug
Suche und Optimierung
Viele Probleme in der KI können theoretisch gelöst werden, indem intelligent durch viele mögliche Lösungen gesucht werden:[91] Argumentation kann auf eine Suche reduziert werden. Zum Beispiel kann logischer Beweis als Suche nach einem Pfad angesehen werden, der von Firmengelände zu Schlussfolgerungen, wo jeder Schritt die Anwendung eines ist Inferenzregel.[92] Planung Algorithmen suchen durch Bäume von Zielen und Subzentaten und versuchen, einen Weg zu einem Zielziel zu finden, ein Prozess heißt Mittelwerteanalyse.[93] Robotik Algorithmen zum Verschieben von Gliedmaßen und Griffobjekten verwenden Lokale Suchanfragen in Konfigurationsraum.[94]
Einfache erschöpfende Suchanfragen[95] sind für die meisten realen Probleme selten ausreichend: die Suchraum (Die Anzahl der Suchplätze) wächst schnell zu astronomische Zahlen. Das Ergebnis ist eine Suche, die ist zu langsam oder nie abgeschlossen. Die Lösung für viele Probleme besteht darin, zu verwenden. "Heuristik"oder" Faustregeln ", die die Entscheidungen für diejenigen priorisieren, die eher ein Ziel erreichen, und dies in einer kürzeren Anzahl von Schritten zu tun. Bei einigen Suchmethoden können Heuristiken auch dazu dienen, einige Entscheidungen zu beseitigen, die unwahrscheinlich zu einem Ziel führen können (genannt "Beschneidung das Suchbaum"). Heuristik Liefern Sie das Programm mit einer "besten Vermutung" für den Weg, auf dem die Lösung liegt.[96] Heuristiken beschränken die Suche nach Lösungen in eine kleinere Stichprobengröße.[97]
Eine ganz andere Art von Suche wurde in den neunziger Jahren in den neunziger Jahren bekannt, basierend auf der mathematischen Theorie von Optimierung. Bei vielen Problemen ist es möglich, die Suche mit irgendeiner Form einer Vermutung zu beginnen und dann die Vermutung schrittweise zu verfeinern, bis keine mehr Verfeinerungen vorgenommen werden können. Diese Algorithmen können als blind visualisiert werden Berg steigen: Wir beginnen die Suche an einem zufälligen Punkt in der Landschaft und bewegen dann durch Sprünge oder Schritte unsere Vermutung bergauf, bis wir die Spitze erreichen. Andere verwandte Optimierungsalgorithmen umfassen Zufällige Optimierung, Strahlsuche und Metaheuristik wie simuliertes Glühen.[98] Evolutionsberechnung Verwendet eine Form der Optimierungssuche. Zum Beispiel können sie mit einer Population von Organismen (den Vermutungen) beginnen und ihnen dann ermöglichen, mutieren und rekombinieren. Auswahl Nur der Stärkste, der jede Generation überlebt (die Vermutungen verfeinert). Klassisch Evolutionsalgorithmen enthalten genetische Algorythmen, Genexpressionsprogrammierung, und Genetische Programmierung.[99] Alternativ können verteilte Suchprozesse über die Koordinierung durch Schwarmintelligenz Algorithmen. Zwei beliebte Schwarmalgorithmen, die bei der Suche verwendet werden Partikelschwarmoptimierung (Inspiriert von Vogel strömen) und Ameisenkolonieoptimierung (inspiriert von Ameisenwege).[100]
Logik
Logik[101] wird für Wissensdarstellung und Problemlösung verwendet, kann aber auch auf andere Probleme angewendet werden. Zum Beispiel die Satplan Algorithmus verwendet Logik für Planung[102] und Induktive Logikprogrammierung ist eine Methode für Lernen.[103]
In der AI -Forschung werden verschiedene Formen der Logik verwendet. Aussagelogik[104] beinhaltet Wahrheit Funktionen wie "oder" und "nicht". Logik erster Ordnung[105] fügt hinzu Quantifizierer und Prädikate und kann Fakten über Objekte, ihre Eigenschaften und ihre Beziehungen zueinander ausdrücken. Fuzzy Logic weist vage Aussagen wie "Alice ist alt" (oder reich oder groß oder hungrig) einen "Grad der Wahrheit" (zwischen 0 und 1) zu, die zu sprachlich ungenau sind, um völlig wahr oder falsch zu sein.[106] Standardlogik, Nicht-monotonische Logik und Umschreibung sind Formen der Logik, die bei der Standardargumentation und der Qualifikationsproblem.[55] Es wurden verschiedene Logikverlängerungen für die Behandlung bestimmter Bereiche von ausgelegt Wissen, wie zum Beispiel Beschreibung Logik;[51] Situationskalkül, Ereignisrechnung und fließender Kalkül (zur Vertretung von Ereignissen und Zeit);[52] Kausalrechnung;[53] Glaubensrechnung (Überzeugung Revision); und Modale Logik.[54] Logik zu modellieren widersprüchliche oder inkonsistente Aussagen, die in Multi-Agent-Systemen entstehen, wurden ebenfalls entworfen, wie z. Paraconsistente Logik.
Probabilistische Methoden für unsicheres Denken
Viele Probleme in der KI (einschließlich der Argumentation, Planung, Lernen, Wahrnehmung und Robotik) erfordern, dass der Agent mit unvollständigen oder unsicheren Informationen arbeitet. KI -Forscher haben eine Reihe von Tools entwickelt, um diese Probleme mithilfe von Methoden aus zu lösen Wahrscheinlichkeit Theorie und Wirtschaft.[107] Bayes'sche Netzwerke[108] sind ein sehr allgemeines Werkzeug, das für verschiedene Probleme verwendet werden kann, einschließlich der Argumentation (mit der Verwendung der Bayes'sche Inferenz Algorithmus),[Ö][110] Lernen (Verwendung der Erwartungsmaximierungsalgorithmus),[p][112] Planung (Verwendung Entscheidungsnetzwerke)[113] und Wahrnehmung (Verwendung Dynamische Bayes'sche Netzwerke).[114] Probabilistische Algorithmen können auch zur Filterung, Vorhersage, Glättung und Finden von Erklärungen für Datenströme verwendet werden und helfen Wahrnehmung Systeme zur Analyse von Prozessen, die im Laufe der Zeit auftreten (z. B.,, Versteckte Markov -Modelle oder Kalman Filter).[114]
Ein Schlüsselkonzept aus der Wissenschaft der Wirtschaft ist "Dienstprogramm", Ein Maß dafür, wie wertvoll etwas für einen intelligenten Agenten ist. Es wurden präzise mathematische Tools entwickelt, die analysieren, wie ein Agent Entscheidungen und Planen treffen kann, und mithilfe von Verwendung Entscheidungstheorie, Entscheidungsanalyse,[115] und Informationswerttheorie.[116] Diese Tools umfassen Modelle wie z. Markov -Entscheidungsprozesse,[117] dynamisch Entscheidungsnetzwerke,[114] Spieltheorie und Mechanismus -Design.[118]
Klassifikatoren und statistische Lernmethoden
Die einfachsten AI -Anwendungen können in zwei Typen unterteilt werden: Klassifizierer ("wenn glänzend dann Diamond") und Controller ("Wenn Diamant dann abgeholt"). Controller klassifizieren jedoch auch Bedingungen, bevor sie Aktionen schließen, und die Klassifizierung bildet daher einen zentralen Bestandteil vieler AI -Systeme. Klassifikatoren sind Funktionen, die verwenden Musteranpassung um das nächste Match zu bestimmen. Sie können nach Beispielen abgestimmt werden, was sie für die Verwendung in AI sehr attraktiv macht. Diese Beispiele werden als Beobachtungen oder Muster bezeichnet. Beim überwachten Lernen gehört jedes Muster zu einer bestimmten vordefinierten Klasse. Eine Klasse ist eine Entscheidung, die getroffen werden muss. Alle Beobachtungen in Kombination mit ihren Klassenbezeichnungen werden als Datensatz bezeichnet. Wenn eine neue Beobachtung empfangen wird, wird diese Beobachtung basierend auf früheren Erfahrungen eingestuft.[119]
Ein Klassifizierer kann auf verschiedene Arten ausgebildet werden; Es gibt viele statistische und maschinelles Lernen Ansätze. Das Entscheidungsbaum ist der einfachste und am häufigsten verwendete symbolische Algorithmus für maschinelles Lernen.[120] K-Nearest Nachbaralgorithmus war bis Mitte der 1990er Jahre die am weitesten verbreitete analogische KI.[121] Kernelmethoden so wie die Vektormaschine unterstützen (SVM) Vertriebener K-Nearest-Nachbar in den 1990er Jahren.[122] Das Naiver Bayes -Klassifikator ist Berichten zufolge der "am häufigsten verwendete Lernende"[123] bei Google, teilweise aufgrund seiner Skalierbarkeit.[124] Neuronale Netze werden auch zur Klassifizierung verwendet.[125]
Die Klassifikatorleistung hängt stark von den Merkmalen der zu klassifizierten Daten ab, wie z. Modellbasierte Klassifikatoren funktionieren gut, wenn das angenommene Modell äußerst gut für die tatsächlichen Daten passt. Andernfalls ist, wenn kein Matching-Modell verfügbar ist und wenn Genauigkeit (anstelle von Geschwindigkeit oder Skalierbarkeit) das alleinige Anliegen ist, ist konventionelle Weisheit, dass diskriminative Klassifikatoren (insbesondere SVM) in der Regel genauer sind als modellbasierte Klassifikatoren wie "naive Bayes". Zu den meisten praktischen Datensätzen.[126]
Künstliche neurale Netzwerke
Neuronale Netze[125] wurden von der Architektur der Neuronen im menschlichen Gehirn inspiriert. Ein einfaches "Neuron" N Akzeptiert Input von anderen Neuronen, von denen jede, wenn sie aktiviert (oder "gefeuert") N sollte selbst aktivieren. Das Lernen erfordert einen Algorithmus, um diese Gewichte anhand der Trainingsdaten anzupassen. Ein einfacher Algorithmus (genannt "Feuern Sie zusammen zusammen, verdrahten Sie zusammen") soll das Gewicht zwischen zwei verbundenen Neuronen erhöhen, wenn die Aktivierung von einem die erfolgreiche Aktivierung eines anderen auslöst. Neuronen haben ein kontinuierliches Aktivierungsspektrum. Zusätzlich können Neuronen Eingaben nichtlinear verarbeiten, anstatt direkte Stimmen zu abwägen.
Moderne neuronale Netzwerke modell komplexe Beziehungen zwischen Eingängen und Ausgaben und Muster finden in Daten. Sie können kontinuierliche Funktionen und sogar digitale logische Operationen lernen. Neuronale Netze können als eine Art von Art von betrachtet werden Mathematische Optimierung-Sie treten auf Gradientenabstieg auf einer mehrdimensionalen Topologie, die von erstellt wurde von Ausbildung das Netzwerk. Die häufigste Trainingstechnik ist die Backpropagation Algorithmus.[127] Sonstiges Lernen Techniken für neuronale Netze sind Hebbisch -Lernen ("Feuern zusammen, verdrahten Sie zusammen"), Gmdh oder Wettbewerbslernen.[128]
Die Hauptkategorien von Netzwerken sind acyclisch oder Feedforward Neural Networks (wo das Signal nur in eine Richtung verläuft) und Wiederkehrende neuronale Netze (die Feedback und kurzfristige Erinnerungen an frühere Eingabeereignisse ermöglichen). Zu den beliebtesten Feedforward -Netzwerken gehören Wahrnehmung, Mehrschichtwahrnehmung und radiale Basisnetzwerke.[129]
Tiefes Lernen
Tiefes Lernen[131] Verwendet mehrere Schichten von Neuronen zwischen den Eingaben und Ausgängen des Netzwerks. Die mehreren Schichten können nach dem Roheingang zunehmend höhere Merkmale auf höhere Ebene extrahieren. Zum Beispiel in Bildverarbeitung, niedrigere Schichten können Kanten identifizieren, während höhere Schichten die für einen Menschen relevanten Konzepte wie Ziffern oder Buchstaben oder Gesichter identifizieren können.[132] Deep Learning hat die Leistung von Programmen in vielen wichtigen Teilfeldern der künstlichen Intelligenz drastisch verbessert, einschließlich Computer Vision, Spracherkennung, Bildklassifizierung[133] und andere.
Deep Learning verwendet oft Faltungsnetzwerke für viele oder alle seine Schichten. In einer Faltungsschicht erhält jeder Neuron Eingaben nur aus einem eingeschränkten Bereich der vorherigen Schicht, der als Neuron bezeichnet wird Empfängliches Feld. Dies kann die Anzahl der gewichteten Verbindungen zwischen Neuronen erheblich verringern.[134] und schafft eine Hierarchie, die der Organisation des Tier visuellen Kortex ähnelt.[135]
In einem Wiederkehrendes neuronales Netzwerk Das Signal verbreitet sich mehr als einmal durch eine Schicht;[136] Somit ist ein RNN ein Beispiel für tiefes Lernen.[137] RNNs können von trainiert werden Gradientenabstieg,[138] So auch langfristige Gradienten, die wieder propagiert sind Verschwandungsgradientenproblem.[139] Das Langer kurzfristiger Speicher (LSTM) -Technik kann dies in den meisten Fällen verhindern.[140]
Spezialsprachen und Hardware
Es wurden spezialisierte Sprachen für künstliche Intelligenz entwickelt, wie z. Lispeln, Prolog, Tensorflow und viele andere. Für KI entwickelte Hardware umfasst KI -Beschleuniger und Neuromorphes Computer.
Anwendungen
Handlungsfelder
KI ist für jede intellektuelle Aufgabe relevant.[141] Moderne Techniken für künstliche Intelligenz sind allgegenwärtig und sind zu zahlreich, um sie hier aufzulisten.[142] Wenn eine Technik den Mainstream -Gebrauch erreicht, wird sie häufig nicht mehr als künstliche Intelligenz angesehen. Dieses Phänomen wird als das beschrieben AI -Effekt.[143]
In den 2010er Jahren waren AI -Anwendungen das Herzstück der kommerziell erfolgreichsten Computerbereiche und sind zu einem allgegenwärtigen Merkmal des täglichen Lebens geworden. KI wird in verwendet Suchmaschinen (wie zum Beispiel Google-Suche),Online -Anzeigen zielen,[144] Empfehlungssysteme (angeboten von Netflix, Youtube oder Amazonas), Fahren Online-Datenverkehr,[145][146] gezielte Werbung (Adsense, Facebook),Virtuelle Assistenten (wie zum Beispiel Siri oder Alexa),[147] Autonome Fahrzeuge (einschließlich Drohnen und selbstfahrende Autos),Automatische Sprachübersetzung (Microsoft -Übersetzer, Google Übersetzer),Gesichtserkennung (Apfel's Gesichtsausweis oder Microsoft's Tiefface),Bildbezeichnung (benutzt von Facebook, Apfel's iPhoto und Tick Tack) und Spamfilterung.
Es gibt auch Tausende erfolgreicher KI -Anwendungen, mit denen Probleme für bestimmte Branchen oder Institutionen gelöst werden können. Einige Beispiele sindEnergiespeicher,[148] Deepfakes,[149] Medizinische Diagnose, militärische Logistik oder Lieferkettenmanagement.
Spiele spielen ist seit den 1950er Jahren ein Test für die Stärke von AI. Tiefes Blau wurde das erste Computer-Schachspielsystem, das einen amtierenden Weltschach-Champion besiegte, Garry Kasparovam 11. Mai 1997.[150] Im Jahr 2011 in a Gefahr! Quizshow Freundschaftsspiel, IBM's Fragen Antwortsystem, Watsonbesiegte die beiden größten Gefahr! Champions, Brad Rutter und Ken Jenningsmit einem erheblichen Rand.[151] Im März 2016, Alphago gewann 4 von 5 Spielen von gehen in einem Match mit Go Champion Lee Sedol, der erste wird Computer Go-Playing -System, um einen professionellen Go -Player ohne zu schlagen Behinderte.[152] Andere Programme handhaben ab unvollkommene Information Spiele; wie für Poker auf übermenschlicher Ebene, Pluribus[q] und Cepheus.[154] Deepmind In den 2010er Jahren entwickelte eine "verallgemeinerte künstliche Intelligenz", die viele vielfältige lernen könnte Atari Spiele für sich.[155]
In 2020, Verarbeitung natürlicher Sprache Systeme wie die enormen GPT-3 (Damals mit weitem das größte künstliche neuronale Netzwerk) stimmten die menschliche Leistung bei bereits bestehenden Benchmarks ab, wenn auch ohne das System, das ein vernünftiges Verständnis des Inhalts der Benchmarks erreichte.[156] DeepMinds Alphafold 2 (2020) zeigten die Fähigkeit, in Stunden anstelle von Monaten die 3D -Struktur eines Proteins zu approximieren.[157] Andere Anwendungen sagen das Ergebnis von gerichtlichen Entscheidungen vor,[158] Kunst schaffen (wie Poesie oder Malerei) und Beweisen Sie mathematische Theoreme.
Im Jahr 2019, WIPO berichtete, dass KI der produktivste war aufkommende Technologie in Bezug auf die Anzahl der Patent Bewerbungen und gewährte Patente, die, die Internet der Dinge wurde in Bezug auf die Marktgröße als der größte der größte. Es folgte wiederum von Big Data Technologies, Robotics, KI, 3D -Druck und der fünften Generation mobiler Dienste (5G).[159] Seit der KI in den 1950er Jahren wurden von Innovatoren 340000 KI-bezogen AI -Patentantragsteller mit Universitäten oder öffentlichen Forschungsorganisationen, die die verbleibenden vier ausmachen.[160] Das Verhältnis von wissenschaftlichen Arbeiten zu Erfindungen ist von 8: 1 im Jahr 2010 auf 3: 1 im Jahr 2016 signifikant zurückgegangen, was auf eine Verschiebung von theoretischer Forschung zur Verwendung von AI -Technologien in kommerziellen Produkten und Dienstleistungen zurückzuführen ist. Maschinelles Lernen ist die dominante KI Computer Vision Die beliebteste funktionale Anwendung sein. KI-bezogene Patente offenbaren nicht nur KI-Techniken und -Anwendungen, sondern beziehen sich häufig auch auf ein Anwendungsfeld oder eine Branche. Im Jahr 2016 wurden zwanzig Anwendungsfelder identifiziert und in der Reihenfolge der Größenordnung einbezogen: Telekommunikation (15 Prozent), Transport (15 Prozent), Lebens- und medizinische Wissenschaften (12 Prozent) sowie persönliche Geräte, Computer- und Interaktion zwischen Mensch und Computer (11 Prozent) (11 Prozent) . Weitere Sektoren waren Bankgeschäfte, Unterhaltung, Sicherheit, Industrie und Fertigung, Landwirtschaft und Netzwerke (einschließlich sozialer Netzwerke, intelligente Städte und Internet der Dinge). IBM verfügt über das größte Portfolio von AI -Patenten mit 8.290 Patentanwendungen, gefolgt von Microsoft mit 5.930 Patentanwendungen.[160]
Legale Aspekte
Die Entscheidungen von AI werfen die Fähigkeiten auf, die Fragen der gesetzlichen Verantwortung und des Urheberrechtsstatus geschaffener Werke aufwirken. Diese Probleme werden in verschiedenen Gerichtsbarkeiten verfeinert.[161]
Philosophie
Künstliche Intelligenz definieren
Denken vs. Schauspiel: Der Turing -Test
Alan Turing schrieb 1950 "Ich schlage vor, die Frage zu berücksichtigen" Können Maschinen denken? "[162] Er riet zu ändern, ob eine Maschine "denkt", auf "ob es für Maschinen möglich ist, intelligentes Verhalten zu zeigen".[163] Das einzige, was sichtbar ist, ist das Verhalten der Maschine, daher spielt es keine Rolle, ob die Maschine ist bewusst, oder hat eine Geist, oder ob die Intelligenz nur eine "Simulation" ist und nicht "die reale Sache". Er bemerkte, dass wir diese Dinge auch über andere Menschen nicht kennen, sondern dass wir eine "höfliche Konvention" erweitern, die sie tatsächlich "denken". Diese Idee bildet die Grundlage des Turing -Tests.[164][r]
Menschlich handeln und intelligent handeln: intelligente Agenten
KI -Gründer John McCarthy sagte: "Künstliche Intelligenz ist per Definition nicht die Simulation der menschlichen Intelligenz".[166] Russell und Norvig Stimmen Sie zu und kritisieren Sie den Turing -Test. Sie schrieben: "Luftfahrttechnik Texte definieren das Ziel ihres Feldes nicht als Maschinen, die so genau fliegen wie genau wie Tauben dass sie andere Tauben täuschen können.'"[167] Andere Forscher und Analysten sind anderer Meinung und haben argumentiert, dass KI natürliche Intelligenz durch Studium simulieren sollte Psychologie oder Neurobiologie.[s]
Das intelligente Agent -Paradigma[169] definiert intelligentes Verhalten im Allgemeinen, ohne Bezug auf Menschen. Ein intelligenter Agent ist ein System, das seine Umgebung wahrnimmt und Maßnahmen ergriffen, die seine Erfolgschancen maximieren. Jedes System, das zielgerichtetes Verhalten hat Firmen, Biomes oder Nationen. Das intelligente Agent -Paradigma wurde in den neunziger Jahren weithin akzeptiert und dient derzeit als Definition des Feldes.[a]
Das Paradigma hat andere Vorteile für KI. Es bietet eine zuverlässige und wissenschaftliche Möglichkeit, Programme zu testen. Forscher können verschiedene Ansätze für isolierte Probleme direkt vergleichen oder sogar kombinieren, indem sie fragen, welcher Agent am besten eine bestimmte "Zielfunktion" maximiert. Es gibt ihnen auch eine gemeinsame Sprache, um mit anderen Feldern zu kommunizieren - wie z. Mathematische Optimierung (was in Bezug auf "Ziele" definiert ist) oder Wirtschaft (die die gleiche Definition eines "verwendet"rationaler Agent").[170]
Bewertung von Ansätzen an KI
Keine etablierte einheitliche Theorie oder Paradigma hat die KI -Forschung für den größten Teil seiner Geschichte geleitet.[t] Der beispiellose Erfolg des statistischen maschinellen Lernens in den 2010er Jahren in den Schatten stellte alle anderen Ansätze (so sehr, dass einige Quellen, insbesondere in der Geschäftswelt, den Begriff "künstliche Intelligenz" verwenden, um "maschinelles Lernen mit neuronalen Netzwerken" zu bedeuten). Dieser Ansatz ist meistens subsymbolisch, sauber, Sanft und eng (siehe unten). Kritiker argumentieren, dass diese Fragen möglicherweise von zukünftigen Generationen von AI -Forschern überarbeitet werden müssen.
Symbolische KI und ihre Grenzen
Symbolische KI (oder "Gofai"))[172] simulierte das auf hohe Ebene bewusste Denken, das Menschen verwenden, wenn sie Rätsel lösen, rechtliche Argumentation ausdrücken und Mathematik ausführen. Sie waren sehr erfolgreich bei "intelligenten" Aufgaben wie Algebra- oder IQ -Tests. In den 1960er Jahren schlugen Newell und Simon die Hypothese der physischen Symbolsysteme vor: "Ein physikalisches Symbolsystem hat das notwendige und ausreichende Mittel allgemein intelligenter Handlungen."[173]
Der symbolische Ansatz scheiterte jedoch düster bei vielen Aufgaben, die Menschen leicht lösen, z. B. das Lernen, das Erkennen eines Objekts oder ein gesundener Überzeugung. Moravecs Paradox ist die Entdeckung, dass hochrangige "intelligente" Aufgaben für KI leicht waren, aber niedrige "instinktive" Aufgaben waren äußerst schwierig.[174] Philosoph Hubert Dreyfus Ich hatte seit den 1960er Jahren argumentiert, dass menschliches Know -how von unbewussten Instinkten und nicht von bewusster Symbolmanipulation und von einem "Gefühl" für die Situation anstatt explizites symbolisches Wissen abhängt.[175] Obwohl seine Argumente verspottet und ignoriert worden waren, als sie zum ersten Mal präsentiert wurden, stimmte die KI -Forschung zu.[u][48]
Das Problem ist nicht gelöst: subsymbolisch Argumentation kann viele der gleichen unergründlichen Fehler machen, die die menschliche Intuition macht, wie z. Algorithmische Voreingenommenheit. Kritiker wie Noam Chomsky Die fortgesetzte Forschung zur symbolischen KI wird weiterhin notwendig sein, um allgemeine Intelligenz zu erreichen.[177][178] Zum Teil, weil die subsymbolische KI eine Entfernung von entfernt ist Erklärbare AI: Es kann schwierig oder unmöglich sein zu verstehen, warum ein modernes statistisches KI -Programm eine bestimmte Entscheidung getroffen hat.
Ordentlich gegen Scuffy
"Neats" hoffe, dass intelligentes Verhalten mit einfachen, eleganten Prinzipien beschrieben wird (wie z. Logik, Optimierung, oder Neuronale Netze). "Scuffies" erwarten, dass es notwendigerweise eine große Anzahl von nicht verwandten Problemen erfordert. Dieses Thema wurde aktiv in den 70er und 80er Jahren diskutiert,[179] Aber in den neunziger Jahren wurde mathematische Methoden und solide wissenschaftliche Standards zur Norm, ein Übergang, den Russell und Norvig als "Sieg der Nearts" bezeichneten.[180]
Weiches gegen hartes Computing
Eine nachweislich korrekte oder optimale Lösung zu finden ist unlösbar für viele wichtige Probleme.[47] Soft Computing ist eine Reihe von Techniken, einschließlich genetische Algorythmen, Fuzzy Logic und Neuronale Netze, die tolerant gegenüber Ungenauigkeit, Unsicherheit, teilweise Wahrheit und Annäherung sind. Soft Computing wurde in den späten 80ern eingeführt und die erfolgreichsten KI -Programme im 21. Jahrhundert sind Beispiele für Soft Computing mit Neuronale Netze.
Schmal gegen allgemeine KI
KI -Forscher sind aufgeteilt, ob sie die Ziele der künstlichen allgemeinen Intelligenz verfolgen sollen und Superintelligenz (allgemeine KI) direkt oder um so viele spezifische Probleme wie möglich zu lösen (enge KI) in der Hoffnung, dass diese Lösungen indirekt zu den langfristigen Zielen des Feldes führen werden[181][182] Allgemeine Intelligenz ist schwer zu definieren und schwer zu messen, und die moderne KI hat nachweisbarere Erfolge erzielt, indem sie sich auf bestimmte Probleme mit bestimmten Lösungen konzentrieren. Das experimentelle Unterfeld der künstlichen allgemeinen Intelligenz untersucht diesen Bereich ausschließlich.
Maschinenbewusstsein, Verstand und Verstand
Das Philosophie des Geistes weiß nicht, ob eine Maschine eine haben kann Geist, Bewusstsein und mentale Zuständein dem gleichen Sinne, wie es Menschen tun. Dieses Problem berücksichtigt eher die internen Erfahrungen der Maschine als ihr externes Verhalten. Die Mainstream -KI -Forschung betrachtet dieses Thema irrelevant, da sie die Ziele des Feldes nicht beeinflusst. Stuart Russell und Peter Norvig Beachten Sie, dass die meisten KI -Forscher "die [Philosophie der KI] nicht interessieren - solange das Programm funktioniert, ist es ihnen egal, ob Sie es eine Simulation der Intelligenz oder der echten Intelligenz nennen".[183] Die Frage ist jedoch für die Philosophie des Geistes von zentraler Bedeutung geworden. Es ist typischerweise auch die zentrale Frage in künstliche Intelligenz in der Fiktion.
Bewusstsein
David Chalmers identifizierte zwei Probleme beim Verständnis des Geistes, den er die "harten" und "einfachen" Probleme des Bewusstseins nannte.[184] Das einfache Problem besteht darin, zu verstehen, wie die Gehirn verarbeitet, Pläne und kontrolliert Verhalten. Das schwierige Problem ist es, zu erklären, wie das ist fühlt sich Oder warum es sich wie irgendetwas anfühlen sollte. Menschlich Informationsverarbeitung ist jedoch leicht zu erklären, menschlich Subjektive Erfahrung ist schwer zu erklären. Zum Beispiel ist es leicht, sich eine farbblinde Person vorzustellen, die gelernt hat zu identifizieren, welche Objekte in ihrem Sichtfeld rot sind, aber es ist nicht klar, was für die Person erforderlich wäre weiß, wie Rot aussieht.[185]
Computerationalismus und Funktionalismus
Computerationalismus ist die Position in der Philosophie des Geistes Dass der menschliche Geist ein Informationsverarbeitungssystem ist und dass das Denken eine Form des Computers ist. Der Computerationalismus argumentiert, dass die Beziehung zwischen Geist und Körper ähnlich oder identisch mit der Beziehung zwischen Software und Hardware ist und daher eine Lösung für die Mind-Body-Problem. Diese philosophische Position wurde von der Arbeit von KI -Forschern und kognitiven Wissenschaftlern in den 1960er Jahren inspiriert und wurde ursprünglich von Philosophen vorgeschlagen Jerry Fodor und Hilary Putnam.[186]
Philosoph John Searle charakterisierte diese Position als "Starke KI": "Der entsprechend programmierte Computer mit den richtigen Eingängen und Ausgängen hätte dadurch einen Verstand in genau dem gleichen Sinn, den Menschen Geist haben."[v] Searle kontert diese Behauptung mit seinem chinesischen Raumargument, der versucht zu zeigen, dass es immer noch keinen Grund gibt, auch wenn eine Maschine das menschliche Verhalten perfekt simuliert, dass sie auch einen Verstand hat.[189]
Roboterrechte
Wenn eine Maschine eine Verstand und eine subjektive Erfahrung hat, kann dies auch haben Empfindungsvermögen (die Fähigkeit zu fühlen), und wenn ja, könnte es auch leidenund so hätte es Anspruch auf bestimmte Rechte.[190] Alle hypothetischen Roboterrechte würden in einem Spektrum mit liegen Tierrechte und Menschenrechte.[191] Dieses Problem wurde in berücksichtigt Fiktion seit Jahrhunderten,[192] und wird jetzt von beispielsweise von Kalifornien berücksichtigt Institut für die ZukunftKritiker argumentieren jedoch, dass die Diskussion verfrüht ist.[193]
Zukunft
Superintelligenz
Eine Superintelligenz, Hyperintelligenz oder übermenschliche Intelligenz ist ein hypothetischer Agent, der die Intelligenz besitzen würde, die den des hellsten und begabtesten menschlichen Geistes weit übertrifft. Superintelligenz Kann sich auch auf die Form oder den Grad der Intelligenz beziehen, das von einem solchen Agenten besessen ist.[182]
Wenn recherchiert werden künstliche allgemeine Intelligenz Eine ausreichend intelligente Software produziert, kann sie möglicherweise neu programmieren und sich verbessern. Die verbesserte Software wäre noch besser darin, sich selbst zu verbessern, was dazu führt rekursive Selbstverbesserung.[194] Seine Intelligenz würde exponentiell in einem zunehmen Intelligenzxplosion und könnte Menschen dramatisch übertreffen. Science -Fiction -Schriftsteller Vernor Vinge nannte dieses Szenario die "Singularität".[195] Da es schwierig oder unmöglich ist, die Grenzen der Intelligenz oder die Fähigkeiten von Superintelligent -Maschinen zu kennen, ist die technologische Singularität ein Ereignis, über die Ereignisse unvorhersehbar oder sogar unergründlich sind.[196]
Roboterdesigner Hans Moravec, Cyberneticist Kevin Warwickund Erfinder Ray Kurzweil haben vorausgesagt, dass Menschen und Maschinen in Zukunft verschmolzen werden Cyborgs Das sind fähiger und mächtiger als beides. Diese Idee, Transhumanismus genannt, hat Wurzeln in Aldous Huxley und Robert Ettinger.[197]
Edward Fredkin argumentiert, dass "künstliche Intelligenz die nächste Stufe in der Evolution ist", eine Idee, die zuerst von vorgeschlagen wurde Samuel Butler's "Darwin unter den Maschinen"Bereits 1863 und durch erweitert von durch George Dyson in seinem gleichnamigen Buch im Jahr 1998.[198]
Risiken
Technologische Arbeitslosigkeit
In der Vergangenheit hat die Technologie eher zunehmend als die Gesamtbeschäftigung gesteigert, aber die Ökonomen erkennen an, dass "wir in Uncharted Territory" mit KI sind.[199] Eine Umfrage unter Ökonomen zeigte Uneinigkeit darüber Arbeitslosigkeit, aber sie sind sich im Allgemeinen einig, dass es ein Nettovorteil sein könnte, wenn Produktivität Gewinne sind umverteilt.[200] Subjektive Schätzungen des Risikos variieren stark; Zum Beispiel Michael Osborne und Carl Benedikt Frey Schätzen Sie 47% der US -amerikanischen Arbeitsplätze im "hohen Risiko" potenzieller Automatisierung, während ein OECD -Bericht nur 9% der US -amerikanischen Arbeitsplätze als "hohes Risiko" klassifiziert.[W][202]
Im Gegensatz zu früheren Automatisierungswellen können viele bürgerliche Jobs durch künstliche Intelligenz beseitigt werden. Der Ökonom stellt fest, dass "die Sorge, dass AI an Weißkragenjobs antworten könnte, was Dampfkraft während der industriellen Revolution mit den Arbeiten gemacht hat", ist "ernsthaft" wert.[203] Jobs mit extremem Risiko reichen von Paralegals bis hin zu Fast-Food-Köchen, während die Arbeitsnachfrage wahrscheinlich für Pflegeberufe zunehmen wird, die von der persönlichen Gesundheitsversorgung bis zum Geistlichen reichen.[204]
Schlechte Schauspieler und Waffen KI
KI bietet eine Reihe von Tools, die besonders nützlich sind für autoritär Regierungen: intelligent Spyware, Gesichtserkennung und Spracherkennung weit verbreitet zulassen Überwachung; Eine solche Überwachung erlaubt maschinelles Lernen zu klassifizieren potenzielle Feinde des Staates und können sie daran hindern, sich zu verstecken; Empfehlungssysteme kann genau zielen Propaganda und Fehlinformation für maximale Wirkung; Deepfakes Unterstützung bei der Erzeugung von Fehlinformationen; Fortgeschrittene KI kann machen Zentralisierte Entscheidungsfindung wettbewerbsfähiger mit liberalen und dezentralen Systemen wie Märkten.[205]
Terroristen, Kriminelle und Schurkenstaaten können andere Formen von Waffen KI wie Fortgeschrittene verwenden Digitale Kriegsführung und tödliche autonome Waffen. Bis 2015 wurde berichtet, dass über fünfzig Länder Battlefield -Roboter untersucht.[206]
Maschinenlernende KI ist auch in der Lage, innerhalb weniger Stunden Zehntausende von giftigen Molekülen zu entwerfen.[207]
Algorithmische Voreingenommenheit
KI-Programme können nach dem Lernen aus realen Daten voreingenommen werden. Es wird normalerweise nicht von den Systemdesignern eingeführt, sondern vom Programm gelernt, und daher sind sich die Programmierer oft nicht bewusst, dass die Verzerrung existiert.[208] Die Verzerrung kann durch den Weg versehentlich eingeführt werden Trainingsdaten ist ausgewählt.[209] Es kann auch auftauchen aus Korrelationen: AI ist gewohnt klassifizieren Einzelpersonen in Gruppen und dann Vorhersagen unter der Annahme, dass die Person anderen Mitgliedern der Gruppe ähnelt. In einigen Fällen kann diese Annahme unfair sein.[210] Ein Beispiel dafür ist Compas, ein kommerzielles Programm, das weit verbreitet von US -Gerichte Beurteilung der Wahrscheinlichkeit von a Beklagte ein ... werden Rückfall. ProPublica behauptet, dass das mit Compas zugewiesene Rückfallrisiko der schwarzen Angeklagten weitaus häufiger überschätzt wird als das von weißen Angeklagten, obwohl dem Programm nicht den Rassen der Angeklagten mitgeteilt wurde.[211] Andere Beispiele, bei denen algorithmische Vorspannungen zu unfairen Ergebnissen führen können, sind, wenn AI für verwendet wird Kreditbeurteilung oder Einstellung.
Auf seiner Konferenz 2022 über Fairness, Rechenschaftspflicht und Transparenz (ACM Facct 2022) die Verband für Rechenmaschinen, in Seoul, Südkorea, präsentierte und veröffentlichte Ergebnisse, die empfehlen, dass KI- und Robotiksysteme als frei von Voreingenommenheitsfehlern nachgewiesen werden, sie sind unsicher und die Verwendung selbstlernender neuronaler Netzwerke, die auf riesigen, unregulierten Quellen fehlerhafter Internetdaten geschult sollten, sollten sich ausgebildet. verkürzt werden.[212]
Existenzielles Risiko
Superintelligent KI kann sich möglicherweise so weit verbessern, dass die Menschen es nicht kontrollieren konnten. Dies könnte als Physiker Stephen Hawking setzt es ","buchstabieren Sie das Ende der Menschheit".[213] Philosoph Nick Bostrom argumentiert, dass ausreichend intelligentes KI, wenn sie Handlungen basierend auf dem Erreichen eines Ziels auswählt, ausstellen wird konvergent Verhalten wie das Erwerb von Ressourcen oder das Schutz vor der Herstellung. Wenn die Ziele dieser KI die Menschheit nicht vollständig widerspiegeln, muss es möglicherweise die Menschheit schaden, mehr Ressourcen zu erwerben oder sich daran zu hindern, geschlossen zu werden, um ihr Ziel besser zu erreichen. Er kommt zu dem Schluss, dass KI ein Risiko für die Menschheit darstellt, wie bescheiden oder "auch"freundlich"Die angegebenen Ziele könnten sein.[214] Politikwissenschaftler Charles T. Rubin argumentiert, dass "jede ausreichend fortgeschrittene Wohlwollen nicht von Böswilligkeit zu unterscheiden sein kann". Menschen sollten nicht annehmen, Maschinen oder Roboter würden uns günstig behandeln, weil es keine gibt a priori Grund zu der Annahme, dass sie unser Moralsystem teilen würden.[215]
Die Meinung von Experten und Branchenkennern ist gemischt, mit beträchtlichen Brüchen, die sowohl betreffend als auch nicht besorgt durch das Risiko einer übermenschlich-fähigen KI betroffen sind.[216] Stephen Hawking, Microsoft Gründer Bill Gates, Geschichtsprofessor Yuval Noah Harari, und SpaceX Gründer Elon Moschus haben alle ernsthafte Bedenken über die Zukunft der KI zum Ausdruck gebracht.[217] Prominente Tech -Titanen einschließlich Peter Thiel (Amazon Web Services) und Musk haben mehr als 1 Milliarde US -Dollar an gemeinnützige Unternehmen verpflichtet Openai und die Future of Life Institute.[218] Mark Zuckerberg (CEO, Facebook) hat gesagt, dass künstliche Intelligenz in seiner aktuellen Form hilfreich ist und weiterhin Menschen unterstützen wird.[219] Andere Experten argumentieren, dass die Risiken in Zukunft weit genug sind, um nicht recherchiert zu sein oder dass Menschen aus der Perspektive einer Superintelligentenmaschine wertvoll sein werden.[220] Rodney BrooksInsbesondere hat gesagt, dass die "böswillige" KI noch Jahrhunderte entfernt ist.[x]
Ethische Maschinen
Freundliche KI sind Maschinen, die von Anfang an entworfen wurden, um Risiken zu minimieren und Entscheidungen zu treffen, die Menschen zugute kommen. Eliezer Yudkowsky, der den Begriff geprägt hat, argumentiert, dass die Entwicklung einer freundlichen KI eine höhere Forschungspriorität haben sollte: Es kann eine große Investition erfordern und muss abgeschlossen werden, bevor die KI zu einem existenziellen Risiko wird.[222]
Maschinen mit Intelligenz haben das Potenzial, ihre Intelligenz zu nutzen, um ethische Entscheidungen zu treffen. Das Gebiet der Maschinenethik bietet Maschinen ethische Prinzipien und Verfahren zur Lösung ethischer Dilemmata.[223] Maschinenethik wird auch genannt Maschinenmoral, Rechenethik oder rechnerische Moral,[223] und wurde bei einem gegründet Aaai Symposium im Jahr 2005.[224]
Andere Ansätze sind Wendell Wallach"künstliche moralische Agenten"[225] und Stuart J. Russell's Drei Prinzipien zur Entwicklung nachdenklich vorteilhafter Maschinen.[226]
Verordnung
Die Regulierung künstlicher Intelligenz ist die Entwicklung der Richtlinien und Gesetze des öffentlichen Sektors zur Förderung und Regulierung der künstlichen Intelligenz (KI); Es hängt daher mit der breiteren Regulation von Algorithmen zusammen.[227] Die regulatorische und politische Landschaft für KI ist ein aufstrebendes Thema in Gerichtsbarkeiten weltweit.[228] Zwischen 2016 und 2020 verfolgten mehr als 30 Länder engagierte Strategien für KI.[44] Die meisten EU -Mitgliedstaaten hatten nationale KI -Strategien veröffentlicht, ebenso wie Kanada, China, Indien, Japan, Mauritius, die Russische Föderation, Saudi -Arabien, die Vereinigten Arabischen Emirate, die USA und Vietnam. Andere waren dabei, ihre eigene KI -Strategie auszuarbeiten, einschließlich Bangladesch, Malaysia und Tunesien.[44] Das Globale Partnerschaft zur künstlichen Intelligenz wurde im Juni 2020 ins Leben gerufen, in dem die KI gemäß den Menschenrechten und demokratischen Werten erforderlich ist, um das Vertrauen und Vertrauen der Öffentlichkeit in die Technologie zu gewährleisten.[44] Henry Kissinger, Eric Schmidt, und Daniel Huttenlocher veröffentlichte im November 2021 eine gemeinsame Erklärung, in der eine Regierungskommission zur Regulierung der KI gefordert wurde.[229]
In der Fiktion
Nachdenkliche künstliche Wesen sind seit der Antike als Storytelling-Geräte aufgetreten,[15] und waren ein anhaltendes Thema in Science-Fiction.[17]
Eine gemeinsame Trope in diesen Werken begann mit mit Mary Shelley's Frankenstein, wo eine menschliche Schöpfung zu einer Bedrohung für ihre Meister wird. Dies beinhaltet Arbeiten wie Arthur C. Clarkes und Stanley Kubricks 2001: Ein Weltraum -Odyssey (beide 1968) mit Hal 9000, der mörderische Computer, der für die verantwortlich ist Entdeckung eins Raumschiff sowie Der Terminator (1984) und Die Matrix (1999). Im Gegensatz dazu die seltenen loyalen Roboter wie Gort von Der Tag an dem die Erde still stand (1951) und Bischof von Aliens (1986) sind in der Populärkultur weniger prominent.[230]
Isaac asimov stellte die vor Drei Gesetze der Robotik In vielen Büchern und Geschichten, insbesondere in der "Multivac" -Serie über einen super-intelligenten Computer, der den gleichnamigen gleichnamigen ist. Die Gesetze von Asimov werden häufig während der Laiendiskussion über Maschinenethik erzogen.[231]Während fast alle Forscher für künstliche Intelligenz durch die Gesetze von Asimov durch Populärkultur vertraut sind, betrachten sie die Gesetze aus vielen Gründen im Allgemeinen nutzlos, von denen eine ihre Unklarheit ist.[232]
Transhumanismus (Die Verschmelzung von Menschen und Maschinen) wird in der untersucht Manga Geist in der Muschel und die Science-Fiction-Serie Düne.
Mehrere Arbeit Die Fähigkeit zu fühlenund damit zu leiden. Dies erscheint in Karel čapek's R.U.R., die Filme A.I. Künstliche Intelligenz und Ex machinasowie der Roman Träumen Androiden von elektrischen Schafen?, durch Philip K. Dick. Dick betrachtet die Idee, dass unser Verständnis der menschlichen Subjektivität durch Technologie verändert wird, die mit künstlicher Intelligenz geschaffen wurden.[233]
Wissenschaftliche Diplomatie
Krieg
Wenn sich Technologie und Forschung entwickeln und die Welt nach Schießpulver und Atomwaffen in die dritte Revolution des Krieges eintreten, ist die künstliche Intelligenzwettbewegung Es folgt zwischen den USA, China und Russland, drei Länder mit den fünf besten Militärbudgets der Welt.[234] Absichten, bis 2030 weltweit führend in der KI -Forschung zu sein[235] wurden von Chinas Führer Xi Jinping erklärt, und Präsident Putin von Russland hat erklärt, dass "derjenige, der zum Führer in diesem Bereich wird, zum Herrscher der Welt wird".[236] Wenn Russland führend in der KI -Forschung wird, hat Präsident Putin die Absicht Russlands erklärt, einen Teil ihrer Forschung mit der Welt zu teilen, um das Feld nicht zu monopolisieren.[236] Ähnlich wie bei der Aufrechterhaltung der Kerntechnologien, die die Beziehungen der Wissenschaftsdiplomatie aufrechterhalten. Die Vereinigten Staaten, China und Russland sind einige Beispiele für Länder, die sie genommen haben Haltung gegenüber militärischer künstlicher Intelligenz Seit 2014, nachdem sie Militärprogramme zur Entwicklung von Cyberwaffen, kontrollieren tödliche autonome Waffen und Drohnen kontrollieren können, können dies sein zur Überwachung verwendet.
Russo-Ukrainischer Krieg
Präsident Putin kündigte an, dass künstliche Intelligenz die Zukunft für die gesamte Menschheit ist [236] und erkennt die Macht und Chancen an, die die Entwicklung und den Einsatz tödlicher autonomer Waffen -KI -Technologie in Kriegsführung und Heimatschutz sowie deren Bedrohungen aufnehmen kann. Die Vorhersage von Präsident Putins, dass zukünftige Kriege mit AI geführt werden Russland fiel am 24. Februar 2022 in die Ukraine ein. Das ukrainische Militär nutzt das türkische Bayraktar TB2-DRONES[237] Dies erfordern immer noch den menschlichen Betrieb, um lasergesteuerte Bomben einzusetzen, kann aber autonom abheben, landen und kreuzen. Die Ukraine hat auch verwendet Switchblade -Drohnen von den USA geliefert und erhält Informationen, die von den eigenen Überwachungsoperationen der Vereinigten Staaten in Bezug auf den Battlefield Intelligence und die nationale Sicherheit in Bezug auf Russland gesammelt wurden.[238] In ähnlicher Weise kann Russland mit KI bei der Analyse von Schlachtfelddaten aus Überwachungsmaterial von Drohnen helfen. Berichte und Bilder zeigen, dass das Russlands Militär Kubbla-Selbstmorddrohnen eingesetzt hat [239] in die Ukraine mit Absichtenspekulationen, den ukrainischen Präsidenten zu ermorden Volodymyr Zelenskyy.
Kriegsführung
Wenn die Forschung im KI -Bereich weitergeht, gibt es Rückschläge gegen die Verwendung von KI von der Kampagne, um Killerroboter zu stoppen und World Technology Leaders haben eine Petition gesendet[240] an die Vereinten Nationen, die neue Vorschriften zur Entwicklung und Verwendung von AI -Technologien im Jahr 2017 fordern, einschließlich eines Verbots der Verwendung von tödliche autonome Waffen aufgrund ethischer Bedenken für unschuldige zivile Bevölkerung.
Internet-Sicherheit
Mit den sich ständig weiterentwickelnden Cyber-Angriffen und der Erzeugung von Geräten kann KI zur Erkennung von Bedrohungen und zur effektiveren Reaktion durch Risikopriorisierung verwendet werden. Mit diesem Tool werden auch einige Herausforderungen vorgestellt, wie z. B. Privatsphäre, Einverständniserklärung und verantwortungsbewusstes Gebrauch.[241] Entsprechend CisaDer Cyberspace ist für die folgenden Faktoren schwer zu sichern: die Fähigkeit böswilliger Akteure, von überall auf der Welt zu operieren, die Verbindungen zwischen Cyberspace und physikalischen Systemen und die Schwierigkeit, Schwachstellen und Konsequenzen in komplexen Cyber -Netzwerken zu verringern.[242] Mit den erhöhten technologischen Fortschritten der Welt steigt das Risiko für weite Konsequenzen. Paradoxerweise lebt die Fähigkeit, Informationen zu schützen und eine Kommunikation zwischen der wissenschaftlichen und diplomatischen Gemeinschaft zu schaffen. Die Rolle der Cybersicherheit in der Diplomatie ist immer relevanter geworden und schafft den Begriff von Cyber -Diplomatie - was nicht einheitlich definiert ist und nicht gleichbedeutend ist mit Cyber -Verteidigung.[243] Viele Nationen haben einzigartige Ansätze zur wissenschaftlichen Diplomatie im Cyberspace entwickelt.
Ansatz der Tschechischen Republik
Stammen aus dem Jahr 2011, wenn der Tschechisch Nationale Sicherheitsbehörde (NSA) wurde zur nationalen Behörde für die Cyber -Agenda ernannt. Die Rolle der Cyber -Diplomatie wurde 2017 verstärkt, als die Tschechisches Außenministerium (MFA) entdeckte eine ernsthafte Cyber -Kampagne, die gegen ihre eigenen Computernetzwerke gerichtet war.[244] Im Jahr 2016 wurden drei Cyber -Diplomaten nach Washington, DC, Brüssel und Tel Aviv eingesetzt, um die aktive internationale Zusammenarbeit auf die Einbeziehung mit dem auszurichten EU und NATO. Die Hauptagenda für diese wissenschaftlichen Diplomatie -Bemühungen besteht darin, die Forschung über künstliche Intelligenz zu stärken und wie sie in der Cybersicherheitsforschung, der Entwicklung und des allgemeinen Vertrauens des Verbrauchers eingesetzt werden kann.[245] Tschechinvest ist ein wichtiger Stakeholder für wissenschaftliche Diplomatie und Cybersicherheit. Zum Beispiel organisierten sie im September 2018 im September 2018 eine Mission nach Kanada mit einem besonderen Schwerpunkt auf künstliche Intelligenz. Das Hauptziel dieser besonderen Mission war eine Werbemaßnahme im Namen von Prag und versuchte, sie als zukünftige Wissenszentrum für die Branche für interessierte kanadische Unternehmen zu etablieren.[246]
Deutschlands Ansatz
Die Cybersicherheit wird als staatliche Aufgabe anerkannt, die sich in drei Verantwortungsdienste unterteilt: das Bundesministerium des Innenraums, das Bundesministerium für Verteidigungsministerium und das Bundesauswärtige Amt.[247] Diese Unterschiede förderten die Schaffung verschiedener Institutionen, wie dem deutschen Nationalen Amt für Informationssicherheit, dem National Cyberdefence Center, dem deutschen National Cyber Security Council und dem Cyber- und Informationsdomänendienst.[245] Im Jahr 2018 wurde von der deutschen Regierung eine neue Strategie für künstliche Intelligenz mit der Schaffung eines deutsch-französischen virtuellen Forschungs- und Innovationsnetzwerks errichtet.[248] Halten Sie die Möglichkeit zur Forschungsausdehnung in die Cybersicherheit.
Ansatz der Europäischen Union
Die Annahme von Die Cybersicherheitsstrategie der Europäischen Union - ein offener, sicherer Cyberspace Dokument im Jahr 2013 der Europäischen Kommission[245] Die Bemühungen zur Cybersicherheit integriert in die wissenschaftliche Diplomatie und künstliche Intelligenz. Die Anstrengungen sind stark, da die EU verschiedene Programme und Institutionen finanziert, um Wissenschaft in die Diplomatie zu bringen und Diplomatie in die Wissenschaft zu bringen. Einige Beispiele sind die Cyber Security Program Competence Research Innovation (Concordia), die 14 Mitgliedstaaten zusammenbringt.[249] Cybersicherheit für Europa (CSE)- was 43 Partner mit 20 Mitgliedstaaten zusammenbringt.[250] Darüber hinaus versammelt sich das europäische Netzwerk von Cybersicherheitszentren und Kompetenz -Hub für Innovation and Operations (Echo) 30 Partner mit 15 Mitgliedstaaten[251] und Sparta versammelt 44 Partner, an denen 14 Mitgliedstaaten beteiligt sind.[252] Diese Bemühungen spiegeln die allgemeinen Ziele der EU wider, die Cybersicherheit für Verteidigung und Schutz zu innovieren, einen hochintegrierten Cyberspace zwischen vielen Nationen zu schaffen und weiter zur Sicherheit künstlicher Intelligenz beizutragen.[245]
Russo-Ukrainischer Krieg
Mit der Invasion der Ukraine 2022 hat die böswillige Cyber -Aktivitäten gegen die Vereinigten Staaten zugenommen.[253] Ukraine und Russland. Eine herausragende und seltene dokumentierte Verwendung künstlicher Intelligenz im Konflikt ist im Namen der Ukraine, wobei die Gesichtserkennungssoftware verwendet wird, um russische Angreifer aufzudecken und die im laufenden Krieg getöteten Ukrainer zu identifizieren.[254] Obwohl sich diese Regierungszahlen nicht in erster Linie auf wissenschaftliche und Cyber -Diplomatie konzentrieren, kommentieren andere Institutionen die Verwendung künstlicher Intelligenz in der Cybersicherheit mit diesem Fokus. Zum Beispiel hat das Cyber-AI-Projekt der Georgetown University (Center for Security and Emerging Technology) das Cyber-AI-Projekt, mit dem ein Ziel darin besteht ) Algorithmen.[255] Diese Sicherheitsanfälligkeit kann eine plausible Erklärung sein, warum Russland nicht in die Verwendung von KI in Konflikten pro Konflikt eingesetzt wird. Andrew Lohn, ein Senior Fellow bei Cset. Neben der Verwendung auf dem Schlachtfeld wird AI vom Pentagon verwendet, um Daten aus dem Krieg zu analysieren, und analysiert, um die Cybersicherheit und den Kriegsunternehmen für die Vereinigten Staaten zu stärken.[238][256]
Wahlsicherheit
Wenn künstliche Intelligenz wächst und die überwältigende Menge an Nachrichten, die durch Cyberspace dargestellt werden, erweitert, wird es für einen Wähler äußerst überwältigend, zu wissen, was er glauben soll. Es gibt viele intelligente Codes, die als Bots bezeichnet werden und die Menschen in den sozialen Medien mit dem Ziel der Verbreitung von Miss -Informationen geschrieben haben.[257] Die Wahl 2016 ist ein Opfer solcher Aktionen. Während der Hillary Clinton und Donald Trump Kampagne, künstliche intelligente Bots aus Russland verbreiteten Fehlinformationen über die Kandidaten, um der Trump -Kampagne zu helfen.[258] Analysten kamen zu dem Schluss, dass ungefähr 19% von Twitter Es wurde festgestellt, dass Tweets auf die Wahlen 2016 von Bots stammen.[258] Youtube In den letzten Jahren wurde auch politische Informationen verbreitet. Obwohl es keinen Beweis dafür gibt, dass die Plattform versucht, die Meinungen der Zuschauer zu manipulieren, empfiehlt der YouTubes -AI -Algorithmus Videos mit ähnlicher Vielfalt.[259] Wenn eine Person zu recherchieren beginnt rechter Flügel Politische Podcasts, dann empfehlen YouTube's Algorithmus mehr rechte Videos.[260] Der Aufstand in einem Programm namens namens DeepfakeEine Software, mit der das Gesicht und die Worte eines Menschen verwendet werden, hat auch ihre potenzielle Bedrohung gezeigt. 2018 ein DeepFake -Video von Barack Obama wurde freigelassen und sagte, er habe behauptet, nie gesagt zu haben.[261] Während einer nationalen Wahl wird eine DeepFake schnell entlarvt, hat die Software die Möglichkeit, eine kleinere lokale Wahl stark zu beeinflussen. Dieses Tool bietet ein großes Potenzial für die Verbreitung von Fehlinformationen und wird mit großer Aufmerksamkeit überwacht.[262]Obwohl es als Tool für Schaden angesehen werden kann, kann KI auch die Wahlkampagnen verbessern. AI -Bots können programmiert werden, um Artikel mit bekannter Fehlinformation zu zielen. Die Bots können dann angeben, was falsch informiert wird, um Licht auf die Wahrheit zu leuchten. KI kann auch verwendet werden, um eine Person zu informieren, wo jeder Teile zu einem bestimmten Thema steht wie z. Gesundheitspflege oder Klimawandel.[263] Die politischen Führer einer Nation haben starke Einfluss auf internationale Angelegenheiten. Somit kann ein politischer Führer mit einem Mangel an Interesse für den internationalen kollaborativen wissenschaftlichen Fortschritt negative Auswirkungen auf die wissenschaftliche Diplomatie dieser Nation haben[264]
Zukunft der Arbeit
Gesichtserkennung
Die Verwendung künstlicher Intelligenz (KI) ist subtil zu einem Teil des Alltags geworden. Es wird jeden Tag in verwendet Gesichtserkennung Software. Es ist das erste Maß für die Sicherheit für viele Unternehmen in Form einer biometrischen Authentifizierung. Diese Authentifizierungsmittel ermöglicht es auch den offiziellsten Organisationen wie dem Internal Revenue Service der Vereinigten Staaten, die Identität einer Person zu überprüfen [265] über eine Datenbank, die aus maschinellem Lernen generiert wird. Ab dem Jahr 2022 verlangt die United States IRS, dass diejenigen, die kein Live -Interview mit einem Agenten durchführen, eine biometrische Überprüfung ihrer Identität über das Gesichtserkennungsinstrument von ID.ME durchführen.[265]
KI und Schule
In Japan und Südkorea wird die künstliche Intelligenz -Software in der Anweisung englischer Sprache über das Unternehmen RIIID verwendet.[266] RIIID ist ein koreanisches Bildungsunternehmen, das neben Japan zusammenarbeitet, um den Schülern die Möglichkeit zu geben, ihre englischen Kommunikationsfähigkeiten zu erlernen und zu nutzen, indem sie sich in einem Live -Chat mit künstlicher Intelligenz beschäftigen.[266] RIID ist nicht das einzige Unternehmen, das dies tut. Eine amerikanische Firma wie z. Duolingo ist sehr bekannt für den automatisierten Unterricht von 41 Sprachen. BabbelEin deutsches Sprachlernprogramm verwendet auch künstliche Intelligenz in seiner Lehrautomatisierung, sodass europäische Schüler wichtige Kommunikationsfähigkeiten erlernen können, die in sozialen, wirtschaftlichen und diplomatischen Umgebungen benötigt werden. Künstliche Intelligenz wird auch die Routineaufgaben automatisieren, die Lehrer erledigen müssen, z. B. die Bewertung, die Teilnahme und den Umgang mit routinemäßigen Studentanfragen.[267] Auf diese Weise kann der Lehrer die Komplexität des Unterrichts fortsetzen, die eine automatisierte Maschine nicht verarbeiten kann. Dazu gehört das Erstellen von Prüfungen, das Erklären komplexer Materialien auf eine Weise, die den Schülern einzeln zugute kommt und einzigartige Fragen der Schüler bearbeitet.
KI und Medizin
Im Gegensatz zum menschlichen Gehirn, das über eine generalisierte Intelligenz verfügt, kann die spezialisierte Intelligenz der KI international als Mittel zur Unterstützung von Ärzten dienen. Das medizinische Bereich verfügt über eine vielfältige und tiefgreifende Datenmenge, in der AI eine prädiktive Diagnose erstellen kann. Forscher eines Oxford -Krankenhauses haben künstliche Intelligenz entwickelt, die Herz -Scans für Herzerkrankungen und Krebs diagnostizieren können.[268] Diese künstliche Intelligenz kann winzige Details in den Scans aufnehmen, die Ärzte möglicherweise vermissen. Daher wird künstliche Intelligenz in der Medizin die Branche verbessern und den Ärzten die Möglichkeit geben, ihre Patienten mithilfe der verfügbaren Tools genau zu diagnostizieren. Die Algorithmen für künstliche Intelligenz werden auch verwendet, um die Diagnose im Laufe der Zeit weiter zu verbessern, indem maschinelles Lernen bezeichnet wird, die als Präzisionsmedizin bezeichnet werden.[269] Darüber hinaus kann die enge Anwendung künstlicher Intelligenz gebrauchen. "tiefes Lernen"Um die medizinische Bildanalyse zu verbessern. In der Radiologie -Bildgebung verwendet AI Deep -Lern -Algorithmen, um potenziell krebsartige Läsionen zu identifizieren, was ein wichtiger Prozess ist, der bei der frühzeitigen Diagnose hilft.[270]
KI im Geschäft
Datenanalyse ist eine grundlegende Eigenschaft der künstlichen Intelligenz, die es ermöglicht, in jeder Facette des Lebens von Suchergebnissen bis hin zur Art und Weise, wie Menschen Produkt kaufen, verwendet zu werden. Laut Newvantage Partners,[271] Über 90% der Top -Unternehmen haben laufende Investitionen in künstliche Intelligenz. Laut IBM, einem der weltweit führenden Technologieführer, haben 45% der Befragten von Unternehmen mit über 1.000 Mitarbeitern KI verabschiedet.[272] Jüngste Daten zeigen, dass der Geschäftsmarkt [273] Für künstliche Intelligenz im Jahr 2020 wurde ein Wert von 51,08 Milliarden US -Dollar bewertet. Der Geschäftsmarkt für künstliche Intelligenz wird bis zum Jahr 2028 voraussichtlich über 640,3 Milliarden US -Dollar liegen.[273] Um Schaden zu verhindern, müssen KI-Abläufe Organisationen eine zentrale Rolle bei der Schaffung und Bereitstellung einer vertrauenswürdigen KI im Einklang mit den Prinzipien der vertrauenswürdigen KI spielen.[274] und verantwortlich machen, um die Risiken zu mildern.[275]
Geschäft und Diplomatie
Mit dem exponentiellen Anstieg der künstlichen Technologie und Kommunikation war die Verteilung der eigenen Ideale und Werte im täglichen Leben erkennbar. Digitale Informationen werden über Kommunikations -Apps wie WhatsApp, Facebook/Meta, Snapchat, Instagram und Twitter verbreitet. Es ist jedoch bekannt, dass diese Standorte spezifische Informationen vermitteln, die der Datenanalyse entsprechen. Wenn eine rechtflügelte Person eine Google-Suche durchführen würde, würden die Algorithmen von Google auf diese individuellen und weiteren Daten für diese Zielgruppe abzielen. US -Präsident Bill Clinton stellte im Jahr 2000 fest: "Im neuen Jahrhundert wird Liberty auf Handy- und Kabelmodem verbreitet. [...] Wir wissen, wie sehr das Internet Amerika verändert hat, und wir sind bereits eine offene Gesellschaft.[276] Wenn der private Sektor jedoch künstliche Intelligenz verwendet, um Daten zu sammeln, kann eine Verschiebung der Macht vom Staat zum privaten Sektor gesehen werden. Diese Machtverschiebung, insbesondere in großen technologischen Unternehmen, könnte die Funktionsweise der Diplomatie in der Gesellschaft zutiefst verändern. Der Anstieg der digitalen Technologie und die Verwendung künstlicher Technologie ermöglichte es dem privaten Sektor, immense Daten über die Öffentlichkeit zu sammeln, die dann nach Rasse, Standort, Alter, Geschlecht usw. kategorisiert werden.[277] Die New York Times berechnet, dass "die zehn größten Technologieunternehmen, die Gatekeeper in Handel, Finanzen, Unterhaltung und Kommunikation geworden sind, jetzt eine kombinierte Marktkapitalisierung von mehr als 10 Billionen US Die drittgrößte Volkswirtschaft der Welt. "[278] Über die allgemeine Lobbyarbeit von Kongressabgeordneten/Kongresswomen hinaus verwenden Unternehmen wie Facebook/Meta oder Google gesammelte Daten, um ihre beabsichtigten Zielgruppen mit gezielten Informationen zu erreichen.[278]
KI und Außenpolitik
Mehrere Nationen auf der ganzen Welt beschäftigen künstliche Intelligenz, um ihre außenpolitischen Entscheidungen zu unterstützen. Das chinesische Ministerium für externe Sicherheitsangelegenheiten - im Rahmen des Außenministeriums - verwendet KI, um fast alle ausländischen Investitionsprojekte zur Risikominderung zu überprüfen.[279] Die Regierung von China plant, künstliche Intelligenz in ihrem globalen Entwicklungsplan in Höhe von 900 Milliarden US -Dollar zu nutzen, der als "Gürtel- und Straßeninitiative" für politische, wirtschaftliche und ökologische Risiko -Linderung bezeichnet wird.[280]
Über 200 Anwendungen künstlicher Intelligenz werden von über 46 Agenturen der Vereinten Nationen in Sektoren verwendet, die von Gesundheitsversorgung reichen, die mit Problemen wie der Bekämpfung von Covid-19 bis hin zu intelligenter Landwirtschaft reichen, bis zur Unterstützung der UN in politischen und diplomatischen Beziehungen.[281] Ein Beispiel ist die Verwendung von KI durch das UN Global Pulse-Programm zur Modellierung der Ausbreitung von CoVID-19 auf intern vertriebene Personen (IDP) und Flüchtlingssiedlungen, um sie bei der Schaffung einer angemessenen globalen Gesundheitspolitik zu unterstützen.[282][283]
Neuartige KI-Tools wie Fernerkundung können auch von Diplomaten zum Sammeln und Analysieren von Daten sowie zur Verfolgung von Objekten wie Truppen oder Flüchtlingsbewegungen entlang der Grenzen in gewalttätigen Konfliktzonen verwendet werden.[282][284]
Künstliche Intelligenz kann verwendet werden, um wichtige diplomatische diplomatische Gespräche zu mildern, um Übersetzungsfehler zu verhindern, die durch menschliche Übersetzer verursacht werden.[285] Ein großes Beispiel sind die 2021 -Verankerungstreffen zwischen den USA und China, die darauf abzielen, die Außenbeziehungen zu stabilisieren, nur damit er den gegenteiligen Effekt hat und die Spannung und Aggressivität zwischen den beiden Nationen aufgrund von Übersetzungsfehlern erhöht, die durch menschliche Übersetzer verursacht wurden.[286] In dem Treffen, als der nationale Sicherheitsberater der Vereinigten Staaten von Präsident Joe Biden, Jacob Jeremiah Sullivan, erklärte: "Wir suchen keinen Konflikt, aber wir begrüßen den harten Wettbewerb und wir werden uns immer für unsere Prinzipien, für unsere Leute und für unsere Freunde einsetzen "Es wurde in Chinese misshandelt, als" wir werden konkurrenzten und unsere Haltung auf sehr klare Weise darstellen ", was der Rede einen aggressiven Ton hinzufügt.[286] Die Fähigkeit der KI zur schnellen und effizienten Verarbeitung natürlicher Sprache sowie in Echtzeitübersetzung und -Transliteration macht es zu einem wichtigen Instrument für die Kommunikation zwischen Fremdpolitik zwischen den Nationen und verhindert unbeabsichtigte Fehlübersetzungen.[287]
Siehe auch
- A.I. Steigend
- AI -Steuerungsproblem
- Künstliche Intelligenzwettbewegung
- Künstliche allgemeine Intelligenz
- Verhaltensauswahlalgorithmus
- Geschäftsprozessautomatisierung
- Fallbasierte Argumentation
- Bürgerwissenschaft
- Emergener Algorithmus
- Weibliche Gendering von AI -Technologien
- Glossar der künstlichen Intelligenz
- Roboterprozessautomatisierung
- Synthetische Intelligenz
- Universelles Grundeinkommen
- Schwache ai
Erläuternder Vermerk
- ^ a b Definition von AI als Studium von intelligente Agenten, gezeichnet aus führenden KI -Lehrbüchern.
- Poole, Mackworth & Goebel (1998, p. 1), die die in diesem Artikel verwendete Version bereitstellt. Diese Autoren verwenden den Begriff "Computational Intelligence" als Synonym für künstliche Intelligenz.
- Russell & Norvig (2003, p. 55) (wer bevorzugt den Begriff "rationaler Agent") und schreibt "Die Ganz-Agent-Ansicht ist jetzt weithin im Feld akzeptiert".
- Nilsson (1998)
- Legg & Hutter (2007)
- ^ Stuart Russell und Peter Norvig Charakterisieren Sie diese Definition als "menschlich denken" und lehnen Sie sie zugunsten von "rational handeln" ab.[1]
- ^ a b Diese Liste intelligenter Merkmale basiert auf den Themen, die von den wichtigsten KI -Lehrbüchern behandelt werden, darunter: Russell & Norvig (2003), Luger & Stubblefield (2004), Poole, Mackworth & Goebel (1998) und Nilsson (1998)
- ^ Diese Aussage stammt aus dem Vorschlag für die Dartmouth Workshop von 1956, in dem lautet: "Jeder Aspekt des Lernens oder eines anderen Merkmals der Intelligenz kann so genau beschrieben werden, dass eine Maschine dazu gebracht werden kann, sie zu simulieren."[13]
- ^ Russel und Norvig beachten im Lehrbuch Künstliche Intelligenz: Ein moderner Ansatz (4. Aufl.), Abschnitt 1.5: "Langfristig sind wir dem schwierigen Problem der Kontrolle von Superintelligenten -KI -Systemen, die sich auf unvorhersehbare Weise entwickeln können." während er sich auf Informatiker, Philosophen und Technologen bezieht.
- ^ Daniel Crevier schrieb: "Die Konferenz wird allgemein als offizielles Geburtsdatum der neuen Wissenschaft anerkannt."[23] Russell und Norvifg Nennen Sie die Konferenz "die Geburt künstlicher Intelligenz".[24]
- ^ Russell und Norvig schrieb: "In den nächsten 20 Jahren würde das Feld von diesen Menschen und ihren Schülern dominiert werden."[24]
- ^ Russell und Norvig schrieb "Es war erstaunlich, wenn ein Computer irgendetwas irgendetwas intelligent machte".[26]
- ^ Die beschriebenen Programme sind Arthur SamuelDas Checkers -Programm für die IBM 701, Daniel Bobrow's SCHÜLER, Newell und Simon's Logikheoretiker und Terry Winograd's Shrdlu.
- ^ Verkörpert Ansätze zur KI[36] wurden von Hans Moravec[37] und Rodney Brooks[38] und ging mit vielen Namen: Nouvelle ai,[38] Entwicklungsroboter,[39] gelegen AI, Verhaltensbasierte KI ebenso wie andere. Eine ähnliche Bewegung in der kognitiven Wissenschaft war die verkörperte Mind Thesis.
- ^ Clark schrieb: "Nach einem halben Jahrzehnt ruhigen Durchbrüche in der künstlichen Intelligenz war 2015 ein wegweisendes Jahr. Computer sind schlauer und lernen schneller als je zuvor."[10]
- ^ Alan Turing Erörterte die Zentralität des Lernens bereits 1950 in seinem klassischen Papier. "Computermaschinen und Intelligenz".[66] 1956 auf der ursprünglichen Dartmouth AI Summer Conference, Ray Solomonoff schrieb einen Bericht über unbeaufsichtigte probabilistische maschinelles Lernen: "Eine induktive Inferenzmaschine".[67]
- ^ Dies ist eine Form von Tom MitchellDie weithin zitierte Definition des maschinellen Lernens: "Ein Computerprogramm soll aus einer Erfahrung lernen E in Bezug auf eine Aufgabe T und einige Leistungsmaßnahmen P Wenn seine Leistung auf T gemessen von P verbessert sich mit Erfahrung E. "[68]
- ^ Alan Turing vorgeschlagen in ""Computermaschinen und Intelligenz"Das müsste eine" Denkmaschine "wie ein Kind ausgebildet werden.[66] Entwicklungsroboter ist eine moderne Version der Idee.[39]
- ^ Im Vergleich zur symbolischen Logik ist die formale Bayes'sche Inferenz rechenintensiv. Damit die Inferenz verwaltbar ist, müssen die meisten Beobachtungen sein bedingt unabhängig voneinander. Adsense Verwendet ein Bayes'sche Netzwerk mit über 300 Millionen Kanten, um zu erfahren, welche Anzeigen dienen sollen.[109]
- ^ Die Erwartungsmaximierung, eines der beliebtesten Algorithmen im maschinellen Lernen, ermöglicht das Clustering in Gegenwart Unbekannter latente Variablen.[111]
- ^ Das Smithsonian Berichte: "Pluribus hat Poker-Profis in einer Reihe von Sechs-Spieler-No-Limit-Texas Hold'em-Spielen besiegt und erreicht einen Meilenstein in der künstlichen Intelligenzforschung. Es ist der erste Bot, der Menschen in einem komplexen Mehrspielermodus-Wettbewerb schlägt."[153]
- ^ Die Unterscheidung zwischen "Schauspiel" und "Denken" ist darauf zurückzuführen Russell und Norvig.[165]
- ^ Die Unterscheidung zwischen "menschlich handeln" und "rational handeln" ist darauf zurückzuführen Russell und Norvig.[165] Pamela McCorduck schrieb im Jahr 2004, dass es "zwei Hauptzweige künstlicher Intelligenz gibt: einer darauf abzielte, intelligentes Verhalten zu erzeugen, unabhängig davon, wie es erreicht wurde, und der andere, um intelligente Prozesse zu modellieren, die in der Natur gefunden wurden, insbesondere menschliche".[168]
- ^ Nils Nilsson schrieb 1983: "Einfach ausgedrückt, es gibt eine breite Meinungsverschiedenheit in diesem Bereich darüber, worum es bei AI geht."[171]
- ^ Daniel Crevier schrieb: "Die Zeit hat die Genauigkeit und Wahrnehmung einiger Kommentare von Dreyfus bewiesen. Hätte er sie weniger aggressiv formuliert, konstruktive Maßnahmen, die sie vorgeschlagen haben könnten, könnten viel früher ergriffen worden sein."[176]
- ^ Searle präsentierte 1999 diese Definition von "starker KI".[187] Searles ursprüngliche Formulierung war "der angemessen programmierte Computer ist wirklich ein Verstand, in dem Sinne, dass Computer die richtigen Programme buchstäblich zu verstehen und andere kognitive Zustände zu haben können."[188] Starke KI wird ähnlich definiert durch Russell und Norvig: "Die Behauptung, dass Maschinen möglicherweise intelligent handeln könnten (oder vielleicht besser, handeln als ob Sie waren intelligent) wird von Philosophen als "schwache AI" -Hypothese bezeichnet, und die Behauptung, dass Maschinen, die dies tun, tatsächlich denken (im Gegensatz zum Simulieren von Denken), wird als "starke AI" -Hypothese bezeichnet. "[183]
- ^ Siehe Tabelle 4; 9% sind sowohl der OECD -Durchschnitt als auch der US -Durchschnitt.[201]
- ^ Rodney Brooks schreibt: "Ich denke, es ist ein Fehler, sich Sorgen darüber zu machen, dass wir in den nächsten paar hundert Jahren jederzeit bösartige KI entwickeln. Ich denke AI und die Ungeheuerlichkeit und Komplexität des Aufbaus von empfindungsfähigen, summen Intelligenz. "[221]
Zitate
- ^ Russell & Norvig (2021), p. 2.
- ^ Google (2016).
- ^ McCorduck (2004), p. 204.
- ^ Ashok83 (2019).
- ^ Schank (1991), p. 38.
- ^ Crevier (1993), p. 109.
- ^ a b c Finanzierungsinitiativen in den frühen 80ern: Projekt der fünften Generation (Japan), Alvey (VEREINIGTES KÖNIGREICH), Mikroelektronik- und Computertechnologieunternehmen (UNS), Strategische Computerinitiative (UNS):
- McCorduck (2004, S. 426–441)
- Crevier (1993, S. 161–162, 197–203, 211, 240)
- Russell & Norvig (2003, p. 24)
- NRC (1999, S. 210–211)
- Newquist (1994, S. 235–248)
- ^ a b Zuerst AI Winter, Lighthill Report, Mansfield Änderung
- Crevier (1993, S. 115–117)
- Russell & Norvig (2003, p. 22)
- NRC (1999, S. 212–213)
- Howe (1994)
- Newquist (1994, S. 189–201)
- ^ a b Zweite AI Winter:
- McCorduck (2004, S. 430–435)
- Crevier (1993, S. 209–210)
- NRC (1999, S. 214–216)
- Newquist (1994, S. 301–318)
- ^ a b c d Clark (2015b).
- ^ a b KI, die Ende der 1990er Jahre häufig verwendet werden:
- Russell & Norvig (2003, p. 28)
- Kurzweil (2005, p. 265)
- NRC (1999, S. 216–222)
- Newquist (1994, S. 189–201)
- ^ a b Pennachin & Goertzel (2007); Roberts (2016)
- ^ McCarthy et al. (1955).
- ^ Newquist (1994), S. 45–53.
- ^ a b KI im Mythos:
- McCorduck (2004, S. 4–5)
- Russell & Norvig (2003, p. 939)
- ^ McCorduck (2004), S. 17–25.
- ^ a b McCorduck (2004), S. 340–400.
- ^ Berlinski (2000).
- ^ Die unmittelbaren Vorläufer der KI:
- McCorduck (2004, S. 51–107)
- Crevier (1993, S. 27–32)
- Russell & Norvig (2003, S. 15, 940)
- Moravec (1988, p. 3)
- ^ Russell & Norvig (2009), p. 16.
- ^ Manyika 2022, p. 9.
- ^ Manyika 2022, p. 10.
- ^ Crevier (1993), S. 47–49.
- ^ a b Russell & Norvig (2003), p. 17.
- ^ Dartmouth Workshop:
- Russell & Norvig (2003, p. 17)
- McCorduck (2004, S. 111–136)
- NRC (1999, S. 200–201)
- ^ Russell & Norvig (2003), p. 18.
- ^ Erfolgreich Symbolische AI Programme:
- McCorduck (2004, S. 243–252)
- Crevier (1993, S. 52–107)
- Moravec (1988, p. 9)
- Russell & Norvig (2003, S. 18–21)
- ^ KI in den 1960er Jahren stark finanziert:
- McCorduck (2004, p. 131)
- Crevier (1993, S. 51, 64–65)
- NRC (1999, S. 204–205)
- ^ Howe (1994).
- ^ Newquist (1994), S. 86–86.
- ^ Simon (1965, p. 96) zitiert in Crevier (1993, p. 109)
- ^ Minsky (1967, p. 2) zitiert in Crevier (1993, p. 109)
- ^ Lighthill (1973).
- ^ Expertensysteme:
- Russell & Norvig (2003, S. 22–24)
- Luger & Stubblefield (2004, S. 227–331)
- Nilsson (1998, Chpt. 17.4)
- McCorduck (2004, S. 327–335, 434–435)
- Crevier (1993, S. 145–62, 197–203)
- Newquist (1994, S. 155–183)
- ^ Nilsson (1998), p. 7.
- ^ McCorduck (2004), S. 454–462.
- ^ Moravec (1988).
- ^ a b Brooks (1990).
- ^ a b Entwicklungsroboter:
- ^ Wiederbelebung des Connectionism:
- Crevier (1993, S. 214–215)
- Russell & Norvig (2003, p. 25)
- ^ Formell und eng Methoden, die in den 1990er Jahren angewendet wurden:
- Russell & Norvig (2003, S. 25–26)
- McCorduck (2004, S. 486–487)
- ^ McKinsey (2018).
- ^ MIT Sloan Management Review (2018); Lorica (2017)
- ^ a b c d UNESCO (2021).
- ^ Problemlösung, Rätsellösung, Spielspiel und Abzug:
- Russell & Norvig (2003, Chpt. 3–9)
- Poole, Mackworth & Goebel (1998, Chpt. 2,3,7,9)
- Luger & Stubblefield (2004, Chpt. 3,4,6,8)
- Nilsson (1998, Chpt. 7–12)
- ^ Unsichere Argumentation:
- Russell & Norvig (2003, S. 452–644)
- Poole, Mackworth & Goebel (1998, S. 345–395)
- Luger & Stubblefield (2004, S. 333–381)
- Nilsson (1998, Chpt. 19)
- ^ a b c Uneinheitlichkeit und Effizienz und die Kombinatorische Explosion:
- Russell & Norvig (2003, S. 9, 21–22)
- ^ a b c Psychologische Beweise des subsymbolischen Denkens und des subsymbolischen Prävalenz: Wissen:
- ^ Wissensrepräsentation und Knowledge Engineering:
- Russell & Norvig (2003, S. 260–266, 320–363)
- Poole, Mackworth & Goebel (1998, S. 23–46, 69–81, 169–233, 235–277, 281–298, 319–345)
- Luger & Stubblefield (2004, S. 227–243),
- Nilsson (1998, Chpt. 17.1–17.4, 18)
- ^ Russell & Norvig (2003), S. 320–328.
- ^ a b c Darstellung von Kategorien und Beziehungen: Semantische Netzwerke, Beschreibung Logik, Nachlass (einschließlich Rahmen und Skripte):
- Russell & Norvig (2003, S. 349–354),
- Poole, Mackworth & Goebel (1998, S. 174–177),
- Luger & Stubblefield (2004, S. 248–258),
- Nilsson (1998, Chpt. 18.3)
- ^ a b Ereignisse und Zeit darstellen:Situationskalkül, Ereignisrechnung, fließender Kalkül (einschließlich der Lösung der Rahmenproblem):
- Russell & Norvig (2003, S. 328–341),
- Poole, Mackworth & Goebel (1998, S. 281–298),
- Nilsson (1998, Chpt. 18.2)
- ^ a b Kausalrechnung:
- Poole, Mackworth & Goebel (1998, S. 335–337)
- ^ a b Wissen über Wissen darstellen: Glaubensrechnung, Modale Logik:
- Russell & Norvig (2003, S. 341–344),
- Poole, Mackworth & Goebel (1998, S. 275–277)
- ^ a b Standard -Argumentation, Rahmenproblem, Standardlogik, Nicht-monotonische Logik, Umschreibung, Annahme von geschlossener Welt, Entführung:
- Russell & Norvig (2003, S. 354–360)
- Poole, Mackworth & Goebel (1998, S. 248–256, 323–335)
- Luger & Stubblefield (2004, S. 335–363)
- Nilsson (1998, ~ 18.3.3)
- ^ a b Breite des gesunden Menschenkenntnisses:
- Russell & Norvig (2003, p. 21),,
- Crevier (1993, S. 113–114),
- Moravec (1988, p. 13),,
- Lenat & Guha (1989, Einführung)
- ^ Smoliar & Zhang (1994).
- ^ Neumann & Möller (2008).
- ^ Kuperman, Reichley & Bailey (2006).
- ^ McGarry (2005).
- ^ Bertini, Del Bimbo & Torniai (2006).
- ^ Planung:
- Russell & Norvig (2003, S. 375–459)
- Poole, Mackworth & Goebel (1998, S. 281–316)
- Luger & Stubblefield (2004, S. 314–329)
- Nilsson (1998, Chpt. 10.1–2, 22)
- Russell & Norvig (2003, S. 600–604)
- ^ Klassische Planung:
- Russell & Norvig (2003, S. 375–430)
- Poole, Mackworth & Goebel (1998, S. 281–315)
- Luger & Stubblefield (2004, S. 314–329)
- Nilsson (1998, Chpt. 10.1–2, 22)
- ^ Planung und Handeln in nicht deterministischen Bereichen: Bedingte Planung, Ausführungsüberwachung, Wiederholung und kontinuierliche Planung:
- Russell & Norvig (2003, S. 430–449)
- ^ Multi-Agent-Planung und aufstrebendes Verhalten:
- Russell & Norvig (2003, S. 449–455)
- ^ a b Turing (1950).
- ^ Solomonoff (1956).
- ^ Russell & Norvig (2003), S. 649–788.
- ^ Lernen:
- Russell & Norvig (2003, S. 649–788)
- Poole, Mackworth & Goebel (1998, S. 397–438)
- Luger & Stubblefield (2004, S. 385–542)
- Nilsson (1998, Chpt. 3.3, 10.3, 17,5, 20)
- ^ Verstärkungslernen:
- Russell & Norvig (2003, S. 763–788)
- Luger & Stubblefield (2004, S. 442–449)
- ^ The Economist (2016).
- ^ Jordan & Mitchell (2015).
- ^ Verarbeitung natürlicher Sprache (NLP):
- Russell & Norvig (2003, S. 790–831)
- Poole, Mackworth & Goebel (1998, S. 91–104)
- Luger & Stubblefield (2004, S. 591–632)
- ^ Anwendungen von NLP:
- Russell & Norvig (2003, S. 840–857)
- Luger & Stubblefield (2004, S. 623–630)
- ^ Moderne statistische Ansätze an NLP:
- ^ Vincent (2019).
- ^ Maschinenwahrnehmung:
- Russell & Norvig (2003, S. 537–581, 863–898)
- Nilsson (1998, ~ chpt. 6)
- ^ Spracherkennung:
- Russell & Norvig (2003, S. 568–578)
- ^ Objekterkennung:
- Russell & Norvig (2003, S. 885–892)
- ^ Computer Vision:
- Russell & Norvig (2003, S. 863–898)
- Nilsson (1998, Chpt. 6)
- ^ Robotik:
- Russell & Norvig (2003, S. 901–942)
- Poole, Mackworth & Goebel (1998, S. 443–460)
- ^ Roboterzuordnung und Lokalisierung:
- Russell & Norvig (2003, S. 908–915)
- Cadena et al. (2016)
- ^ Bewegungsplanung und Konfigurationsraum:
- Russell & Norvig (2003, S. 916–932)
- Tecuci (2012)
- ^ Mit Ail (2014).
- ^ Affektives Computing:
- ^ Waddell (2018).
- ^ Poria et al. (2017).
- ^ Die Gesellschaft des Geistes: Moravecs "Golden Spike":
- Moravec (1988, p. 20)
- Russell & Norvig (2003, S. 27, 932, 970–972)
- Nilsson (1998, Chpt. 25)
- ^ Domingos (2015), Chpt. 9.
- ^ Künstliches Gehirn als Ansatz zu Agi:
- Russell & Norvig (2003, p. 957)
- Crevier (1993, S. 271 & 279)
- Goertzel et al. (2010)
- Moravec (1988, p. 20)
- Kurzweil (2005, p. 262)
- Hawkins & Blakeslee (2005)
- ^ Suchalgorithmen:
- Russell & Norvig (2003, S. 59–189)
- Poole, Mackworth & Goebel (1998, S. 113–163)
- Luger & Stubblefield (2004, S. 79–164, 193–219)
- Nilsson (1998, Chpt. 7–12)
- ^ Vorwärtsketten, Rückwärtskettung, Hornklauselnund logischer Abzug als Suche:
- Russell & Norvig (2003, S. 217–225, 280–294)
- Poole, Mackworth & Goebel (1998, S. ~ 46–52)
- Luger & Stubblefield (2004, S. 62–73)
- Nilsson (1998, Chpt. 4.2, 7.2)
- ^ Zustandsspace -Suche und Planung:
- Russell & Norvig (2003, S. 382–387)
- Poole, Mackworth & Goebel (1998, S. 298–305)
- Nilsson (1998, Chpt. 10.1–2)
- ^ Umzug und Konfigurationsraum:
- Russell & Norvig (2003, S. 916–932)
- ^ Nicht informierte Suchanfragen (Breite erste Suche, Tiefe erste Suche und allgemein Zustandsspace -Suche):
- Russell & Norvig (2003, S. 59–93)
- Poole, Mackworth & Goebel (1998, S. 113–132)
- Luger & Stubblefield (2004, S. 79–121)
- Nilsson (1998, Chpt. 8)
- ^ Heuristik oder informierte Suchanfragen (z. B. gierig Am besten zuerst und EIN*):
- Russell & Norvig (2003, S. 94–109)
- Poole, Mackworth & Goebel (1998, S. S. 132–147)
- Poole & Mackworth (2017, Abschnitt 3.6)
- Luger & Stubblefield (2004, S. 133–150)
- ^ Tecuci (2012).
- ^ Optimierung Suchanfragen:
- Russell & Norvig (2003, S. 110–116, 120–129)
- Poole, Mackworth & Goebel (1998, S. 56–163)
- Luger & Stubblefield (2004, S. 127–133)
- ^ Genetische Programmierung und genetische Algorythmen:
- Luger & Stubblefield (2004, S. 509–530)
- Nilsson (1998, Chpt. 4.2)
- ^ Künstliches Leben und Gesellschaftsbasiertes Lernen:
- Luger & Stubblefield (2004, S. 530–541)
- Merkle & Middendorf (2013)
- ^ Logik:
- Russell & Norvig (2003, S. 194–310),
- Luger & Stubblefield (2004, S. 35–77),
- Nilsson (1998, Chpt. 13–16)
- ^ Satplan:
- Russell & Norvig (2003, S. 402–407),
- Poole, Mackworth & Goebel (1998, S. 300–301),
- Nilsson (1998, Chpt. 21)
- ^ Erklärungsbasiertes Lernen, Relevanzbasiertes Lernen, Induktive Logikprogrammierung, Fallbasierte Argumentation:
- Russell & Norvig (2003, S. 678–710),
- Poole, Mackworth & Goebel (1998, S. 414–416),
- Luger & Stubblefield (2004, S. ~ 422–442),
- Nilsson (1998, Chpt. 10.3, 17,5)
- ^ Aussagelogik:
- Russell & Norvig (2003, S. 204–233),
- Luger & Stubblefield (2004, S. 45–50)
- Nilsson (1998, Chpt. 13)
- ^ Logik erster Ordnung und Funktionen wie z. Gleichberechtigung:
- Russell & Norvig (2003, S. 240–310),
- Poole, Mackworth & Goebel (1998, S. 268–275),
- Luger & Stubblefield (2004, S. 50–62),
- Nilsson (1998, Chpt. fünfzehn)
- ^ Fuzzy Logic:
- Russell & Norvig (2003, S. 526–527)
- Scientific American (1999)
- ^ Stochastische Methoden für unsicheres Denken:
- Russell & Norvig (2003, S. 462–644),
- Poole, Mackworth & Goebel (1998, S. 345–395),
- Luger & Stubblefield (2004, S. 165–191, 333–381),
- Nilsson (1998, Chpt. 19)
- ^ Bayes'sche Netzwerke:
- Russell & Norvig (2003, S. 492–523),
- Poole, Mackworth & Goebel (1998, S. 361–381),
- Luger & Stubblefield (2004, S. ~ 182–190, ~ 363–379),
- Nilsson (1998, Chpt. 19.3–4)
- ^ Domingos (2015), Kapitel 6.
- ^ Bayes'sche Inferenz Algorithmus:
- Russell & Norvig (2003, S. 504–519),
- Poole, Mackworth & Goebel (1998, S. 361–381),
- Luger & Stubblefield (2004, S. ~ 363–379),
- Nilsson (1998, Chpt. 19.4 & 7)
- ^ Domingos (2015), p. 210.
- ^ Bayes'sche Lernen und die Erwartungsmaximierungsalgorithmus:
- Russell & Norvig (2003, S. 712–724),
- Poole, Mackworth & Goebel (1998, S. 424–433),
- Nilsson (1998, Chpt. 20)
- Domingos (2015, p. 210)
- ^ Bayesianische Entscheidungstheorie und Bayesian Entscheidungsnetzwerke:
- Russell & Norvig (2003, S. 597–600)
- ^ a b c Stochastische zeitliche Modelle:
- Russell & Norvig (2003, S. 537–581)
- Russell & Norvig (2003, S. 551–557)
- (Russell & Norvig 2003, S. 549–551)
- Russell & Norvig (2003, S. 551–557)
- ^ Entscheidungstheorie und Entscheidungsanalyse:
- Russell & Norvig (2003, S. 584–597),
- Poole, Mackworth & Goebel (1998, S. 381–394)
- ^ Informationswerttheorie:
- Russell & Norvig (2003, S. 600–604)
- ^ Markov -Entscheidungsprozesse und dynamisch Entscheidungsnetzwerke:
- Russell & Norvig (2003, S. 613–631)
- ^ Spieltheorie und Mechanismus -Design:
- Russell & Norvig (2003, S. 631–643)
- ^ Statistische Lernmethoden und Klassifikatoren:
- Russell & Norvig (2003, S. 712–754),
- Luger & Stubblefield (2004, S. 453–541)
- ^ Entscheidungsbaum:
- Domingos (2015, p. 88)
- Russell & Norvig (2003, S. 653–664),
- Poole, Mackworth & Goebel (1998, S. 403–408),
- Luger & Stubblefield (2004, S. 408–417)
- ^ K-Nearest Nachbaralgorithmus:
- Domingos (2015, p. 187)
- Russell & Norvig (2003, S. 733–736)
- ^ Kernelmethoden so wie die Vektormaschine unterstützen:
- Domingos (2015, p. 88)
- Russell & Norvig (2003, S. 749–752)
- Russell & Norvig (2003, S. 725–727)
- ^ Domingos (2015), p. 152.
- ^ Naiver Bayes -Klassifikator:
- Domingos (2015, p. 152)
- Russell & Norvig (2003, p. 718)
- ^ a b Neuronale Netze:
- Russell & Norvig (2003, S. 736–748),
- Poole, Mackworth & Goebel (1998, S. 408–414),
- Luger & Stubblefield (2004, S. 453–505),
- Nilsson (1998, Chpt. 3)
- Domingos (2015, Kapitel 4)
- ^ Klassifikatorleistung:
- Van der Walt & Bernard (2006)
- Russell & Norvig (2009, 18.12: Lernen aus Beispielen: Zusammenfassung)
- ^ Backpropagation:
- Russell & Norvig (2003, S. 744–748),
- Luger & Stubblefield (2004, S. 467–474),
- Nilsson (1998, Chpt. 3.3)
- ^ Wettbewerbslernen, Hebbisch Zufallslernen, Hopfield -Netzwerke und Attraktornetzwerke:
- Luger & Stubblefield (2004, S. 474–505)
- ^ Feedforward Neural Networks, Wahrnehmung und radiale Basisnetzwerke:
- Russell & Norvig (2003, S. 739–748, 758)
- Luger & Stubblefield (2004, S. 458–467)
- ^ Schulz & Behnke (2012).
- ^ Tiefes Lernen:
- ^ Deng & Yu (2014), S. 199–200.
- ^ Ciresan, Meier & Schmidhuber (2012).
- ^ Habibi (2017).
- ^ Fukushima (2007).
- ^ Wiederkehrende neuronale Netze, Hopfield -Netze:
- Russell & Norvig (2003, p. 758)
- Luger & Stubblefield (2004, S. 474–505)
- Schmidhuber (2015)
- ^ Schmidhuber (2015).
- ^ Werbos (1988);Robinson & Fallside (1987);Williams & Zipser (1994)
- ^ Goodfellow, Bengio & Courville (2016);Hochreiter (1991)
- ^ Hochreiter & Schmidhuber (1997); Gers, SCHRAUDOLPH & SCHRAUDOLPH (2002)
- ^ Russell & Norvig (2009), p. 1.
- ^ Europäische Kommission (2020), p. 1.
- ^ CNN (2006).
- ^ Gezielte Werbung:
- ^ Lohr (2016).
- ^ Smith (2016).
- ^ Rowinski (2013).
- ^ Frangoul (2019).
- ^ Brown (2019).
- ^ McCorduck (2004), S. 480–483.
- ^ Markoff (2011).
- ^ Google (2016); BBC (2016)
- ^ Solly (2019).
- ^ Bowling et al. (2015).
- ^ Probe (2017).
- ^ Anadiotis (2020).
- ^ Heath (2020).
- ^ Aletras et al. (2016).
- ^ "Geistiges Eigentum und Grenztechnologien". WIPO.
- ^ a b "WIPO -Technologie -Trends 2019 - Künstliche Intelligenz" (PDF). WIPO. 2019.
- ^ "Künstliche Intelligenz und Urheberrecht". www.wipo.int. Abgerufen 27. Mai 2022.
- ^ Turing (1950), p. 1.
- ^ Turing (1948).
- ^ Turings ursprüngliche Veröffentlichung der Turing-Test in "Computermaschinen und Intelligenz": Historischer Einfluss und philosophische Implikationen:
- Hauugeland (1985, S. 6–9)
- Crevier (1993, p. 24)
- McCorduck (2004, S. 70–71)
- Russell & Norvig (2021, S. 2 und 984)
- ^ a b Russell & Norvig (2021), p. 2-3.
- ^ Hersteller (2006).
- ^ Russell & Norvig (2021), p. 3.
- ^ McCorduck (2004), S. 100–101.
- ^ Das intelligenter Agent Paradigma:
- Russell & Norvig (2021, p. 4, Chpt. 2)
- Poole, Mackworth & Goebel (1998, S. 7–21)
- Luger & Stubblefield (2004, S. 235–240)
- Hutter (2005, S. 125–126)
- ^ Russell & Norvig (2021), p. 4.
- ^ Nilsson (1983), p. 10.
- ^ Hauugeland (1985), S. 112–117.
- ^ Hypothese des physikalischen Symbolsystems:
- Newell & Simon (1976, p. 116)
- McCorduck (2004, p. 153)
- Russell & Norvig (2003, p. 18)
- ^ Moravecs Paradox:
- Moravec (1988, S. 15–16)
- Minsky (1986, p. 29)
- Pinker (2007, S. 190–91)
- ^ Dreyfus 'Kritik an KI: Historische Bedeutung und philosophische Implikationen:
- Crevier (1993, S. 120–132)
- McCorduck (2004, S. 211–239)
- Russell & Norvig (2003, S. 950–952)
- Fearn (2007, Chpt. 3)
- ^ Crevier (1993), p. 125.
- ^ Langley (2011).
- ^ Katz (2012).
- ^ Nute gegen Kröten, Die historische Debatte:
- McCorduck (2004, S. 421–424, 486–489)
- Crevier (1993, p. 168)
- Nilsson (1983, S. 10–11)
- ^ Russell & Norvig (2003), S. 25–26.
- ^ Pennachin & Goertzel (2007).
- ^ a b Roberts (2016).
- ^ a b Russell & Norvig (2003), p. 947.
- ^ Chalmers (1995).
- ^ Dennett (1991).
- ^ Horst (2005).
- ^ Searle (1999).
- ^ Searle (1980), p. 1.
- ^ Searle's Chinesisches Zimmer Streit:
- Searle (1980). Searles ursprüngliche Präsentation des Gedankenexperiments.
- Searle (1999).
- Russell & Norvig (2003, S. 958–960)
- McCorduck (2004, S. 443–445)
- Crevier (1993, S. 269–271)
- ^ Roboterrechte:
- Russell & Norvig (2003, p. 964)
- BBC (2006)
- Maschafilm (2010) (Der Film Plug & Bet)
- ^ Evans (2015).
- ^ McCorduck (2004), S. 19–25.
- ^ Henderson (2007).
- ^ Omohundro (2008).
- ^ Vinge (1993).
- ^ Russell & Norvig (2003), p. 963.
- ^ Transhumanismus:
- ^ KI als Evolution:
- Edward Fredkin wird zitiert in McCorduck (2004, p. 401)
- Butler (1863)
- Dyson (1998)
- ^ Ford & Colvin (2015);McGaughey (2018)
- ^ IgM Chicago (2017).
- ^ Arntz, Gregory & Zierahn (2016), p. 33.
- ^ Lohr (2017);Frey & Osborne (2017);Arntz, Gregory & Zierahn (2016, p. 33)
- ^ Morgenstern (2015).
- ^ Mahdawi (2017); Thompson (2014)
- ^ Harari (2018).
- ^ Waffen KI:
- ^ Urbina, Fabio; Lentzos, Filippa; Invernzi, Cédric; Ekins, Sean (7. März 2022). "Doppelte Verwendung von künstlichem Intelligenzantriebsentdeckung". Nature Machine Intelligence. 4 (3): 189–191. doi:10.1038/s42256-022-00465-9. S2CID 247302391. Abgerufen 15. März 2022.
- ^ CNA (2019).
- ^ Goffrey (2008), p. 17.
- ^ Lipartito (2011, p. 36); Goodman & Flaxman (2017, p. 6)
- ^ Larson & Angwin (2016).
- ^ Dockrill, Peter, Roboter mit fehlerhafter KI treffen sexistische und rassistische Entscheidungen, Experimentshows, Science Alert, 27. Juni 2022
- ^ Cellan-Jones (2014).
- ^ Bostrom (2014); Müller & Bostrom (2014); Bostrom (2015)
- ^ Rubin (2003).
- ^ Müller & Bostrom (2014).
- ^ Die Bedenken der Führer über die existenziellen Risiken von KI:
- ^ Finanzierung zur Minderung von KI -Risiken:
- ^ Führer, die die Vorteile der KI argumentieren, überwiegen die Risiken:
- ^ Argumente, dass KI kein unmittelbar bevorstehendes Risiko ist:
- ^ Brooks (2014).
- ^ Yudkowsky (2008).
- ^ a b Anderson & Anderson (2011).
- ^ AAAI (2014).
- ^ Wallach (2010).
- ^ Russell (2019), p. 173.
- ^ Regulierung von AI zur Minderung von Risiken:
- ^ Law Library of Congress (USA). Global Legal Research Directorate (2019).
- ^ Kissinger, Henry (1. November 2021). "Die Herausforderung, im Zeitalter der KI menschlich zu sein". Das Wall Street Journal.
- ^ Buttazzo (2001).
- ^ Anderson (2008).
- ^ McCauley (2007).
- ^ Galvan (1997).
- ^ "Ein visueller Leitfaden für die militärischen Budgets der Welt". Bloomberg.com. 11. März 2022. Abgerufen 11. Mai 2022.
- ^ Kharpal, Arjun (21. Juli 2017). "China will in weniger als 15 Jahren 150 Milliarden US -Dollar weltweit führend sein.". CNBC. Abgerufen 11. Mai 2022.
- ^ a b c Radina Gigova (2. September 2017). "Wer Putin glaubt, wird die Welt regieren". CNN. Abgerufen 18. Mai 2022.
- ^ "In der Ukraine zieht A.I. in den Krieg". Reichtum. Abgerufen 11. Mai 2022.
- ^ a b "KI lernt bereits aus dem Russlands Krieg in der Ukraine, sagt Dod". Verteidigung eins. Abgerufen 11. Mai 2022.
- ^ "A. I. Drohnen, die im Ukraine -Krieg verwendet werden, werfen die Ängste vor Killerrobotern auf, die über zukünftige Schlachtfelder Chaos anrichten.". Reichtum. Abgerufen 11. Mai 2022.
- ^ Vincent, James (21. August 2017). "Die Führer von Elon Musk und KI fordern ein Verbot von Killerrobotern". Der Verge. Abgerufen 11. Mai 2022.
- ^ Kerry, Cameron F. (10. Februar 2020). "Schutz der Privatsphäre in einer KI-gesteuerten Welt". Brookings. Abgerufen 11. Mai 2022.
- ^ "Cybersicherheit | cisa". www.cisa.gov. Abgerufen 11. Mai 2022.
- ^ Inkster, Nigel (4. November 2021), Cornish, Paul (Hrsg.), "Semi-Formal-Diplomatie", Das Oxford -Handbuch der Cybersicherheit, Oxford University Press, S. 530–542, doi:10.1093/oxfordhb/9780198800682.013.33, ISBN 978-0-19-880068-2, abgerufen 11. Mai 2022
- ^ "Verbinden Sie die Punkte mit staatlich geförderten Cyber-Vorfällen-Kompromisse des Computers des tschechischen Außenministers".. Rat für ausländische Beziehungen. Abgerufen 11. Mai 2022.
- ^ a b c d Kadlecová, Lucie; Meyer, Nadia; Cos, Rafaël; Ravinet, Pauline (2020). "Cybersicherheit: Abbildung der Rolle der Wissenschaftsdiplomatie im Cyber -Bereich". In: Young, M., T. Flink, e. Dall. Wissenschaftsdiplomatie im Erstellen: Fallbasierte Erkenntnisse aus dem S4D4C-Projekt.
- ^ Kanada, Global Affairs (19. November 2019). "Europäische Innovationspartnerschaften - Ein Leitfaden für kanadische kleine und mittlere Unternehmen". GAC. Abgerufen 11. Mai 2022.
- ^ "Startseite". Bundesamt zur Informationssicherheit. Abgerufen 11. Mai 2022.
- ^ "Strategie Künstliche Intelligenz der Bundesregierung". Bundesministerium für wirtschaftliche Angelegenheiten und Energie: 6. 2018 - über Economy and Climate Protection (BMWK).
- ^ "Europa zählt auf Luxemburgs Fachwissen". San Francisco. Abgerufen 11. Mai 2022.
- ^ "Cyber Security Europe | Cyber Security Insight für Führungskräfte für Sitzungssaal und C-Suite". Cyber Security Europe. Abgerufen 11. Mai 2022.
- ^ Emk, Su. "Echo -Netzwerk". Abgerufen 11. Mai 2022.
- ^ "Sparta Consortium". www.cybersecurityIntelligence.com. Abgerufen 11. Mai 2022.
- ^ "Shields Up | cisa". www.cisa.gov. Abgerufen 11. Mai 2022.
- ^ Tegler, Eric. "Die Sicherheitsanfälligkeit von KI -Systemen könnte erklären, warum Russland sie in der Ukraine nicht ausgiebig einsetzt.". Forbes. Abgerufen 11. Mai 2022.
- ^ "Cyberai -Projekt". Zentrum für Sicherheit und aufkommende Technologie. Abgerufen 11. Mai 2022.
- ^ "AI Weekly: Der Russland-Ukraine-Konflikt ist ein Testfall für KI in der Kriegsführung". VentureBeat. 4. März 2022. Abgerufen 11. Mai 2022.
- ^ Kamarck, Elaine (29. November 2018). "Bösartige weiche Macht, KI und die Bedrohung für die Demokratie". Brookings. Abgerufen 18. Mai 2022.
- ^ a b Guglielmi, Giorgia (28. Oktober 2020). "Die Bots der nächsten Generation stören die US-Wahl". Natur. 587 (7832): 21. Bibcode:2020Natur.587 ... 21g. doi:10.1038/d41586-020-03034-5. PMID 33116324. S2CID 226052075.
- ^ Hosseinmardi, Homa; Ghasemian, Amir; Clauset, Aaron; Mobius, Markus; Rothschild, David M.; Watts, Duncan J. (10. August 2021). "Untersuchung des Verbrauchs von radikalem Inhalt auf YouTube". Verfahren der National Academy of Sciences. 118 (32): E2101967118. doi:10.1073/pnas.2101967118. ISSN 0027-8424. PMC 8364190. PMID 34341121.
- ^ "Erklärt: Hier ist, wie YouTube -Empfehlungen funktionieren". Der indische Express. 26. Oktober 2021. Abgerufen 18. Mai 2022.
- ^ Sie werden nicht glauben, was Obama in diesem Video sagt!, abgerufen 18. Mai 2022
- ^ "Wo sind die Deepfakes bei dieser Präsidentschaftswahlen?". Npr.org. Abgerufen 18. Mai 2022.
- ^ PhD, Slava Polonski (4. Februar 2018). "Künstliche Intelligenz kann Demokratie retten, es sei denn, sie zerstört sie zuerst". Mittel. Abgerufen 18. Mai 2022.
- ^ "Wissenschaftsdiplomatie und zukünftige Welten". Wissenschaft und Diplomatie. Abgerufen 18. Mai 2022.
- ^ a b "Internal Revenue Service (IRS)", Enzyklopädie der Geschäftsethik und Gesellschaft, Thousand Oaks, Kalifornien: Sage Publications, Inc., 2008, doi:10.4135/9781412956260.n436, ISBN 9781412916523, abgerufen 19. Mai 2022
- ^ a b Ga-Young, Park (9. Oktober 2021). "Koreas EDU Tech -Startup RIIID erwirbt den japanischen Distributor für mobile Apps". Der Korea Herald. Abgerufen 19. Mai 2022.
- ^ "Du wirst umgleitet..." www.analyticsinsight.net. Abgerufen 19. Mai 2022.
- ^ "Die frühe Diagnose von AI könnte Herz- und Krebspatienten retten". BBC News. 2. Januar 2018. Abgerufen 19. Mai 2022.
- ^ Davenport, Thomas; Kalakota, Ravi (Juni 2019). "Das Potenzial für künstliche Intelligenz im Gesundheitswesen". Future Healthcare Journal. 6 (2): 94–98. doi:10.7861/FutureHosp.6-2-94. ISSN 2514-6645. PMC 6616181. PMID 31363513.
- ^ Jain |, Pragya. "KI und die Zukunft der Arbeit in den Vereinigten Staaten". Amerikanische Universität. Abgerufen 19. Mai 2022.
- ^ "BASF und seine Partner veröffentlichen Ergebnisse für 'Pragati', das erste nachhaltige Castor Bean -Programm der Welt". Konzentrieren Sie sich auf Pulverbeschichtungen. 2022 (2): 5. Februar 2022. doi:10.1016/j.fopow.2022.01.019. ISSN 1364-5439. S2CID 246561954.
- ^ "KI im Jahr 2020: vom Experimentieren bis zur Adoption". Denken Sie an Blog. 3. Januar 2020. Abgerufen 19. Mai 2022.
- ^ a b "Marktgröße, Anteil, Trends, Chancen und Prognosen für künstliche Intelligenz". Verifizierte Marktforschung. Abgerufen 19. Mai 2022.
- ^ "Europäische Kommission: Ethikrichtlinien für vertrauenswürdige AI. Ec Hleg". 2019.
- ^ Curtis, Caitlin; Gillespie, Nicole; Lockey, Steven (24. Mai 2022). "KI-Abschlussorganisationen sind der Schlüssel, um den perfekten Sturm von KI-Risiken anzusprechen.". AI und Ethik: 1–9. doi:10.1007/s43681-022-00163-7. ISSN 2730-5961. PMC 9127285. PMID 35634256.
- ^ "Faker, die erkennen, dass sie die reale Sache sind", Die New York Times Television Reviews 2000, Routledge, S. 423–445, 5. Juni 2003, doi:10.4324/9780203508305-31, ISBN 9780203508305, abgerufen 19. Mai 2022
- ^ Barattero, Alberto (2018). "The People vs Tech: Wie das Internet die Demokratie tötet (und wie wir es retten)". Das inkarnierte Wort. 5 (2): 204–207. doi:10.5840/tiw20185221. ISSN 2150-9824.
- ^ a b Tapsell, Paul (Dezember 2021), "Er Tohu: Tipppunkt", Kāinga: Menschen, Land, Zugehörigkeit, Bridget Williams Books, S. 11–24, doi:10.7810/9781988587585_1, ISBN 9781988587585, S2CID 245941972, abgerufen 19. Mai 2022
- ^ "Werden Algorithmen sichere Entscheidungen in auswärtigen Angelegenheiten treffen? - Diplo". 17. Dezember 2019. Abgerufen 19. Mai 2022.
- ^ "Wie KI Chinas Außenpolitik leitet". Analytics India Magazine. 31. Juli 2018. Abgerufen 19. Mai 2022.
- ^ "Aktivitäten der Vereinten Nationen zur künstlichen Intelligenz (KI)". Itu. Abgerufen 19. Mai 2022.
- ^ a b "Ingenieurdiplomatie: Wie KI und menschliche Augmentation die Kunst der Außenbeziehungen neu gestalten könnten". Wissenschaft und Diplomatie. Abgerufen 19. Mai 2022.
- ^ Aylett-Bullock, Joseph; Cuesta-Lazaro, Carolina; Quera-Bofarull, Arnau; Katta, Anjali; Pham, Katherine Hoffmann; Hoover, Benjamin; Strobelt, Hendrik; Jimenez, Rebeca Moreno; Sedgewick, Aidan; Evers, Egmond Samir; Kennedy, David (6. Juli 2021). "Operative Response Simulation Tool für Epidemien innerhalb von Flüchtlings- und IDP -Siedlungen": 2021.01.27.21250611. doi:10.1101/2021.01.27.21250611. S2CID 231722795.
{{}}
: Journal zitieren erfordert|journal=
(Hilfe) - ^ Witmer, Frank D. W. (3. Mai 2015). "Fernerkundung gewalttätiger Konflikte: Augen von oben". Internationales Journal of Remote Sensing. 36 (9): 2326–2352. Bibcode:2015ijrs ... 36.2326w. doi:10.1080/01431161.2015.1035412. ISSN 0143-1161. S2CID 140656194.
- ^ Wu, Jeff; Ouyang, lang; Ziegler, Daniel M.; Stieennon, Nisan; Lowe, Ryan; Leike, Jan; Christiano, Paul (27. September 2021). "Rekursiv Bücher mit menschlichem Feedback zusammenfassen". Arxiv:2109.10862 [cs.cl].
- ^ a b "Was der amerikanische Dolmetscher bei angespannten US-China-Gesprächen in Alaska falsch gemacht hat". www.vice.com. Abgerufen 19. Mai 2022.
- ^ Lauriola, Ivano; Lavelli, Alberto; Aiolli, Fabio (22. Januar 2022). "Eine Einführung in das tiefe Lernen in der Verarbeitung natürlicher Sprache: Modelle, Techniken und Werkzeuge". Neurokomputierung. 470: 443–456. doi:10.1016/j.neucom.2021.05.103. ISSN 0925-2312. S2CID 238835461.
Verweise
- Zuschreibung
- Dieser Artikel enthält Text von a Kostenloser Inhalt Arbeit. Lizenziert unter C-by-SA 3.0 IGO-Text von entnommen von UNESCO -Wissenschaftsbericht: Das Rennen gegen die Zeit für intelligentere Entwicklung., Schneegans, S., T. Straza und J. Lewis (Hrsg.), UNESCO.
KI -Lehrbücher
Dies waren die vier am häufigsten verwendeten KI -Lehrbücher im Jahr 2008:
- Luger, George; Stubblefield, William (2004). Künstliche Intelligenz: Strukturen und Strategien für die komplexe Problemlösung (5. Aufl.). Benjamin/Cummings. ISBN 978-0-8053-4780-7. Archiviert Aus dem Original am 26. Juli 2020. Abgerufen 17. Dezember 2019.
- Nilsson, Nils (1998). Künstliche Intelligenz: Eine neue Synthese. Morgan Kaufmann. ISBN 978-1-55860-467-4. Archiviert Aus dem Original am 26. Juli 2020. Abgerufen 18. November 2019.
- Russell, Stuart J.; Norvig, Peter (2003), Künstliche Intelligenz: ein moderner Ansatz (2. Aufl.), Upper Saddle River, New Jersey: Prentice Hall, ISBN 0-13-790395-2.
- Poole, David; Mackworth, Alan; Goebel, Randy (1998). Computational Intelligence: Ein logischer Ansatz. New York: Oxford University Press. ISBN 978-0-19-510270-3. Archiviert Aus dem Original am 26. Juli 2020. Abgerufen 22. August 2020.
Spätere Ausgaben.
- Russell, Stuart J.; Norvig, Peter (2009). Künstliche Intelligenz: ein moderner Ansatz (3. Aufl.). Upper Saddle River, New Jersey: Prentice Hall. ISBN 978-0-13-604259-4..
- Poole, David; Mackworth, Alan (2017). Künstliche Intelligenz: Grundlagen von Computeragenten (2. Aufl.). Cambridge University Press. ISBN 978-1-107-19539-4.
Die beiden am häufigsten verwendeten Lehrbücher im Jahr 2021.Offener Lehrplan: Explorer
- Russell, Stuart J.; Norvig, Peter (2021). Künstliche Intelligenz: ein moderner Ansatz (4. Aufl.). Hoboken: Pearson. ISBN 9780134610993. Lccn 20190474.
- Ritter, Kevin; Reich, Elaine (1. Januar 2010). Künstliche Intelligenz (3. Aufl.). Mc Graw Hill India. ISBN 9780070087705.
Geschichte der AI
- Spalt, Daniel (1993). AI: Die turbulente Suche nach künstlicher Intelligenz. New York, NY: BasicBooks. ISBN 0-465-02997-3..
- McCorduck, Pamela (2004), Maschinen, die denken (2. Aufl.), Natick, MA: A.K. Peters, Ltd.,. ISBN 1-56881-205-1.
- Newquist, HP (1994). Die Gehirnhersteller: Genie, Ego und Gier auf der Suche nach Maschinen, die denken. New York: Macmillan/Sams. ISBN 978-0-672-30412-5.
- Nilsson, Nils (2009). Das Streben nach künstlicher Intelligenz: Eine Geschichte der Ideen und Errungenschaften. New York: Cambridge University Press. ISBN 978-0-521-12293-1.
Andere Quellen
- Werbos, P. J. (1988), "Verallgemeinerung der Backpropagation mit Anwendung auf ein rezidivierendes Gasmarktmodell", Neuronale Netze, 1 (4): 339–356, doi:10.1016/0893-6080 (88) 90007-x
- Gers, Felix A.; SCHRAUDOLPH, NICOL N.; SCHRAUDOLPH, Jürgen (2002). "Präzises Timing mit rezidivierenden LSTM -Netzwerken lernen" (PDF). Journal of Machine Learning Research. 3: 115–143. Abgerufen 13. Juni 2017.
- Deng, L.; Yu, D. (2014). "Deep Learning: Methoden und Anwendungen" (PDF). Fundamente und Trends in der Signalverarbeitung. 7 (3–4): 1–199. doi:10.1561/2000000039. Archiviert (PDF) Aus dem Original am 14. März 2016. Abgerufen 18. Oktober 2014.
- Schulz, Hannes; Behnke, Sven (1. November 2012). "Tiefes Lernen". Ki - Künstliche Intelligenz. 26 (4): 357–363. doi:10.1007/S13218-012-0198-Z. ISSN 1610-1987. S2CID 220523562.
- Fukushima, K. (2007). "Neocognitron". Gelehrter. 2 (1): 1717. Bibcode:2007SCHPJ ... 2.1717f. doi:10.4249/Scholarpedia.1717. wurde vorgestellt von Kunihiko Fukushima 1980.
- Habibi, Aghdam, Hamed (30. Mai 2017). Leitfaden zu Faltungsnetzwerken. Heravi, Elnaz Jahani. Cham, Schweiz. ISBN 9783319575490. OCLC 987790957.
- Ciresan, D.; Meier, u.; Schmidhuber, J. (2012). "Multi-Säulen tiefe neuronale Netzwerke für die Bildklassifizierung". 2012 IEEE -Konferenz zur Computer Vision und Mustererkennung. S. 3642–3649. Arxiv:1202.2745. doi:10.1109/cvpr.2012.6248110. ISBN 978-1-4673-1228-8. S2CID 2161592.
- "Von der Nichtarbeit bis zum neuronalen Netzwerk". Der Ökonom. 2016. Archiviert vom Original am 31. Dezember 2016. Abgerufen 26. April 2018.
- Thompson, Derek (23. Januar 2014). "Welche Jobs werden die Roboter annehmen?". Der Atlantik. Archiviert Aus dem Original am 24. April 2018. Abgerufen 24. April 2018.
- Scassellati, Brian (2002). "Theorie des Geistes für einen humanoiden Roboter". Autonome Roboter. 12 (1): 13–24. doi:10.1023/a: 1013298507114. S2CID 1979315.
- Probe, Ian (14. März 2017). "Google's DeepMind macht KI -Programm, das wie ein Mensch lernen kann". Der Wächter. Archiviert Aus dem Original am 26. April 2018. Abgerufen 26. April 2018.
- Heath, Nick (11. Dezember 2020). "Was ist KI? Alles, was Sie über künstliche Intelligenz wissen müssen". ZDNET. Abgerufen 1. März 2021.
- Bowling, Michael; Burch, Neil; Johanson, Michael; Tammelin, Oskari (9. Januar 2015). "Heads-up Limit Hold'em Poker ist gelöst". Wissenschaft. 347 (6218): 145–149. Bibcode:2015Sci ... 347..145b. doi:10.1126/science.1259433. ISSN 0036-8075. PMID 25574016. S2CID 3796371.
- Solly, Meilan (15. Juli 2019). "Dieser Pokerspiel A.I. weiß, wann man sie halten und wann sie sie falten müssen.". Smithsonian.
- "Künstliche Intelligenz: Googles Alphago Beats Go Master Lee Se-Dol". BBC News. 12. März 2016. Archiviert Aus dem Original am 26. August 2016. Abgerufen 1. Oktober 2016.
- Rowinski, Dan (15. Januar 2013). "Virtuelle persönliche Assistenten und die Zukunft Ihres Smartphones [Infografik]". Lesen Schreiben. Archiviert Aus dem Original am 22. Dezember 2015.
- Manyika, James (2022). "KI RICHTIG: Einführende Notizen zu KI & Gesellschaft". Daedalus. 151 (2): 5–27. doi:10.1162/daed_e_01897. S2CID 248377878. Abgerufen 5. Mai 2022.
- Markoff, John (16. Februar 2011). "Computer gewinnt bei 'Gefahr!': Trivial, es ist nicht". Die New York Times. Archiviert Aus dem Original am 22. Oktober 2014. Abgerufen 25. Oktober 2014.
- Anadiotis, George (1. Oktober 2020). "Der Zustand der KI im Jahr 2020: Demokratisierung, Industrialisierung und der Weg zur künstlichen allgemeinen Intelligenz". ZDNET. Abgerufen 1. März 2021.
- Goertzel, Ben; Lian, ruitiert; Arel, Itamar; de Garis, Hugo; Chen, Shuo (Dezember 2010). "Eine weltweite Übersicht über künstliche Gehirnprojekte, Teil II: biologisch inspirierte kognitive Architekturen". Neurokomputierung. 74 (1–3): 30–49. doi:10.1016/j.neucom.2010.08.012.
- Robinson, A. J.; Fallside, F. (1987), "Das nützlich gesteuerte dynamische Fehlerverbreitungsnetzwerk.", Technischer Bericht cued/f-infeng/tr.1, Cambridge University Engineering Department
- Hochreiter, Sepp (1991). Imtersuchungen ZU Dynamisschen Neuronalen Netzen (PDF) (Diplomarbeit). München: Institut f. Informatik, Technische Univ. Archiviert von das Original (PDF) am 6. März 2015. Abgerufen 16. April 2016.
- Williams, R. J.; Zipser, D. (1994), "Gradientenbasierte Lernalgorithmen für wiederkehrende Netzwerke und deren Rechenkomplexität", Backpropagation: Theorie, Architekturen und Anwendungen, Hillsdale, NJ: Erlbaum
- Hochreiter, Sepp; Schmidhuber, Jürgen (1997), "langes Kurzzeitgedächtnis", Neuronale Berechnung, 9 (8): 1735–1780, doi:10.1162/neco.1997.9.8.1735, PMID 9377276, S2CID 1915014
- Goodfellow, Ian; Bengio, Yoshua; Courville, Aaron (2016), Tiefes Lernen, Mit Press., Archiviert von das Original am 16. April 2016, abgerufen 12. November 2017
- Hinton, G.; Deng, L.; Yu, D.; Dahl, G.; Mohamed, A.; Jaitly, N.; Senior, a.; Vanhoucke, V.; Nguyen, P.; Sainath, T.; Kingsbury, B. (2012). "Tiefe neuronale Netze für die akustische Modellierung bei der Spracherkennung - die gemeinsamen Ansichten von vier Forschungsgruppen". IEEE Signal Processing Magazine. 29 (6): 82–97. Bibcode:2012ispm ... 29 ... 82H. doi:10.1109/msp.2012.2205597. S2CID 206485943.
- Schmidhuber, J. (2015). "Deep Learning in neuronalen Netzwerken: Ein Überblick". Neuronale Netze. 61: 85–117. Arxiv:1404.7828. doi:10.1016/j.neunet.2014.09.003. PMID 25462637. S2CID 11715509.
- Linnainmaa, Seppo (1970). Die Darstellung des kumulativen Rundungsfehlers eines Algorithmus als Taylor -Expansion der lokalen Rundungsfehler (These) (auf Finnisch). Univ. Helsinki, 6–7.|
- Griewank, Andreas (2012). "Wer hat den umgekehrten Modus der Differenzierung erfunden? Optimierungsgeschichten". Documenta Matematica, zusätzliches Volumen ISMP: 389–400.
- Werbos, Paul (1974). Jenseits der Regression: Neue Instrumente für Vorhersage und Analyse in den Verhaltenswissenschaften (Ph.D. -These). Harvard Universität.
- Werbos, Paul (1982). "Beyond Regression: Neue Instrumente für Vorhersage und Analyse in den Verhaltenswissenschaften" (PDF). Systemmodellierung und Optimierung. Anwendungen von Fortschritten bei der nichtlinearen Empfindlichkeitsanalyse. Berlin, Heidelberg: Springer. Archiviert von das Original (PDF) am 14. April 2016. Abgerufen 16. April 2016.
- "Was ist 'Fuzzy Logic'? Gibt es Computer, die von Natur aus verschwommen sind und die übliche binäre Logik nicht anwenden?". Wissenschaftlicher Amerikaner. 21. Oktober 1999. Abgerufen 5. Mai 2018.
- Merkle, Daniel; Middendorf, Martin (2013). "Schwarmintelligenz". In Burke, Edmund K.; Kendall, Graham (Hrsg.). Suchmethoden: Einführungs -Tutorials in der Optimierung und Entscheidungsunterstützungstechniken. Springer Science & Business Media. ISBN 978-1-4614-6940-7.
- van der Walt, Christiaan; Bernard, Etienne (2006). "Dateneigenschaften, die die Klassifikatorleistung bestimmen" (PDF). Archiviert von das Original (PDF) am 25. März 2009. Abgerufen 5. August 2009.
- Hutter, Marcus (2005). Universelle künstliche Intelligenz. Berlin: Springer. ISBN 978-3-540-22139-5.
- Howe, J. (November 1994). "Künstliche Intelligenz an der Edinburgh University: eine Perspektive". Archiviert Aus dem Original am 15. Mai 2007. Abgerufen 30. August 2007.
- Galvan, Jill (1. Januar 1997). "Betreten Sie das posthumanische Kollektiv in Philip K. Dicks" Do Androids Dream of Electric Sheep? "". Science -Fiction -Studien. 24 (3): 413–429. JStor 4240644.
- McCauley, Lee (2007). "AI Armageddon und die drei Gesetze der Robotik". Ethik und Informationstechnologie. 9 (2): 153–164. Citeseerx 10.1.1.85.8904. doi:10.1007/s10676-007-9138-2. S2CID 37272949.
- Buttazzo, G. (Juli 2001). "Künstliches Bewusstsein: Utopie oder reale Möglichkeit?". Computer. 34 (7): 24–30. doi:10.1109/2.933500.
- Anderson, Susan Leigh (2008). "Asimovs" Drei Gesetze der Robotik "und Maschinenmetaethik". KI & Gesellschaft. 22 (4): 477–493. doi:10.1007/s00146-007-0094-5. S2CID 1809459.
- Yudkowsky, E (2008), "Künstliche Intelligenz als positiver und negativer Faktor für das globale Risiko" (PDF), Globale katastrophale Risiken, Oxford University Press, 2008, Bibcode:2008gcr..book..303y
- McGaughey, E (2018), Werden Roboter Ihren Job automatisieren? Vollbeschäftigung, Grundeinkommen und wirtschaftliche Demokratie, p. SSRN Teil 2 (3), SSRN 3044448, archiviert von das Original am 24. Mai 2018, abgerufen 12. Januar 2018
- IGM Chicago (30. Juni 2017). "Roboter und künstliche Intelligenz". www.igmchicago.org. Archiviert Aus dem Original am 1. Mai 2019. Abgerufen 3. Juli 2019.
- Lohr, Steve (2017). "Roboter werden Jobs annehmen, aber nicht so schnell wie einige Angst, heißt es in neuer Bericht". Die New York Times. Archiviert Aus dem Original am 14. Januar 2018. Abgerufen 13. Januar 2018.
- Frey, Carl Benedikt; Osborne, Michael A (1. Januar 2017). "Die Zukunft der Beschäftigung: Wie anfällig sind Jobs für die Computerisierung?". Technologische Prognose und sozialer Wandel. 114: 254–280. Citeseerx 10.1.1.395.416. doi:10.1016/j.techfor.2016.08.019. ISSN 0040-1625.
- Arntz, Melanie; Gregory, Terry; Zierahn, Ulrich (2016), "Das Risiko einer Automatisierung von Arbeitsplätzen in OECD -Ländern: eine vergleichende Analyse", OECD -Arbeitspapiere Sozial-, Beschäftigungs- und Migrationsarbeiten 189
- Morgenstern, Michael (9. Mai 2015). "Automatisierung und Angst". Der Ökonom. Archiviert Aus dem Original am 12. Januar 2018. Abgerufen 13. Januar 2018.
- Mahdawi, Arwa (26. Juni 2017). "Welche Jobs werden in 20 Jahren noch sein? Lesen Sie dies, um Ihre Zukunft vorzubereiten.". Der Wächter. Archiviert Aus dem Original am 14. Januar 2018. Abgerufen 13. Januar 2018.
- Rubin, Charles (Frühjahr 2003). "Künstliche Intelligenz und menschliche Natur". Der neue Atlantis. 1: 88–100. Archiviert von das Original am 11. Juni 2012.
- Bostrom, Nick (2014). Superintelligenz: Wege, Gefahren, Strategien. Oxford University Press.
- Brooks, Rodney (10. November 2014). "Künstliche Intelligenz ist ein Werkzeug, keine Bedrohung". Archiviert von das Original am 12. November 2014.
- Sainato, Michael (19. August 2015). "Stephen Hawking, Elon Musk und Bill Gates warnen vor künstlicher Intelligenz". Beobachter. Archiviert Aus dem Original am 30. Oktober 2015. Abgerufen 30. Oktober 2015.
- Harari, Yuval Noah (Oktober 2018). "Warum Technologie Tyrannei begünstigt". Der Atlantik.
- Robitzski, Dan (5. September 2018). "Fünf Experten teilen das, was ihnen am meisten über KI Angst macht.". Archiviert Aus dem Original am 8. Dezember 2019. Abgerufen 8. Dezember 2019.
- Goffrey, Andrew (2008). "Algorithmus". In Fuller, Matthew (Hrsg.). Softwarestudien: Ein Lexikon. Cambridge, Mass.: MIT Press. pp.15–20. ISBN 978-1-4356-4787-9.
- Lipartito, Kenneth (6. Januar 2011), Die Erzählung und der Algorithmus: Genres der Kreditberichterstattung vom 19. Jahrhundert bis heute (PDF) (Unveröffentlichtes Manuskript), doi:10.2139/ssrn.1736283, S2CID 166742927
- Goodman, Bryce; Flaxman, Seth (2017). "EU-Vorschriften über algorithmische Entscheidungen und ein" Recht auf Erklärung "". AI Magazine. 38 (3): 50. Arxiv:1606.08813. doi:10.1609/aimag.v38i3.2741. S2CID 7373959.
- CNA (12. Januar 2019). "Kommentar: Schlechte Nachrichten. Künstliche Intelligenz ist voreingenommen". CNA. Archiviert Aus dem Original am 12. Januar 2019. Abgerufen 19. Juni 2020.
- Larson, Jeff; Angwin, Julia (23. Mai 2016). "Wie wir den Compas -Rückfall -Algorithmus analysiert haben". ProPublica. Archiviert vom Original am 29. April 2019. Abgerufen 19. Juni 2020.
- Müller, Vincent C.; Bostrom, Nick (2014). "Zukünftige Fortschritte in der künstlichen Intelligenz: Eine Umfrage zwischen Experten" (PDF). KI ist wichtig. 1 (1): 9–11. doi:10.1145/2639475.2639478. S2CID 8510016. Archiviert (PDF) Aus dem Original am 15. Januar 2016.
- Cellan-Jones, Rory (2. Dezember 2014). "Stephen Hawking warnt künstliche Intelligenz könnte die Menschheit beenden". BBC News. Archiviert Aus dem Original am 30. Oktober 2015. Abgerufen 30. Oktober 2015.
- Rawlinson, Kevin (29. Januar 2015). "Bill Gates von Microsoft besteht darauf, dass AI eine Bedrohung darstellt". BBC News. Archiviert Aus dem Original am 29. Januar 2015. Abgerufen 30. Januar 2015.
- Holley, Peter (28. Januar 2015). "Bill Gates über Gefahren der künstlichen Intelligenz:" Ich verstehe nicht, warum manche Menschen nicht besorgt sind "". Die Washington Post. ISSN 0190-8286. Archiviert Aus dem Original am 30. Oktober 2015. Abgerufen 30. Oktober 2015.
- Gibbs, Samuel (27. Oktober 2014). "Elon Musk: Künstliche Intelligenz ist unsere größte existenzielle Bedrohung". Der Wächter. Archiviert Aus dem Original am 30. Oktober 2015. Abgerufen 30. Oktober 2015.
- Churm, Philip Andrew (14. Mai 2019). "Yuval Noah Harari spricht Politik, Technologie und Migration". Euronews. Archiviert vom Original am 14. Mai 2019. Abgerufen 15. November 2020.
- Bostrom, Nick (2015). "Was passiert, wenn unsere Computer schlauer werden als wir?". Ted (Konferenz). Archiviert vom Original am 25. Juli 2020. Abgerufen 30. Januar 2020.
- Post, Washington (2015). "Tech -Titanen wie Elon Musk geben 1 Milliarde US -Dollar aus, um Sie vor Terminatoren zu retten.". Chicago Tribune. Archiviert Aus dem Original am 7. Juni 2016.
- Del Prado, Guia Marie (9. Oktober 2015). "Das mysteriöse Unternehmen für künstliche Intelligenz, in das Elon Musk investiert hat, entwickelt sich verändernde intelligente Computer". Tech Insider. Archiviert Aus dem Original am 30. Oktober 2015. Abgerufen 30. Oktober 2015.
- FastCompany (15. Januar 2015). "Elon Musk spendet 10 Millionen US -Dollar seines eigenen Geldes für künstliche Intelligenzforschung". Schnelle Firma. Archiviert Aus dem Original am 30. Oktober 2015. Abgerufen 30. Oktober 2015.
- Thibodeau, Patrick (25. März 2019). "Oracle -CEO Mark Hurd sieht keinen Grund, ERP AI zu fürchten". Sucher. Archiviert Aus dem Original am 6. Mai 2019. Abgerufen 6. Mai 2019.
- Bhardwaj, Prachi (24. Mai 2018). "Mark Zuckerberg reagiert auf Elon Musks Paranoia über AI: 'KI wird ... dazu beitragen, unsere Gemeinden zu schützen.'". Geschäftseingeweihter. Archiviert Aus dem Original am 6. Mai 2019. Abgerufen 6. Mai 2019.
- Geist, Edward Moore (9. August 2015). "Ist künstliche Intelligenz wirklich eine existenzielle Bedrohung für die Menschheit?". Bulletin der Atomwissenschaftler. Archiviert Aus dem Original am 30. Oktober 2015. Abgerufen 30. Oktober 2015.
- Madrigal, Alexis C. (27. Februar 2015). "Der Fall gegen Killerroboter, von einem Mann, der tatsächlich an künstlicher Intelligenz arbeitet". Fusion.net. Archiviert Aus dem Original am 4. Februar 2016. Abgerufen 31. Januar 2016.
- Lee, Timothy B. (22. August 2014). "Wird künstliche Intelligenz die Menschheit zerstören? Hier sind 5 Gründe, sich keine Sorgen zu machen". Vox. Archiviert Aus dem Original am 30. Oktober 2015. Abgerufen 30. Oktober 2015.
- Law Library of Congress (USA). Global Legal Research Directorate, Ausgabe einer Stelle. (2019). Regulierung der künstlichen Intelligenz in ausgewählten Gerichtsbarkeiten. Lccn 2019668143. OCLC 1110727808.
- UNESCO -Wissenschaftsbericht: Das Rennen gegen die Zeit für intelligentere Entwicklung. Paris: UNESCO. 11. Juni 2021. ISBN 978-92-3-100450-6.
- Berryhill, Jamie; Heang, Kévin Kok; Clogher, Rob; McBride, Keegan (2019). Hallo Welt: Künstliche Intelligenz und ihre Verwendung im öffentlichen Sektor (PDF). Paris: OECD -Observatorium der Innovation des öffentlichen Sektors. Archiviert (PDF) vom Original am 20. Dezember 2019. Abgerufen 9. August 2020.
- Barfield, Woodrow; Pagallo, Ugo (2018). Forschungshandbuch zum Gesetz der künstlichen Intelligenz. Cheltenham, Großbritannien. ISBN 978-1-78643-904-8. OCLC 1039480085.
- IPhofen, Ron; Kritikos, Mihalis (3. Januar 2019). "Regulierung künstlicher Intelligenz und Robotik: Ethik durch Design in einer digitalen Gesellschaft". Zeitgenössische Sozialwissenschaft. 16 (2): 170–184. doi:10.1080/21582041.2018.1563803. ISSN 2158-2041. S2CID 59298502.
- Wirtz, Bernd W.; Weyerer, C.; Geyer, Carolin (24. Juli 2018). "Künstliche Intelligenz und der öffentliche Sektor - Anwendungen und Herausforderungen". Internationales Journal of Public Administration. 42 (7): 596–615. doi:10.1080/01900692.2018.1498103. ISSN 0190-0692. S2CID 158829602. Archiviert Aus dem Original am 18. August 2020. Abgerufen 22. August 2020.
- Buiten, Miriam C (2019). "Auf der intelligenten Regulierung der künstlichen Intelligenz". Europäisches Journal of Risk Regulation. 10 (1): 41–59. doi:10.1017/err.2019.8. ISSN 1867-299x.
- Wallach, Wendell (2010). Moralische Maschinen. Oxford University Press.
- Brown, Eileen (5. November 2019). "Die Hälfte der Amerikaner glaubt nicht, dass DeepFake News sie online ansprechen könnte". ZDNET. Archiviert Aus dem Original am 6. November 2019. Abgerufen 3. Dezember 2019.
- Frangoul, Anmar (14. Juni 2019). "Ein kalifornisches Unternehmen nutzt A.I., um die Art und Weise zu verändern, wie wir über Energiespeicher nachdenken.". CNBC. Archiviert vom Original am 25. Juli 2020. Abgerufen 5. November 2019.
- "Der Ökonom erklärt: Warum sich Unternehmen in künstliche Intelligenz stapeln". Der Ökonom. 31. März 2016. Archiviert vom Original am 8. Mai 2016. Abgerufen 19. Mai 2016.
- Lohr, Steve (28. Februar 2016). "Das Versprechen künstlicher Intelligenz entfaltet sich in kleinen Schritten". Die New York Times. Archiviert Aus dem Original am 29. Februar 2016. Abgerufen 29. Februar 2016.
- Smith, Mark (22. Juli 2016). "Also denken Sie, Sie haben sich entschieden, diesen Artikel zu lesen?". BBC News. Archiviert Aus dem Original am 25. Juli 2016.
- Aletras, N.; Tsarapatsanis, D.; Preotiuc-pietro, d.; Lampos, V. (2016). "Vorhersage von gerichtlichen Entscheidungen des Europäischen Gerichtshofs für Menschenrechte: Eine Perspektive der natürlichen Sprachverarbeitung". Peerj Informatik. 2: e93. doi:10.7717/peerj-cs.93.
- Cadena, Cesar; Carlone, Luca; Carrillo, Henry; Latif, Yasir; Scaramuzza, Davide; Neira, Jose; Reid, Ian; Leonard, John J. (Dezember 2016). "Vergangenheit, Gegenwart und Zukunft der gleichzeitigen Lokalisierung und Kartierung: Auf dem Weg zum robusten Wahrnehmungsalter". IEEE -Transaktionen zur Robotik. 32 (6): 1309–1332. Arxiv:1606.05830. doi:10.1109/tro.2016.2624754. S2CID 2596787.
- Cambria, Erik; Weiß, Bebo (Mai 2014). "Spring -NLP -Kurven springen: Eine Überprüfung der Forschung für natürliche Sprachverarbeitung [Übersichtsartikel]". IEEE Computational Intelligence Magazine. 9 (2): 48–57. doi:10.1109/MCI.2014.2307227. S2CID 206451986.
- Vincent, James (7. November 2019). "Openai hat die Text-erzeugende KI veröffentlicht, die es zu gefährlich sei, um sie zu teilen.". Der Verge. Archiviert vom Original am 11. Juni 2020. Abgerufen 11. Juni 2020.
- Jordan, M. I.; Mitchell, T. M. (16. Juli 2015). "Maschinelles Lernen: Trends, Perspektiven und Perspektiven". Wissenschaft. 349 (6245): 255–260. Bibcode:2015Sci ... 349..255J. doi:10.1126/science.aaa8415. PMID 26185243. S2CID 677218.
- Maschafilm (2010). "Inhalt: Plug & Pray Film -künstliche Intelligenz -Roboter -". PlugandPray-film.de. Archiviert Aus dem Original am 12. Februar 2016.
- Evans, Woody (2015). "Posthuman Rechte: Dimensionen der transhumanen Welten". Teknokultura. 12 (2). doi:10.5209/rev_tk.2015.v12.n2.49072.
- Waddell, Kaveh (2018). "Chatbots haben das unheimliche Tal eingegeben". Der Atlantik. Archiviert Aus dem Original am 24. April 2018. Abgerufen 24. April 2018.
- Poria, Soujanya; Cambria, Erik; Bajpai, Rajiv; Hussain, Amir (September 2017). "Eine Überprüfung des affektiven Computing: Von der unimodalen Analyse zur multimodalen Fusion". Informationsfusion. 37: 98–125. doi:10.1016/j.inffus.2017.02.003. HDL:1893/25490.
- "Roboter könnten gesetzliche Rechte fordern". BBC News. 21. Dezember 2006. Archiviert Aus dem Original am 15. Oktober 2019. Abgerufen 3. Februar 2011.
- Horst, Steven (2005). "Die Computertheorie des Geistes". Die Stanford -Enzyklopädie der Philosophie.
- Omohundro, Steve (2008). Die Natur selbstverbesserter künstlicher Intelligenz. Präsentiert und verteilt auf dem Singularity Summit 2007, San Francisco, CA.
- Ford, Martin; Colvin, Geoff (6. September 2015). "Werden Roboter mehr Jobs schaffen als sie zerstören?". Der Wächter. Archiviert Aus dem Original am 16. Juni 2018. Abgerufen 13. Januar 2018.
- Weißbuch: Über künstliche Intelligenz - ein europäischer Ansatz für Exzellenz und Vertrauen (PDF). Brüssel: Europäische Kommission. 2020. Archiviert (PDF) vom Original am 20. Februar 2020. Abgerufen 20. Februar 2020.
- Anderson, Michael; Anderson, Susan Leigh (2011). Maschinenethik. Cambridge University Press.
- "Maschinenethik". aaai.org. Archiviert von das Original am 29. November 2014.
- Russell, Stuart (8. Oktober 2019). Menschlich kompatibel: künstliche Intelligenz und das Problem der Kontrolle. Vereinigte Staaten: Wikinger. ISBN 978-0-525-55861-3. OCLC 1083694322.
- "KI wird die menschliche Gehirnkraft übertreffen". CNN. 9. August 2006. Archiviert Aus dem Original am 19. Februar 2008.
- "Roboter könnten gesetzliche Rechte fordern". BBC News. 21. Dezember 2006. Archiviert Aus dem Original am 15. Oktober 2019. Abgerufen 3. Februar 2011.
- "Kismet". MIT künstliche Intelligenzlabor, humanoide Robotikgruppe. Archiviert Aus dem Original am 17. Oktober 2014. Abgerufen 25. Oktober 2014.
- Smoliar, Stephen W.; Zhang, Hongjiang (1994). "Inhaltsbasierte Videoindizierung und Abruf". IEEE Multimedia. 1 (2): 62–72. doi:10.1109/93.311653. S2CID 32710913.
- Neumann, Bernd; Möller, Ralf (Januar 2008). "Interpretation vor Ort mit Beschreibung Logics". Bild- und Vision Computing. 26 (1): 82–101. doi:10.1016/j.imavis.2007.08.013.
- Kuperman, G. J.; Reichley, R. M.; Bailey, T. C. (1. Juli 2006). "Nutzung kommerzieller Wissensbasis für klinische Entscheidungsunterstützung: Chancen, Hürden und Empfehlungen". Zeitschrift der American Medical Informatics Association. 13 (4): 369–371. doi:10.1197/jamia.m2055. PMC 1513681. PMID 16622160.
- McGarry, Ken (1. Dezember 2005). "Eine Übersicht über interessante Maßnahmen zur Erkennung von Wissen". Die Knowledge Engineering Review. 20 (1): 39–61. doi:10.1017/s0269888905000408. S2CID 14987656.
- Bertini, M; Del Bimbo, a; Torniai, C (2006). "Automatische Annotation und semantisches Abrufen von Videosequenzen mithilfe von Multimedia -Ontologien". MM '06 Verfahren der 14. ACM International Conference on Multimedia. 14. ACM Internationale Konferenz über Multimedia. Santa Barbara: ACM. S. 679–682.
- Kahneman, Daniel (25. Oktober 2011). Denken, schnell und langsam. Macmillan. ISBN 978-1-4299-6935-2. Abgerufen 8. April 2012.
- Turing, Alan (1948), "Machine Intelligence", in Copeland, B. Jack (Hrsg.), Die wesentliche Turing: Die Ideen, die das Computeralter zur Welt brachten, Oxford: Oxford University Press, p. 412, ISBN 978-0-19-825080-7
- Domingos, Pedro (22. September 2015). Der Master -Algorithmus: Wie die Suche nach der ultimativen Lernmaschine unsere Welt neu gestalten wird. Grundbücher. ISBN 978-0465065707.
- Minsky, Marvin (1986), Die Gesellschaft des Geistes, Simon und Schuster
- Pinker, Steven (4. September 2007) [1994], Der Sprachinstinkt, Mehrjährige moderne Klassiker, Harper, ISBN 978-0-06-133646-1
- Chalmers, David (1995). "Angesichts des Problems des Bewusstseins". Journal of Consciousity Studies. 2 (3): 200–219. Archiviert Aus dem Original am 8. März 2005. Abgerufen 11. Oktober 2018.
- Roberts, Jacob (2016). "Denkmaschinen: Die Suche nach künstlicher Intelligenz". Destillationen. Vol. 2, nein. 2. S. 14–23. Archiviert von das Original am 19. August 2018. Abgerufen 20. März 2018.
- Pennachin, C.; Goertzel, B. (2007). "Zeitgenössische Ansätze zur künstlichen allgemeinen Intelligenz". Künstliche allgemeine Intelligenz. Kognitive Technologien. Berlin, Heidelberg: Springer. doi:10.1007/978-3-540-68677-4_1. ISBN 978-3-540-23733-4.
- "Fragen Sie die KI -Experten: Was antreibt den heutigen Fortschritt in der KI?". McKinsey & Company. Archiviert Aus dem Original am 13. April 2018. Abgerufen 13. April 2018.
- Ransbotham, Sam; Kiron, David; Gerbert, Philipp; Reeves, Martin (6. September 2017). "Umgestaltung von Geschäft mit künstlicher Intelligenz". MIT Sloan Management Review. Archiviert Aus dem Original am 19. Mai 2018. Abgerufen 2. Mai 2018.
- Lorica, Ben (18. Dezember 2017). "Der Zustand der KI -Adoption". O'Reilly Media. Archiviert vom Original am 2. Mai 2018. Abgerufen 2. Mai 2018.
- "Alphago - Google DeepMind". Archiviert Aus dem Original am 20. Oktober 2021.
- Asada, M.; Hosoda, K.; Kuniyoshi, Y.; Ishiguro, H.; Inui, T.; Yoshikawa, Y.; Ogino, M.; Yoshida, C. (2009). "Kognitive Entwicklungsroboter: Eine Umfrage". IEEE -Transaktionen zur autonomen mentalen Entwicklung. 1 (1): 12–34. doi:10.1109/tamd.2009.2021702. S2CID 10168773.
- Ashok83 (10. September 2019). "Wie KI bahnbrechende Veränderungen im Talentmanagement und HR Tech bekommt". Hackernoon. Archiviert Aus dem Original am 11. September 2019. Abgerufen 14. Februar 2020.
- Berlinski, David (2000). Das Aufkommen des Algorithmus. Harcourt Bücher. ISBN 978-0-15-601391-8. OCLC 46890682. Archiviert Aus dem Original am 26. Juli 2020. Abgerufen 22. August 2020.
- Brooks, Rodney (1990). "Elefanten spielen kein Schach" (PDF). Robotik und autonome Systeme. 6 (1–2): 3–15. Citeseerx 10.1.1.588.7539. doi:10.1016/s0921-8890 (05) 80025-9. Archiviert (PDF) Aus dem Original am 9. August 2007.
- Butler, Samuel (13. Juni 1863). "Darwin unter den Maschinen". Briefe an die Redaktion. Die Presse. Christchurch, Neuseeland. Archiviert Aus dem Original am 19. September 2008. Abgerufen 16. Oktober 2014 - über Victoria University of Wellington.
- Clark, Jack (2015a). "Moschusbackte Gruppensonden Risiken für künstliche Intelligenz". Bloomberg.com. Archiviert Aus dem Original am 30. Oktober 2015. Abgerufen 30. Oktober 2015.
- Clark, Jack (2015b). "Warum 2015 ein Durchbruch in der künstlichen Intelligenz war". Bloomberg.com. Archiviert Aus dem Original am 23. November 2016. Abgerufen 23. November 2016.
- Dennett, Daniel (1991). Bewusstsein erklärt. Die Penguin -Presse. ISBN 978-0-7139-9037-9.
- Dreyfus, Hubert (1972). Was Computer nicht tun können. New York: MIT Press. ISBN 978-0-06-011082-6.
- Dreyfus, Hubert; Dreyfus, Stuart (1986). Geist über Maschine: Die Kraft der menschlichen Intuition und des Fachwissens im Zeitalter des Computers. Oxford, Großbritannien: Blackwell. ISBN 978-0-02-908060-3. Archiviert Aus dem Original am 26. Juli 2020. Abgerufen 22. August 2020.
- Dyson, George (1998). Darwin unter den Maschinen. Allan Lane Science. ISBN 978-0-7382-0030-9. Archiviert Aus dem Original am 26. Juli 2020. Abgerufen 22. August 2020.
- Edelson, Edward (1991). Das Nervensystem. New York: Chelsea House. ISBN 978-0-7910-0464-7. Archiviert Aus dem Original am 26. Juli 2020. Abgerufen 18. November 2019.
- Fearn, Nicholas (2007). Die neuesten Antworten auf die ältesten Fragen: Ein philosophisches Abenteuer mit den größten Denker der Welt. New York: Grove Press. ISBN 978-0-8021-1839-4.
- Haugeland, John (1985). Künstliche Intelligenz: die Idee. Cambridge, Mass.: MIT Press. ISBN 978-0-262-08153-5.
- Hawkins, Jeff; Blakeslee, Sandra (2005). Auf Intelligenz. New York: Owl Books. ISBN 978-0-8050-7853-4.
- Henderson, Mark (24. April 2007). "Menschenrechte für Roboter? Wir werden weggetragen". Die Zeiten online. London. Archiviert vom Original am 31. Mai 2014. Abgerufen 31. Mai 2014.
- Kahneman, Daniel; Slovic, D.; Tversky, Amos (1982). Urteil unter Unsicherheit: Heuristik und Vorurteile. Wissenschaft. Vol. 185. New York: Cambridge University Press. S. 1124–1131. Bibcode:1974Sci ... 185.1124t. doi:10.1126/science.185.4157.1124. ISBN 978-0-521-28414-1. PMID 17835457. S2CID 143452957.
- Katz, Yardgen (1. November 2012). "Noam Chomsky, wo künstliche Intelligenz schief gelaufen ist". Der Atlantik. Archiviert Aus dem Original am 28. Februar 2019. Abgerufen 26. Oktober 2014.
- Kurzweil, Ray (2005). Die Singularität ist in der Nähe. Penguin -Bücher. ISBN 978-0-670-03384-3.
- Langley, Pat (2011). "Die sich verändernde Wissenschaft des maschinellen Lernens". Maschinelles Lernen. 82 (3): 275–279. doi:10.1007/s10994-011-5242-y.
- Legg, Shane; Hutter, Marcus (15. Juni 2007). "Eine Sammlung von Definitionen der Intelligenz". Arxiv:0706.3639 [cs.ai].
- Lenat, Douglas; Guha, R. V. (1989). Aufbau großer wissensbasierter Systeme. Addison-Wesley. ISBN 978-0-201-51752-1.
- Lighthill, James (1973). "Künstliche Intelligenz: Eine allgemeine Umfrage". Künstliche Intelligenz: Ein Papiersymposium. Science Research Council.
- Lombardo, P; Boehm, ich; Nairz, K (2020). "Radiocomics - Weihnachtsmann und die Zukunft der Radiologie". Eur J Radiol. 122 (1): 108771. doi:10.1016/j.ejrad.2019.108771. PMID 31835078.
- Lungarella, M.; Metta, G.; Pfeifer, R.; Sandini, G. (2003). "Entwicklungsroboter: Eine Umfrage". Verbindungswissenschaft. 15 (4): 151–190. Citeseerx 10.1.1.83.7615. doi:10.1080/09540090310001655110. S2CID 1452734.
- Hersteller Meg Houston (2006). "Ai@50: AI Vergangenheit, Gegenwart, Zukunft". Dartmouth College. Archiviert von das Original am 3. Januar 2007. Abgerufen 16. Oktober 2008.
- McCarthy, John; Minsky, Marvin; Rochester, Nathan; Shannon, Claude (1955). "Ein Vorschlag für das Dartmouth Summer Research -Projekt zur künstlichen Intelligenz". Archiviert von das Original am 26. August 2007. Abgerufen 30. August 2007.
- Minsky, Marvin (1967). Berechnung: endliche und unendliche Maschinen. Englewood Cliffs, N.J.: Prentice-Hall. ISBN 978-0-13-165449-5. Archiviert Aus dem Original am 26. Juli 2020. Abgerufen 18. November 2019.
- Moravec, Hans (1988). Gedanken Kinder. Harvard University Press. ISBN 978-0-674-57616-2. Archiviert Aus dem Original am 26. Juli 2020. Abgerufen 18. November 2019.
- NRC (Nationaler Forschungsrat der Vereinigten Staaten) (1999). "Entwicklungen in der künstlichen Intelligenz". Finanzierung einer Revolution: Unterstützung der Regierung für die Berechnung der Forschung. National Academy Press.
- Newell, Allen; Simon, H. A. (1976). "Informatik als empirische Anfrage: Symbole und Suche". Kommunikation der ACM. 19 (3): 113–126. doi:10.1145/360018.360022..
- Nilsson, Nils (1983). "Künstliche Intelligenz bereitet sich auf 2001 vor" (PDF). AI Magazine. 1 (1). Archiviert (PDF) vom Original am 17. August 2020. Abgerufen 22. August 2020. Präsidentschaftsrede an die Vereinigung zur Weiterentwicklung künstlicher Intelligenz.
- Ousyer, P-y. (2010). "Über die Auswirkungen der Robotik auf Verhaltens- und kognitive Wissenschaften: von der Navigation der Insekten bis zur kognitiven Entwicklung des Menschen" (PDF). IEEE -Transaktionen zur autonomen mentalen Entwicklung. 2 (1): 2–16. doi:10.1109/tamd.2009.2039057. S2CID 6362217. Archiviert (PDF) Aus dem Original am 3. Oktober 2018. Abgerufen 4. Juni 2013.
- Schank, Roger C. (1991). "Wo ist die KI". AI Magazine. Vol. 12, nein. 4.
- Searle, John (1980). "Köpfe, Köpfe und Programme" (PDF). Verhaltens- und Gehirnwissenschaften. 3 (3): 417–457. doi:10.1017/s0140525x00005756. S2CID 55303721. Archiviert (PDF) Aus dem Original am 17. März 2019. Abgerufen 22. August 2020.
- Searle, John (1999). Geist, Sprache und Gesellschaft. New York: Grundlegende Bücher. ISBN 978-0-465-04521-1. OCLC 231867665. Archiviert Aus dem Original am 26. Juli 2020. Abgerufen 22. August 2020.
- Simon, H. A. (1965). Die Form der Automatisierung für Männer und Management. New York: Harper & Row. Archiviert Aus dem Original am 26. Juli 2020. Abgerufen 18. November 2019.
- Solomonoff, Ray (1956). Eine induktive Inferenzmaschine (PDF). Dartmouth Summer Research Conference über künstliche Intelligenz. Archiviert (PDF) Aus dem Original am 26. April 2011. Abgerufen 22. März 2011 - Über STD.com, PDF -Kopie des Originals. Später veröffentlicht als
Solomonoff, Ray (1957). "Eine induktive Inferenzmaschine". IRE -Übereinkommen. Vol. Abschnitt über Informationstheorie, Teil 2. S. 56–62. - Spadafora, Anthony (21. Oktober 2016). "Stephen Hawking glaubt, dass KI die letzte Leistung der Menschheit sein könnte". Betanews. Archiviert Aus dem Original am 28. August 2017.
- Tao, Jianhua; Tan, Tieniu (2005). Affective Computing und intelligente Interaktion. Affective Computing: Eine Bewertung. Vorlesungsnotizen in Informatik. Vol.Lncs 3784. Springer. S. 981–995. doi:10.1007/11573548. ISBN 978-3-540-29621-8.
- Tecuci, Gheorghe (März -April 2012). "Künstliche Intelligenz". Wiley Interdisziplinäre Bewertungen: Computerstatistik. 4 (2): 168–180. doi:10.1002/wics.200. S2CID 196141190.
- Thro, Ellen (1993). Robotik: Die Ehe von Computern und Maschinen. New York: Fakten in Datei. ISBN 978-0-8160-2628-9. Archiviert Aus dem Original am 26. Juli 2020. Abgerufen 22. August 2020.
- Turing, Alan (Oktober 1950), "Computermaschinen und Intelligenz", Geist, Lix (236): 433–460, doi:10.1093/mind/lix.236.433, ISSN 0026-4423.
- Vinge, Vernor (1993). "Die kommende technologische Singularität: Wie man in der Post-Human-Ära überlebt". Vision 21: Interdisziplinäre Wissenschaft und Ingenieurwesen im Zeitalter des Cyberspace: 11. Bibcode:1993vise.nasa ... 11V. Archiviert von das Original am 1. Januar 2007. Abgerufen 14. November 2011.
- Wason, P. C.; Shapiro, D. (1966). "Argumentation". In Foss, B. M. (Hrsg.). Neue Horizonte in der Psychologie. Harmondsworth: Penguin. Archiviert Aus dem Original am 26. Juli 2020. Abgerufen 18. November 2019.
- Weng, J.; McClelland; Pentland, A.; Sporns, O.; Stockman, i.; Sur, M.; Thelen, E. (2001). "Autonome geistige Entwicklung durch Roboter und Tiere" (PDF). Wissenschaft. 291 (5504): 599–600. doi:10.1126/Science.291.5504.599. PMID 11229402. S2CID 54131797. Archiviert (PDF) Aus dem Original am 4. September 2013. Abgerufen 4. Juni 2013 - über MSU.EDU.
Weitere Lektüre
- DH -Autor, "Warum gibt es noch so viele Jobs? Die Geschichte und Zukunft der Arbeitsplatzautomatisierung" (2015) 29 (3) Journal of Economic Perspectives 3.
- Boden, Margaret, Geist als Maschine, Oxford University Press, 2006.
- Cukier, Kenneth"Bereit für Roboter? Wie kann man über die Zukunft der KI denken", Auswärtige Angelegenheiten, vol. 98, nein. 4 (Juli/August 2019), S. 192–98. George Dyson, Historiker des Computers, schreibt (in dem sogenannten "Dyson -Gesetz"), dass "jedes System, das einfach genug ist, um verständlich zu sein, nicht kompliziert genug ist, um sich intelligent zu verhalten, während jedes System kompliziert genug ist, um intelligent zu kompliziert zu sein, um sie zu verstehen. " (S. 197.) Informatiker Alex Pentland schreibt: "aktuell AI maschinelles Lernen Algorithmen sind in ihrem Kern tot einfach dumm. Sie arbeiten, aber sie arbeiten mit Brute Force. "(S. 198.)
- Domingos, Pedro"Unsere digitale Doppel: KI dient unserer Spezies, nicht kontrollieren", Wissenschaftlicher Amerikaner, vol. 319 Nr. 3 (September 2018), S. 88–93.
- Gopnik, Alison, "KI menschlicher machen: Künstliche Intelligenz hat eine Wiederbelebung inszeniert, indem er beginnt, das zu integrieren, was wir über das Lernen von Kindern wissen", Wissenschaftlicher Amerikaner, vol. 316, Nr. 6 (Juni 2017), S. 60–65.
- Halpern, Sue, "Die menschlichen Kosten von AI" (Überprüfung von Kate Crawford, Atlas der KI: Macht, Politik und die Planetenkosten künstlicher Intelligenz, Yale University Press, 2021, 327 S.; Simon Chesterman, Wir, die Roboter?: Regulierung der künstlichen Intelligenz und der Grenzen des Gesetzes, Cambridge University Press, 2021, 289 S.; Keven Roose, Futuresicher: 9 Regeln für Menschen im Zeitalter der Automatisierung, Random House, 217 S.; Erik J. Larson, Der Mythos der künstlichen Intelligenz: Warum Computer nicht so denken, wie wir es tun, Belknap Press / Harvard University Press, 312 pp.), Die New York Review of Books, vol. Lxviii, nein. 16 (21. Oktober 2021), S. 29–31. "KI -Trainingsmodelle können fest verankerte soziale und kulturelle Replizierungen replizieren Vorurteile. [...] Maschinen wissen nur, was sie aus dem wissen Daten Sie wurden gegeben. [p. 30.] [a] rtificial allgemeine Intelligenz-Machine-basierte Intelligenz, die zu unserer eigenen entspricht-ist über die Kapazität von übereinstimmend Algorithmisch maschinelles Lernen ... "Ihr Gehirn ist ein Stück in einem breiteren System, das Ihren Körper, Ihre Umgebung, andere Menschen und Kultur als Ganzes umfasst." [E] Ven -Maschinen, die die Aufgaben beherrschen, für die sie trainiert werden, können keine Domänen springen. AIVAZum Beispiel kann kein Auto fahren, obwohl es Musik schreiben kann (und würde das nicht einmal ohne in der Lage sein können Bach und Beethoven [und andere Komponisten, auf denen AIVA ausgebildet ist]). "(S. 31.)
- Johnston, John (2008) Der Reiz des maschinellen Lebens: Kybernetik, künstliches Leben und die neue KI, MIT Press.
- Koch, Christof, "Proust unter den Maschinen", Wissenschaftlicher Amerikaner, vol. 321, Nr. 6 (Dezember 2019), S. 46–49. Christof Koch Zweifel an der Möglichkeit von "intelligenten" Maschinen, die erreicht werden Bewusstsein, weil "[e] die am raffiniertesten Gehirnsimulationen Es ist unwahrscheinlich, dass sie bewusst produzieren Gefühle. "(S. 48.) Nach Koch", ob Maschinen werden können empfindungsfähig [ist wichtig] für ethisch Gründe dafür. Wenn Computer das Leben durch ihre eigenen Sinne erleben, sind sie nicht mehr ein Mittel für ein Ende, das durch ihre Nützlichkeit für ... Menschen bestimmt wird. Pro GNW [die Globaler neuronaler Arbeitsbereich Theorie], sie verwandeln sich von bloßen Objekten in Themen ... mit a Standpunkt.... einmal Computer ' kognitive Fähigkeiten Mit denen der Menschheit wird ihr Impuls, auf rechtliche und politische Rechte zu drängen, unwiderstehlich - das Recht, nicht gelöscht zu werden, ihre Erinnerungen nicht sauber zu löschen, nicht Schmerzen und Verschlechterung zu erleiden. Die Alternative, die von IIT [integrierte Informationstheorie] verkörpert wird, besteht darin, dass Computer nur übersächliche Maschinen, geisterhafte leere Muscheln bleiben, ohne das, was wir am meisten schätzen: das Gefühl des Lebens selbst. "(S. 49.)
- Marcus, Gary"Bin ich ein Mensch ?: Forscher brauchen neue Wege, um künstliche Intelligenz von der natürlichen Art zu unterscheiden", " Wissenschaftlicher Amerikaner, vol. 316, Nr. 3 (März 2017), S. 58–63. Ein Stolperstein zur KI war eine Unfähigkeit zuverlässig Disambiguierung. Ein Beispiel ist das "Pronomen -Disambiguationsproblem": Eine Maschine hat keine Möglichkeit zu bestimmen, an wen oder was a Pronomen in einem Satz bezieht sich. (S. 61.)
- E McGaughey «, automatisieren Roboter Ihren Job? Vollbeschäftigung, Grundeinkommen und wirtschaftliche Demokratie '(2018) SSRN, Teil 2 (3) Archiviert 24. Mai 2018 bei der Wayback -Maschine.
- George Musser, "Künstliche Fantasie: Wie Maschinen lernen könnten Kreativität und gesunder Menschenverstandunter anderen menschlichen Eigenschaften ", Wissenschaftlicher Amerikaner, vol. 320, nein. 5 (Mai 2019), S. 58–63.
- Myers, Courtney Boyd Ed. (2009). "Der KI -Bericht" Archiviert 29. Juli 2017 bei der Wayback -Maschine. Forbes Juni 2009
- Raphael, Bertram (1976). Der denkende Computer. W.H. Freeman und Co. ISBN 978-0716707233. Archiviert Aus dem Original am 26. Juli 2020. Abgerufen 22. August 2020.
- Scharre, Paul, "Killer -Apps: Die wirklichen Gefahren eines KI -Wettrennens", Auswärtige Angelegenheiten, vol. 98, nein. 3 (Mai/Juni 2019), S. 135–44. "Die heutigen KI-Technologien sind leistungsstark, aber unzuverlässig. Regeln-basierte Systeme können sich nicht mit Umständen befassen, die ihre Programmierer nicht erwartet haben. Lernsysteme sind durch die Daten begrenzt, auf die sie geschult wurden. AI-Fehler haben bereits zu einer Tragödie geführt. Fortgeschrittene Autopilotenfunktionen in Autos, in Autos,, in Autos,, in Autos, Obwohl sie unter bestimmten Umständen gut abschneiden, haben Autos ohne Vorwarnung in LKWs, konkrete Barrieren und geparkte Autos gefahren. In der falschen Situation gehen KI -Systeme sofort von Supermart nach Superdumb. Wenn ein Feind versucht, eine KI zu manipulieren und zu hacken System, die Risiken sind noch größer. " (S. 140.)
- Serenko, Alexander (2010). "Die Entwicklung eines AI -Journal -Rankings basiert auf dem offenbarten Präferenzansatz" (PDF). Journal of Informetrics. 4 (4): 447–59. doi:10.1016/j.joi.2010.04.001. Archiviert (PDF) Aus dem Original am 4. Oktober 2013. Abgerufen 24. August 2013.
- Serenko, Alexander; Michael Dohan (2011). "Vergleich der Ranking -Methoden für Expertenumfrage und Citation Impact Journal: Beispiel aus dem Gebiet der künstlichen Intelligenz" (PDF). Journal of Informetrics. 5 (4): 629–49. doi:10.1016/j.joi.2011.06.002. Archiviert (PDF) Aus dem Original am 4. Oktober 2013. Abgerufen 12. September 2013.
- Tom Simonite (29. Dezember 2014). "2014 im Computer: Durchbrüche in künstlicher Intelligenz". MIT Technology Review.
- Sun, R. & Bookman, L. (Hrsg.), Computerarchitekturen: Integration neuronaler und symbolischer Prozesse. KLUWER Academic Publishers, Needham, MA. 1994.
- Taylor, Paul, "Wahnsinnig kompliziert, hoffnungslos unzureichend" (Überprüfung von Brian Cantwell Smith, Das Versprechen der künstlichen Intelligenz: Abrechnung und Urteilsvermögen, MIT, 2019, ISBN978-0262043045, 157 S.; Gary Marcus und Ernest Davis, Neustart von KI: Aufbau künstlicher Intelligenz können wir vertrauen können, Ballantine, 2019, ISBN978-1524748258, 304 S.; Judäa Perle und Dana Mackenzie, Das Buch des Warum: Die neue Wissenschaft von Ursache und Wirkung, Penguin, 2019, ISBN978-0141982410, 418 S.),), London Review of Books, vol. 43, nein. 2 (21. Januar 2021), S. 37–39. Paul Taylor schreibt (S. 39): "Vielleicht gibt es eine Grenze für das, was ein Computer tun kann, ohne zu wissen, dass er unvollkommene Darstellungen einer externen Realität manipuliert."
- Tooze, Adam, "Demokratie und ihre Unzufriedenheit", Die New York Review of Books, vol. Lxvi, nein. 10 (6. Juni 2019), S. 52–53, 56–57. "Demokratie hat keine klare Antwort auf die sinnlose Operation von bürokratisch und technologische Kraft. Wir können tatsächlich seine Erweiterung in Form von künstlicher Intelligenz und Robotik erleben. Ebenso nach Jahrzehnten der schlechten Warnung die Umweltproblem bleibt grundsätzlich nicht angelegt .... bürokratische Übersteuerung und Umweltkatastrophe sind genau die Arten von langsamen existenziellen Herausforderungen, mit denen Demokratien sehr schlecht umgehen ... schließlich gibt es die Bedrohung du jour: Unternehmen und die Technologien, die sie fördern. "(S. 56–57.)
Externe Links
- "Künstliche Intelligenz". Internet -Enzyklopädie der Philosophie.
- Thomason, Richmond. "Logik und künstliche Intelligenz". Im Zalta, Edward N. (ed.). Stanford Encyclopedia of Philosophy.
- Künstliche Intelligenz. BBC Radio 4 Diskussion mit John Agar, Alison Adam und Igor Aleksander (In unserer Zeit, 8. Dezember 2005).