Philosophie der künstlichen Intelligenz

Das Philosophie der künstlichen Intelligenz ist ein Zweig der Technologiephilosophie Das untersucht künstliche Intelligenz und seine Auswirkungen auf das Wissen und das Verständnis von Intelligenz, Ethik, Bewusstsein, Erkenntnistheorie, und Freier Wille.[1] Darüber hinaus befasst sich die Technologie mit der Schaffung künstlicher Tiere oder künstlicher Menschen (oder zumindest künstliche Kreaturen; siehe siehe künstliches Leben) Die Disziplin ist also für Philosophen von erheblichem Interesse.[2] Diese Faktoren trugen zur Entstehung der bei Philosophie der künstlichen Intelligenz. Einige Wissenschaftler argumentieren, dass die Entlassung der Philosophie der KI -Gemeinschaft schädlich ist.[3]

Die Philosophie der künstlichen Intelligenz versucht, solche Fragen zu beantworten, wie folgt:[4]

  • Kann eine Maschine intelligent handeln? Kann es lösen? irgendein Problem, das eine Person durch Denken lösen würde?
  • Sind menschliche Intelligenz und maschinelle Intelligenz gleich? Ist der menschliches Gehirn Im Wesentlichen ein Computer?
  • Kann eine Maschine eine haben Geist, mentale Zustände und Bewusstsein in dem gleichen Sinne, wie ein Mensch kann? Kann es fühle, wie die Dinge sind?

Fragen wie diese spiegeln die unterschiedlichen Interessen von wider KI -Forscher, Kognitionswissenschaftler und Philosophen beziehungsweise. Die wissenschaftlichen Antworten auf diese Fragen hängen von der Definition von "Intelligenz" und "Bewusstsein" ab und genau welche "Maschinen" diskutiert werden.

Wichtig Aussagen In der Philosophie der KI enthält einige der folgenden:

  • Turings "höfliche Konvention": Wenn sich eine Maschine so intelligent verhält wie ein Mensch, dann ist sie so intelligent wie ein Mensch.[5]
  • Das Dartmouth Vorschlag: "Jeder Aspekt des Lernens oder eines anderen Merkmals der Intelligenz kann so genau beschrieben werden, dass eine Maschine dazu gebracht werden kann, sie zu simulieren."[6]
  • Allen Newell und Herbert A. Simon's Physikalisches Symbolsystem Hypothese: "Ein physikalisches Symbolsystem hat das notwendige und ausreichende Mittel allgemein intelligenter Handeln."[7]
  • John Searle's Starke AI -Hypothese: "Der entsprechend programmierte Computer mit den richtigen Eingängen und Ausgängen hätte dadurch einen Verstand in genau dem gleichen Sinn, den Menschen Geist haben."[8]
  • Hobbes"Mechanismus:" Aus „Vernunft“ ... ist nichts anderes als 'Abrechnung', das fügt und subtrahiere die Konsequenzen von allgemeinen Namen, die für die 'Markierung' und 'Bedeutung' unserer Gedanken vereinbart wurden ... "[9]

Kann eine Maschine allgemeine Intelligenz anzeigen?

Ist es möglich, eine Maschine zu erstellen, die lösen kann alle Die Probleme, die Menschen mit ihrer Intelligenz lösen? Diese Frage definiert den Umfang dessen, was Maschinen in Zukunft tun könnten, und führt die Richtung der KI -Forschung. Es betrifft nur das Verhalten von Maschinen und ignoriert die von Interesse von Interesse an Psychologen, kognitive Wissenschaftler und Philosophen; Um diese Frage zu beantworten, spielt es keine Rolle, ob eine Maschine ist Ja wirklich Denken (wie eine Person denkt) oder ist gerecht sich wie es denkt.[10]

Die grundlegende Position der meisten KI -Forscher wird in dieser Erklärung zusammengefasst, die im Vorschlag für die erschien Dartmouth Workshop von 1956:

  • "Jeder Aspekt des Lernens oder eines anderen Merkmals der Intelligenz kann so genau beschrieben werden, dass eine Maschine dazu gebracht werden kann, sie zu simulieren."[6]

Argumente gegen die grundlegende Prämisse müssen nachweisen, dass der Aufbau eines funktionierenden KI -Systems unmöglich ist Maschine (oder nach den Methoden der aktuellen AI -Forschung). Argumente für die grundlegende Prämisse müssen nachweisen, dass ein solches System möglich ist.

Es ist auch möglich, die Verbindung zwischen den beiden Teilen des obigen Vorschlags zu umgehen. Zum Beispiel maschinelles Lernen, beginnend mit Turings berüchtigter Kindermaschine Vorschlag[11] Erreicht im Wesentlichen das gewünschte Merkmal der Intelligenz ohne eine genaue Beschreibung der Designzeit darüber, wie es genau funktionieren würde. Das Konto für Roboter -Tacit -Wissen[12] Beseitigt die Notwendigkeit einer genauen Beschreibung alle zusammen.

Der erste Schritt zur Beantwortung der Frage besteht darin, "Intelligenz" klar zu definieren.

Intelligenz

Die "Standardinterpretation" des Turing -Tests.[13]

Turing-Test

Alan Turing[14] reduzierte das Problem der Definition von Intelligenz auf eine einfache Frage zum Gespräch. Er schlägt Folgendes vor: Wenn eine Maschine antworten kann irgendein Frage stellen Sie die gleichen Wörter mit, die eine gewöhnliche Person würde, und können diese Maschine intelligent bezeichnen. Eine moderne Version seines experimentellen Designs würde ein Online verwenden Chatraum, wo einer der Teilnehmer eine echte Person und einer der Teilnehmer ist ein Computerprogramm. Das Programm besteht den Test, wenn niemand erkennen kann, welcher der beiden Teilnehmer menschlich ist.[5] Turing stellt fest, dass niemand (außer Philosophen) jemals die Frage stellt: "Können die Leute denken?" Er schreibt: "Anstatt über diesen Punkt kontinuierlich zu streiten, ist es üblich, eine höfliche Konvention zu haben, die jeder denkt".[15] Der Test von Turing verlängert diese höfliche Konvention auf Maschinen:

  • Wenn eine Maschine so intelligent wie ein Mensch fungiert, ist sie so intelligent wie ein Mensch.

Eine Kritik an der Turing-Test ist, dass es nur die "Menschlichkeit" des Verhaltens der Maschine und nicht die "Intelligenz" des Verhaltens misst. Da menschliches Verhalten und intelligentes Verhalten nicht genau dasselbe sind, misst der Test die Intelligenz nicht. Stuart J. Russell und Peter Norvig Schreiben Sie, dass "Aeronautical Engineering -Texte das Ziel ihres Feldes nicht als" Maschinen machen, die so genau wie Tauben fliegen, dass sie andere Tauben täuschen können ".[16]

Intelligente Agentendefinition

Einfacher Reflexagent

Die AI-Forschung des 21. Jahrhunderts definiert Intelligenz in Bezug auf intelligente Agenten. Ein "Agent" ist etwas, das in einer Umgebung wahrnimmt und handelt. Eine "Leistungsmaßnahme" definiert, was als Erfolg für den Agenten gilt.[17]

  • "Wenn ein Agent so wirkt, dass der erwartete Wert einer Leistungsmaßnahme auf der Grundlage früherer Erfahrungen und des Wissens maximiert wird, ist er intelligent."[18]

Definitionen wie diese versuchen, die Essenz der Intelligenz zu erfassen. Sie haben den Vorteil, dass sie im Gegensatz zum Turing -Test nicht auch auf unverständliche menschliche Merkmale testen, wie z. B. Schreibfehler[19] oder die Fähigkeit, beleidigt zu werden.[20] Sie haben den Nachteil, dass sie nicht zwischen "Dingen, die denken" und "Dinge, die nicht" unterscheiden können. Durch diese Definition hat sogar ein Thermostat eine rudimentäre Intelligenz.[21]

Argumente, dass eine Maschine allgemeine Intelligenz anzeigen kann

Das Gehirn kann simuliert werden

Ein MRT scannen eines normalen erwachsenen menschlichen Gehirns

Hubert Dreyfus beschreibt dieses Argument als behauptet, dass "wenn das Nervensystem den Gesetzen der Physik und Chemie gehorcht, was wir aus allen Gründen haben, es zu tun, dann ... wir ... sollten in der Lage sein, das Verhalten des Nervensystems zu reproduzieren mit etwas physischem Gerät ".[22]Dieses Argument, das erstmals bereits 1943 eingeführt wurde[23] und lebhaft beschrieben von Hans Moravec 1988,,[24] ist jetzt mit Futurist verbunden Ray Kurzweil, der schätzt, dass die Computerleistung bis zum Jahr 2029 für eine vollständige Hirnsimulation ausreicht.[25] Eine Simulation eines Thalamokortikals mit Nicht-Real-Zeit, das die Größe des menschlichen Gehirns aufweist (1011 Neuronen) wurde 2005 durchgeführt[26] und es dauerte 50 Tage, um 1 Sekunde der Gehirndynamik an einem Cluster von 27 Prozessoren zu simulieren.

Sogar Ais härteste Kritiker (wie z. Hubert Dreyfus und John Searle) stimmen zu, dass theoretisch eine Gehirnsimulation möglich ist.[a] Searle weist jedoch im Prinzip darauf hin, dass irgendetwas kann von einem Computer simuliert werden; Wenn Sie die Definition in ihren Bruchpunkt bringen, führt dies zu der Schlussfolgerung, dass jeder Prozess technisch als "Berechnung" betrachtet werden kann. "Was wir wissen wollten, unterscheidet den Geist von Thermostaten und Lebern", schreibt er.[29] Ein ledigliches Simulieren der Funktionen eines lebenden Gehirns wäre also eine Eingeständnis von Unwissenheit in Bezug Luftfahrttechnik.[30]

Menschliches Denken ist die Symbolverarbeitung

1963,, Allen Newell und Herbert A. Simon schlug vor, dass "Symbolmanipulation" die Essenz sowohl der menschlichen als auch der maschinellen Intelligenz war. Sie schrieben:

  • "Ein physikalisches Symbolsystem hat das notwendige und ausreichende Mittel allgemein intelligenter Handeln."[7]

Diese Behauptung ist sehr stark: Sie impliziert beide, dass menschliches Denken eine Art Symbolmanipulation ist (weil ein Symbolsystem ist notwendig für Intelligenz) und dass Maschinen intelligent sein können (weil ein Symbolsystem ist reicht aus für Intelligenz).[31] Eine andere Version dieser Position wurde vom Philosophen Hubert Dreyfus beschrieben, der sie "die psychologische Annahme" nannte:

  • "Der Geist kann als Gerät angesehen werden, das auf Informationen gemäß den formalen Regeln arbeitet."[32]

Die "Symbole", die Newell, Simon und Dreyfus diskutierten, waren wortähnlich und hohe Ebene-Symbole, die direkt mit Objekten in der Welt entsprechen, wie z. B. <hund> und <schwanz>. Die meisten KI -Programme zwischen 1956 und 1990 verwendeten diese Art von Symbol. Die moderne KI, basierend auf Statistiken und mathematischer Optimierung, verwendet nicht die hochrangige "Symbolverarbeitung", die Newell und Simon diskutierten.

Argumente gegen die Symbolverarbeitung

Diese Argumente zeigen, dass das menschliche Denken nicht (ausschließlich) aus der Manipulation des Symbols auf hoher Ebene besteht. Tun sie nicht Zeigen Sie, dass künstliche Intelligenz unmöglich ist, nur dass mehr als Symbolverarbeitung erforderlich ist.

Gödelian Anti-mechanistische Argumente

1931, Kurt Gödel mit einem bewiesen Unvollständigkeitstheorem dass es immer möglich ist, ein "Gödel" zu konstruieren Aussage"Das eine gegebene Konsequenz formelles System der Logik (wie ein hochrangiges Symbolmanipulationsprogramm) konnte nicht beweisen. Trotz einer echten Aussage ist die konstruierte Gödel -Aussage in dem gegebenen System nicht bewirtschaftet. (Die Wahrheit der konstruierten Götel -Aussage hängt von der Konsistenz des gegebenen Systems ab. Die Anwendung desselben Prozesse dass der menschliche Geist letztendlich die Wahrheit oder Falschheit einer gut gegründeten mathematischen Aussage (einschließlich einer möglichen Götel-Aussage) korrekt bestimmen kann, und dass daher die Macht des menschlichen Geistes nicht auf a reduzierbar ist Mechanismus.[33] Philosoph John Lucas (seit 1961) und Roger Penrose (Seit 1989) haben sich dieses philosophische antimechanistische Argument eingesetzt.[34]

Götelianische anti-mechanistische Argumente neigen dazu, sich auf die harmlos zu ersichtlich zu erscheinenden Behauptung zu verlassen Schlussfolgerungen, die aus ihrer eigenen Konsistenz folgen, einschließlich des Glaubens an seine Gödel -Aussage). Dies ist für eine Turing -Maschine nachweislich unmöglich (siehe Halting problem); Daher kommt der Gödelian zu dem Schluss, dass das menschliche Denken zu leistungsfähig ist, um von einer Turing -Maschine und damit ein digitales mechanisches Gerät erfasst zu werden.

Der moderne Konsens in der wissenschaftlichen und mathematischen Gemeinschaft ist jedoch, dass das tatsächliche menschliche Denken inkonsistent ist. dass jede konsistente "idealisierte Version" H des menschlichen Denkens wäre logischerweise gezwungen, eine gesunde, aber kontraintuitive aufgeschlossene Skepsis über die Konsistenz von zu verabschieden H (Andernfalls H ist nachweislich inkonsistent); und dass Gödels Theoreme nicht zu gültigem Argument führen, dass Menschen mathematische Argumentationsfunktionen haben, die über das hinausgehen, was eine Maschine jemals duplizieren könnte.[35][36][37] Dieser Konsens darüber, dass götelsche antimechanistische Argumente zum Scheitern verurteilt sind Künstliche Intelligenz: "irgendein Versuch zu nutzen (Gödels Unvollständigkeitsergebnisse), um die anzugreifen Computer- Die These muss illegitim sein, da diese Ergebnisse mit der Computer These übereinstimmen. "[38]

Stuart Russell und Peter Norvig Stimmen Sie zu, dass Gödels Argument nicht die Natur des realen menschlichen Denkens betrachtet. Es gilt für das, was theoretisch nachgewiesen werden kann, angesichts einer unendlichen Menge an Gedächtnis und Zeit. In der Praxis haben echte Maschinen (einschließlich Menschen) endliche Ressourcen und haben Schwierigkeiten, viele Theoreme zu beweisen. Es ist nicht notwendig, alles zu beweisen, um eine intelligente Person zu sein.[39]

Weniger formell, Douglas Hofstadter, in seinem Pulitzer-Preis Gewinnbuch Gödel, Escher, Bach: Ein ewiges goldenes Geflecht, gibt an, dass diese "Gödel-Statements" immer auf das System selbst beziehen und eine Analogie zu der Art und Weise aufweisen, wie die Epimenides Paradox Verwendet Aussagen, die sich auf sich selbst beziehen, wie "diese Aussage ist falsch" oder "Ich lüge".[40] Aber natürlich die Epimenides Paradox gilt für alles, was Aussagen macht, ob es sich um Maschinen handelt oder Menschen, sogar Lucas selbst. In Betracht ziehen:

  • Lucas kann die Wahrheit dieser Aussage nicht behaupten.[41]

Diese Aussage ist wahr, kann aber von Lucas nicht behauptet werden. Dies zeigt, dass Lucas selbst den gleichen Grenzen unterliegt, die er für Maschinen beschreibt, wie alle Menschen und so LucasDas Argument ist sinnlos.[42]

Nach dem Schluss, dass das menschliche Denken nicht erfüllt ist Quantenmechanik Staaten bieten Menschen einen besonderen Vorteil gegenüber bestehenden Computern. Bestehende Quantencomputer sind nur in der Lage, die Komplexität von berechnungsfähigen Aufgaben zu reduzieren, und sind weiterhin auf Aufgaben innerhalb des Umfangs der Turing -Maschinen beschränkt.[Klarstellung erforderlich]. Nach den Argumenten von Penrose und Lucas sind vorhandene Quantencomputer nicht ausreichend[Klarstellung erforderlich][warum?]Also sucht Penrose nach einem anderen Prozess, der neue Physik betrifft, beispielsweise die Quantengravitation Planck -Masse über einen spontanen Quantenkollaps der Wellenfunktion. Diese Zustände, so schlug er vor, treten sowohl innerhalb von Neuronen als auch in mehr als einem Neuron auf.[43] Andere Wissenschaftler weisen jedoch darauf hin, dass es im Gehirn keinen plausiblen organischen Mechanismus gibt, um irgendeine Art von Quantenberechnung zu nutzen, und außerdem, dass der Zeitraum der Quantenentkohärenz zu schnell erscheint, um die Neuronenfeuerung zu beeinflussen.[44]

Dreyfus: Das Primat implizite Fähigkeiten

Hubert Dreyfus argumentierte diese menschliche Intelligenz Und das Fachwissen hing in erster Linie eher von impliziten Fähigkeiten als von expliziten symbolischen Manipulationen ab und argumentierte, dass diese Fähigkeiten niemals in formalen Regeln erfasst würden.[45]

DreyfusDas Argument wurde von Turing in seiner Arbeit von 1950 erwartet Computermaschinen und Intelligenz, wo er dies als "Argument aus der Informalität des Verhaltens" eingestuft hatte.[46] Turing argumentierte als Antwort, dass dies nicht, nur weil wir die Regeln, die ein komplexes Verhalten regeln, nicht kennen, nicht bedeutet, dass keine solchen Regeln vorhanden sind. Er schrieb: "Wir können uns nicht so leicht von der Abwesenheit vollständiger Verhaltensgesetze überzeugen ... die einzige Möglichkeit, die wir wissen, solche Gesetze zu finden genug gesucht haben. Es gibt keine solchen Gesetze. '"[47]

Russell und Norvig weisen darauf hin, dass in den Jahren, in denen Dreyfus seine Kritik veröffentlicht hat, Fortschritte gemacht wurden, um die "Regeln" zu entdecken, die unbewusste Argumentation regeln.[48] Das gelegen Bewegung in Robotik Forschung Versuche, unsere unbewussten Fähigkeiten bei Wahrnehmung und Aufmerksamkeit zu erfassen.[49] Recheninformationen Paradigmen wie neuronale Netze, Evolutionsalgorithmen und so weiter sind hauptsächlich auf simuliertes unbewusstes Denken und Lernen gerichtet. Statistische Ansätze zur KI Kann Vorhersagen machen, die sich der Genauigkeit menschlicher intuitiver Vermutungen nähern. Erforschung von Commonsense -Wissen hat sich darauf konzentriert, den "Hintergrund" oder den Kontext des Wissens zu reproduzieren. Tatsächlich hat sich die KI -Forschung im Allgemeinen von der Manipulation von Symbolen auf hoher Ebene zu neuen Modellen entfernt, die mehr von unserem erfassen sollen unbewusst Argumentation.[48] Historiker und KI -Forscher Daniel Crevier schrieb: "Die Zeit hat die Genauigkeit und Wahrnehmung einiger von Dreyfus 'Kommentaren bewiesen. Hätte er sie weniger aggressiv formuliert, konstruktive Maßnahmen, die sie vorgeschlagen haben könnten, könnten viel früher ergriffen worden sein."[50]

Kann eine Maschine einen Verstand, ein Bewusstsein und eine mentale Zustände haben?

Dies ist eine philosophische Frage, die sich auf die bezieht Problem anderer Köpfe und die Hartes Problem des Bewusstseins. Die Frage dreht sich um eine Position, die durch definiert wurde John Searle als "starke KI":

  • Ein physikalisches Symbolsystem kann einen Geist und mentale Zustände haben.[8]

Searle unterschieden diese Position von dem, was er "schwache KI" nannte:

  • Ein physisches Symbolsystem kann intelligent handeln.[8]

Searle führte die Begriffe vor, um starke KI von schwacher KI zu isolieren, damit er sich auf das konzentrieren konnte, was er für das interessantere und umstrittenere Thema hielt. Er argumentierte das Auch wenn wir annehmen Dass wir ein Computerprogramm hatten, das genauso wie ein menschlicher Verstand verhielt, würde es immer noch eine schwierige philosophische Frage geben, die beantwortet werden musste.[8]

Keines von Searle's beiden Positionen ist von großer Bedeutung für die KI -Forschung, da sie die Frage nicht direkt beantworten: "Kann eine Maschine allgemeine Intelligenz zeigen?" (Es sei denn, es kann auch gezeigt werden, dass das Bewusstsein ist notwendig für Intelligenz). Turing schrieb: "Ich möchte nicht den Eindruck erwecken, dass ich denke, dass es kein Rätsel über das Bewusstsein gibt. "[51] Russell Und Norvig stimmt zu: "Die meisten KI -Forscher halten die schwache KI -Hypothese für selbstverständlich und kümmern sich nicht um die starke KI -Hypothese."[52]

Es gibt einige Forscher, die glauben, dass Bewusstsein ein wesentliches Element in der Intelligenz ist, wie z. Igor Aleksander, Stan Franklin, Ron Sun, und Pentti HaikonenObwohl ihre Definition von "Bewusstsein" "Intelligenz" sehr nahe kommt. (Sehen künstliches Bewusstsein.))

Bevor wir diese Frage beantworten können, müssen wir klar sein, was wir mit "Geist", "mentalen Zuständen" und "Bewusstsein" meinen.

Bewusstsein, Verstand, mentale Zustände, Bedeutung

Die Wörter "Geist" und "Bewusstsein"werden von verschiedenen Gemeinschaften auf unterschiedliche Weise verwendet. Einige neues Zeitalter Denker zum Beispiel verwenden das Wort "Bewusstsein", um etwas Ähnliches zu beschreiben Bergson's "Élan vital": Eine unsichtbare, energetische Flüssigkeit, die das Leben und insbesondere den Geist durchdringt. Science-Fiction Autoren verwenden das Wort, um einige zu beschreiben wesentlich Eigentum, das uns menschlich macht: Eine Maschine oder ein Außerirdischer, die "bewusst" ist Wille, Einsicht, Stolz und so weiter. (Science-Fiction-Autoren verwenden auch die Wörter "Respekt", "Sapience", "Selbstbewusstsein" oder "Geist" - wie in der Geist in der Muschel Manga- und Anime -Serie - beschreiben diese wesentliche menschliche Eigenschaft). Für andere[wer?], Die Wörter "Geist" oder "Bewusstsein" werden als eine Art säkularer Synonym für die verwendet Seele.

Zum Philosophen, Neurowissenschaftler und Kognitionswissenschaftler, Die Wörter werden auf eine Weise verwendet, die sowohl präziser als auch alltäglicher ist: Sie beziehen sich auf die vertraute, alltägliche Erfahrung, einen "Gedanken in Ihrem Kopf" zu haben, wie eine Wahrnehmung, einen Traum, eine Absicht oder einen Plan und auf wie wir sehen etwas, kennt etwas, bedeuten etwas oder verstehe etwas. "Es ist nicht schwer, eine Commonsense -Definition des Bewusstseins zu geben", bemerkt der Philosoph John Searle.[53] Was mysteriös und faszinierend ist, ist nicht so sehr was es ist aber wie Es ist: Wie führt ein Klumpen Fettgewebe und Elektrizität zu dieser (vertrauten) Erfahrung der Wahrnehmung, Bedeutung oder dem Denken?

Philosophen nenne das die Hartes Problem des Bewusstseins. Es ist die neueste Version eines klassischen Problems in der Philosophie des Geistes genannt ""Mind-Body-Problem. "[54] Ein verwandtes Problem ist das Problem von Bedeutung oder Verständnis (welche Philosophen nennen "Intentionalität"): Was ist die Verbindung zwischen unserer Gedanken und woran wir denken (d. H. Objekte und Situationen in der Welt)? Ein drittes Problem ist das Problem von Erfahrung (oder "Phänomenologie"): Wenn zwei Leute dasselbe sehen, haben sie die gleiche Erfahrung? Oder gibt es Dinge" in ihrem Kopf "(genannt"Qualia") Das kann sich von Person zu Person unterscheiden?[55]

Neurobiologen Glauben Sie, dass all diese Probleme gelöst werden, wenn wir beginnen, die zu identifizieren neuronale Korrelate des Bewusstseins: Die tatsächliche Beziehung zwischen den Maschinen in unseren Köpfen und ihren kollektiven Eigenschaften; wie Geist, Erfahrung und Verständnis. Einige der härtesten Kritiker von künstliche Intelligenz Stimmen Sie zu, dass das Gehirn nur eine Maschine ist und dass Bewusstsein und Intelligenz das Ergebnis physikalischer Prozesse im Gehirn sind.[56] Die schwierige philosophische Frage ist Folgendes: Kann ein Computerprogramm, das auf einer digitalen Maschine ausgeführt wird, die die binären Ziffern von Null und eins mischt, die Fähigkeit der Fähigkeit dupliziert Neuronen Köpfe zu schaffen, mit mentalen Zuständen (wie Verständnis oder Wahrnehmung) und letztendlich die Erfahrung von Bewusstsein?

Argumente, dass ein Computer keinen Geist und mentalen Zustände haben kann

Searles chinesisches Zimmer

John Searle bittet uns, a nachzudenken Gedankenexperiment: Angenommen, wir haben ein Computerprogramm geschrieben, das den Turing -Test besteht und allgemeine intelligente Aktionen demonstriert. Nehmen wir an, insbesondere, dass das Programm in fließendem Chinesisch unterhalten kann. Schreiben Sie das Programm auf 3x5 -Karten und geben Sie sie einer gewöhnlichen Person, die kein Chinesisch spricht. Schließen Sie die Person in einen Raum ein und lassen Sie sie die Anweisungen auf den Karten folgen. Er wird chinesische Charaktere kopieren und sie durch einen Slot in und aus dem Raum weitergeben. Von außen scheint es, dass der chinesische Raum eine vollständig intelligente Person enthält, die Chinesisch spricht. Die Frage ist: Gibt es jemanden (oder etwas) in dem Raum, der Chinesen versteht? Das heißt, gibt es irgendetwas, das den mentalen Zustand von hat Verständnis, oder was hat bewusst Bewusstsein Was wird auf Chinesisch besprochen? Der Mann ist sich eindeutig nicht bewusst. Das Zimmer kann sich nicht bewusst sein. Das Karten Sicher ist es sich nicht bewusst. Searle kommt zu dem Schluss, dass die Chinesisches Zimmer, oder irgendein Anderes physikalisches Symbolsystem kann keinen Geist haben.[57]

Searle argumentiert weiter, dass tatsächliche mentale Zustände und Bewusstsein erfordern (noch zu beschreiben) "Tatsächliche physikalische chemische Eigenschaften des tatsächlichen menschlichen Gehirns".[58] Er argumentiert, es gibt spezielle "kausale Eigenschaften" von Gehirn und Neuronen das führt zu Köpfe: In seinen Worten "Gehirne verursachen den Geist."[59]

Verwandte Argumente: Leibniz 'Mill, Davis' Telefonaustausch, Blocks chinesischer Nation und Blockhead

Gottfried Leibniz Im Wesentlichen das gleiche Argument wie Searle im Jahr 1714 unter Verwendung des Gedankenexperiments zur Erweiterung des Gehirns bis zur Größe einer Mühle.[60] 1974 stellte sich Lawrence Davis vor, das Gehirn mit Telefonleitungen und Büros zu duplizieren, die von Menschen besetzt sind, und 1978 1978 Ned Block stellte sich die gesamte Bevölkerung Chinas vor, die an einer solchen Hirnsimulation beteiligt war. Dieses Gedankenexperiment heißt "die chinesische Nation" oder "das chinesische Fitnessstudio".[61] Ned Block schlug auch seine vor Blockhead -Argument, was eine Version der ist Chinesisches Zimmer in dem das Programm war neu ausgestattet in eine einfache Reihe von Regeln der Form "Siehe das, mach das", wobei das gesamte Geheimnis aus dem Programm entfernt wird.

Antworten auf den chinesischen Raum

Die Antworten auf den chinesischen Raum betonen verschiedene Punkte.

  • Die Systeme antworten und die Virtuelle Antwort Antwort:[62] Diese Antwort argumentiert das das System, einschließlich des Mannes, des Programms, des Raumes und der Karten, versteht Chinesen. Searle behauptet, dass der Mann im Raum das einzige ist, das möglicherweise einen Verstand haben oder "verstehen" könnte, aber andere sind sich nicht einig und argumentieren, dass es möglich ist, dass es da ist zwei Köpfe am selben physischen Ort, ähnlich wie ein Computer gleichzeitig zwei Maschinen gleichzeitig sein kann: eins physisch (wie a Macintosh) und ein "virtuell" (wie ein Textverarbeitungssystem).
  • Geschwindigkeit, Kraft und Komplexität Antworten:[63] Mehrere Kritiker weisen darauf hin, dass der Mann im Raum wahrscheinlich Millionen von Jahren dauern würde, um auf eine einfache Frage zu antworten, und "Einreichungsschränke" astronomischer Ausmaße verlangen würde. Dies bringt die Klarheit von Searles Intuition in Zweifel.
  • Roboter Antwort:[64] Um wirklich zu verstehen, glauben einige, dass der chinesische Raum Augen und Hände braucht. Hans Moravec schreibt: "Wenn wir einen Roboter in ein Argumentationsprogramm transplantieren könnten, würden wir keine Person brauchen, um die Bedeutung mehr zu geben: Es würde aus der physischen Welt kommen."[65]
  • Hirnsimulator Antwort:[66] Was ist, wenn das Programm die Abfolge der Nervenschüsse an den Synapsen eines tatsächlichen Gehirns eines tatsächlichen chinesischen Sprechers simuliert? Der Mann im Raum würde ein tatsächliches Gehirn simulieren. Dies ist eine Variation der "Systeme Antwort", die plausibler erscheint, da "das System" jetzt eindeutig wie ein menschliches Gehirn wirkt, was die Intuition stärkt, dass es etwas außer dem Mann im Raum gibt, der Chinesen verstehen könnte.
  • Andere Köpfe antworten und die Epiphenomen antworten:[67] Mehrere Personen haben festgestellt, dass Searles Argument nur eine Version der ist Problem anderer Köpfe, auf Maschinen angewendet. Da es schwierig ist, zu entscheiden, ob Menschen "tatsächlich" denken, sollten wir uns nicht wundern, dass es schwierig ist, dieselbe Frage zu Maschinen zu beantworten.
Eine verwandte Frage ist, ob "Bewusstsein" (wie Searle es versteht) existiert. Searle argumentiert, dass die Erfahrung des Bewusstseins nicht durch Untersuchung des Verhaltens einer Maschine, eines Menschen oder eines anderen Tieres erkannt werden kann. Daniel Dennett weist darauf hin, dass die natürliche Selektion kein Merkmal eines Tieres bewahren kann, das keinen Einfluss auf das Verhalten des Tieres hat, und damit das Bewusstsein (wie Searle es versteht) kann nicht durch natürliche Selektion erzeugt werden. Daher hat entweder die natürliche Selektion kein Bewusstsein hervorgebracht, oder "starke KI" ist in diesem Bewusstsein korrekt, durch angemessen gestaltete Turing -Tests zu erkennen.

Denken Sie eine Art Berechnung?

Das Computertheorie des Geistes oder "Computerationalismus"behauptet, dass die Beziehung zwischen Geist und Gehirn ähnlich ist (wenn nicht identisch) wie die Beziehung zwischen a Auslaufprogramm und ein Computer. Die Idee hat philosophische Wurzeln in Hobbes (Wer behauptete, Argumentation sei "nichts weiter als rechnen"), Leibniz (Wer versuchte, einen logischen Kalkül aller menschlichen Ideen zu erstellen), Hume (Wer dachte, die Wahrnehmung könnte auf "atomare Eindrücke" reduziert werden) und sogar auf Kant (Wer hat alle Erfahrungen analysiert, wie sie durch formale Regeln kontrolliert werden).[68] Die neueste Version ist mit Philosophen verbunden Hilary Putnam und Jerry Fodor.[69]

Diese Frage basiert auf unseren früheren Fragen: Wenn das menschliche Gehirn eine Art Computer ist, können Computer sowohl intelligent als auch bewusst sein und sowohl die praktischen als auch die philosophischen Fragen der KI beantworten. In Bezug auf die praktische Frage der KI ("Kann eine Maschine allgemeine Intelligenz zeigen?") Hobbes schrieb):

  • Argumentation ist nichts anderes als rechnen.[9]

Mit anderen Worten, unsere Intelligenz stammt aus einer Form von Berechnung, ähnlich zu Arithmetik. Dies ist das Physikalisches Symbolsystem Die oben diskutierte Hypothese und impliziert, dass künstliche Intelligenz möglich ist. In Bezug auf die philosophische Frage der KI ("Kann eine Maschine Geist, mentale Zustände und Bewusstsein haben?"), Die meisten Versionen von Computerationalismus behaupten das (als Stevan Harnad charakterisiert es):

  • Mentale Zustände sind nur Implementierungen von (richtigen) Computerprogrammen.[70]

Dies ist John Searles "starker KI", das oben diskutiert wird, und es ist das wahre Ziel der Chinesisches Zimmer Argument (nach Harnad).[70]

Andere verwandte Fragen

Kann eine Maschine Emotionen haben?

Wenn "Emotionen"werden nur in Bezug auf ihre Wirkung auf die Auswirkungen definiert Verhalten oder wie sie Funktion In einem Organismus können Emotionen als Mechanismus angesehen werden, den ein intelligenter Agent verwendet, um die zu maximieren Dienstprogramm seiner Handlungen. Angesichts dieser Definition von Emotionen, Hans Moravec glaubt, dass "Roboter im Allgemeinen ziemlich emotional sein werden, nette Menschen zu sein".[71] Angst ist eine Dringlichkeitsquelle. Empathie ist ein notwendiger Bestandteil des Guten Menschliche interaktion mit dem Computer. Er sagt, Roboter "werden versuchen, Ihnen scheinbar selbstloser zu gefallen, weil sie aus dieser positiven Verstärkung einen Nervenkitzel herausbringen wird. Sie können dies als eine Art Liebe interpretieren."[71] Daniel Crevier schreibt "Moravecs Punkt ist, dass Emotionen nur Geräte für das Kanalisieren von Verhalten in eine Richtung sind, die dem Überleben der eigenen Spezies zugute kommt."[72]

Kann eine Maschine sich selbst bewusst sein?

"Selbstbewusstsein"Wie oben erwähnt, wird manchmal von verwendet Science-Fiction Schriftsteller als Name für die wesentlich menschliches Eigentum, das einen Charakter vollständig menschlich macht. Turing Streifen Sie alle anderen Eigenschaften des Menschen weg und reduziert die Frage auf "Kann eine Maschine Gegenstand ihres eigenen Denkens sein?" Kann es Denken Sie an sich selbst? Auf diese Weise kann ein Programm geschrieben werden, das über seine eigenen internen Zustände berichten kann, wie z. Debugger.[73]

Kann eine Maschine original oder kreativ sein?

Turing reduziert dies auf die Frage, ob eine Maschine uns "überraschen" kann, und argumentiert, dass dies offensichtlich wahr ist, wie jeder Programmierer bestätigen kann.[74] Er merkt an, dass sich ein Computer mit ausreichender Speicherkapazität auf astronomische Anzahl verschiedener Arten verhalten kann.[75] Es muss möglich, sogar trivial für einen Computer, der Ideen darstellen kann, um sie auf neue Weise zu kombinieren. (Douglas Lenat's Automatischer Mathematiker, als ein Beispiel kombinierte Ideen, um neue mathematische Wahrheiten zu entdecken.) Kaplan Und Haenlein schlägt vor, dass Maschinen wissenschaftliche Kreativität aufweisen können, während es wahrscheinlich ist, dass Menschen die Oberhand haben, in der künstlerische Kreativität betroffen ist.[76]

Im Jahr 2009 entwarfen Wissenschaftler der Aberystwyth University in Wales und an der britischen Universität Cambridge einen Roboter namens Adam, von dem sie glauben, dass sie die erste Maschine sind, die unabhängig neue wissenschaftliche Erkenntnisse entwickelt.[77] Auch 2009 Forscher bei Cornell aufgetreten Eureqa, ein Computerprogramm, das Formeln auf die Eingabe der Daten extrapoliert, z. B. die Bewegungsgesetze aus dem Antrag eines Pendels.

Kann eine Maschine wohlwollend oder feindselig sein?

Diese Frage (wie viele andere in der Philosophie der künstlichen Intelligenz) kann in zwei Formen präsentiert werden. "Feindseligkeit" kann in Begriffen definiert werden Funktion oder VerhaltenIn diesem Fall wird "feindlich" zum Synonym für "gefährlich". Oder kann es als Absicht definiert werden: Kann eine Maschine "absichtlich" Schaden anrichten? Letzteres ist die Frage "Kann eine Maschine bewusste Zustände haben?" (wie zum Beispiel Intentionen) in einer anderen Form.[51]

Die Frage, ob sehr intelligente und völlig autonome Maschinen gefährlich wären, wurde von Futuristen ausführlich untersucht (wie die Institut für maschinelles Intelligenzforschung). Das offensichtliche Element des Dramas hat das Thema auch populär gemacht Science-Fiction, was viele unterschiedlich mögliche Szenarien betrachtet hat, in denen intelligente Maschinen eine Bedrohung für die Menschheit darstellen; sehen Künstliche Intelligenz in der Fiktion.

Ein Problem ist, dass Maschinen die Autonomie und Intelligenz erwerben können, die erforderlich sind, um sehr schnell gefährlich zu sein. Vernor Vinge hat vorgeschlagen, dass Computer in nur wenigen Jahren plötzlich Tausende oder Millionen Male intelligenter werden als Menschen. Er nennt das ""die Singularität. "[78] Er schlägt vor, dass es für Menschen etwas oder möglicherweise sehr gefährlich sein kann.[79] Dies wird durch eine Philosophie genannt Singularitarismus.

Im Jahr 2009 nahmen Akademiker und technische Experten an einer Konferenz teil, um die potenziellen Auswirkungen von Robotern und Computern und die Auswirkungen der hypothetischen Möglichkeit zu erörtern, dass sie autark und in der Lage sein können ihre eigenen Entscheidungen treffen. Sie diskutierten die Möglichkeit und das Ausmaß, in dem Computer und Roboter in der Lage sein könnten, ein beliebiges Autonomie zu erwerben, und inwieweit sie solche Fähigkeiten nutzen könnten, um möglicherweise eine Bedrohung oder Gefahr zu stellen. Sie stellten fest, dass einige Maschinen verschiedene Formen der halbautonomischen Formen erworben haben, einschließlich der Fähigkeit, Energiequellen selbst zu finden und unabhängig voneinander Ziele zu wählen, um mit Waffen anzugreifen. Sie stellten auch fest, dass einige Computer Virus kann sich der Ausscheidung entziehen und haben "Kakerlach -Intelligenz" erreicht. Das bemerkten sie Selbstbewusstsein Wie in Science-Fiction dargestellt, ist wahrscheinlich unwahrscheinlich, aber es gab andere potenzielle Gefahren und Fallstricke.[78]

Einige Experten und Akademiker haben den Einsatz von Robotern für militärische Kampfe in Frage gestellt, insbesondere wenn solche Roboter ein gewisses Maß an autonomen Funktionen erhalten.[80] Die US -Marine hat einen Bericht finanziert, der darauf hinweist, dass mit Militärrobotern komplexer werden sollte, die Auswirkungen ihrer Fähigkeit, autonome Entscheidungen zu treffen, stärker beachtet werden.[81][82]

Der Präsident der Vereinigung zur Weiterentwicklung künstlicher Intelligenz hat eine Studie in Auftrag gegeben, um dieses Problem zu betrachten.[83] Sie verweisen auf Programme wie die Spracherfassungsgerät was die menschliche Interaktion emulieren kann.

Einige haben die Notwendigkeit vorgeschlagen, bauen zu müssen "Freundliche KI", was bedeutet, dass die Fortschritte, die bereits mit KI auftreten, auch die Anstrengungen beinhalten sollten, KI an sich freundlich und menschlich zu machen.[84]

Kann eine Maschine alle menschlichen Eigenschaften nachahmen?

Turing sagte: "Es ist üblich ... ein Körnchen des Komforts zu bieten, in Form einer Aussage, dass einige merkwürdige menschliche Merkmale niemals von einer Maschine nachgeahmt werden könnten. ... Ich kann keinen solchen Komfort anbieten, denn ich glaube, nein Solche Grenzen können festgelegt werden. "[85]

Turing merkte an, dass es viele Argumente der Form "Eine Maschine wird niemals x tun" gibt, wobei X viele Dinge geben kann, wie zum Beispiel:

Sei freundlich, einfallsreich, schön, freundlich, habe Initiative, einen Sinn für Humor haben, richtig aus falsch erzählen, Fehler machen, sich verlieben, Erdbeeren genießen und Sahne machen, jemanden in ihn verlieben, aus Erfahrung lernen, Wörter richtig benutzen , Seien Sie das Thema seines eigenen Denkens, haben Sie genauso viel Verhaltensvielfalt wie ein Mann, tun Sie etwas wirklich Neues.[73]

Turing argumentiert, dass diese Einwände häufig auf naiven Annahmen über die Vielseitigkeit von Maschinen beruhen oder "getarnte Formen des Arguments aus dem Bewusstsein" sind. Das Schreiben eines Programms, das eines dieser Verhaltensweisen zeigt, wird "keinen großen Eindruck hinterlassen".[73] Alle diese Argumente sind tangential für die grundlegende Prämisse der KI, es sei denn, es kann gezeigt werden, dass eine dieser Eigenschaften für die allgemeine Intelligenz von wesentlicher Bedeutung ist.

Kann eine Maschine eine Seele haben?

Schließlich können diejenigen, die an die Existenz einer Seele glauben, argumentieren, dass "das Denken eine Funktion des Menschen ist unsterblich Seele. "Alan Turing nannte dies" den theologischen Einspruch ". Er schreibt

Beim Versuch, solche Maschinen zu bauen, sollten wir seine Kraft, Seelen zu erschaffen, nicht respektlos einsetzen, genauso wie wir in der Zeugung von Kindern sind: Vielmehr sind wir in beiden Fällen Instrumente seines Willens, die die Seelen, die er schafft, die Seelen bereitzustellen.[86]

Die Diskussion zu diesem Thema wurde durch jüngste Ansprüche von erhobenen Ansprüchen von wieder entzündet GoogleLamda künstlich Intelligenz System, dass es empfindungsfähig ist und eine "hatte"Seele. "[87]

Lamda (Sprachmodell für Dialoganwendungen) ist ein künstliches Intelligenzsystem das schafft Chatbots - KI -Roboter, die für die Kommunikation mit Menschen konzipiert sind - indem sie große Mengen an Text aus dem Internet sammeln und verwenden Algorithmen Auf die fließendste und natürlichste Weise zu reagieren.

Die Transkripte von Gesprächen zwischen Wissenschaftlern und Lamda zeigen, dass das KI -System dies auszeichnet und Antworten auf herausfordernde Themen über die Natur von liefert Emotionen, Erstellen Äsop-Stil Fabeln im Moment und beschreiben sogar seine angeblichen Ängste.[88]

Ansichten zur Rolle der Philosophie

Einige Wissenschaftler argumentieren, dass die Entlassung der Philosophie der KI -Gemeinschaft schädlich ist. In dem Stanford Encyclopedia of PhilosophyEinige Philosophen argumentieren, dass die Rolle der Philosophie in der KI unterschätzt wird.[2] Physiker David Deutsch argumentiert, dass die KI -Entwicklung ohne Verständnis der Philosophie oder ihrer Konzepte unter einem Mangel an Fortschritt leiden würde.[89]

Konferenzen

Die Hauptkonferenzreihe zu diesem Thema ist "Philosophie und Theorie der KI" (Pt-AI), betrieben von Vincent C. Müller.

Die Hauptbibliographie zu diesem Thema mit mehreren Unterabschnitten ist eingeschaltet Philpaporen.

Siehe auch

Anmerkungen

  1. ^ Hubert Dreyfus schreibt: "Im Allgemeinen Akzeptieren der grundlegenden Annahmen, dass das Nervensystem Teil der physischen Welt ist und dass alle physischen Prozesse in einem mathematischen Formalismus beschrieben werden können, der wiederum von einem digitalen Computer manipuliert werden kann, kann man können, kann man können Erreichen Sie die starke Behauptung, dass das Verhalten, das sich aus der menschlichen Informationsverarbeitung ergibt, ob direkt formalisierbar oder nicht, indirekt auf einer digitalen Maschine reproduziert werden kann. " [27]. John Searle schreibt: "Könnte ein Mann Maschine denken? Angenommen, es kann künstlich eine Maschine mit einem Nervensystem produzieren, ... die Antwort auf die Frage scheint offensichtlich zu sein, ja ... könnte ein digitaler Computer nachdenken? Wenn durch digitaler Computer „Sie meinen überhaupt alles, was eine Beschreibung enthält, bei der es korrekt als Instanziierung eines Computerprogramms beschrieben werden kann. Die Antwort lautet natürlich natürlich ja, da wir die Instanziationen einer beliebigen Anzahl von Computerprogrammen sind und sind Wir können denken. "[28]

Verweise

  1. ^ McCarthy, John. "Die Philosophie der KI und die KI der Philosophie". jmc.stanford.edu. Archiviert von das Original Am 2018-10-23. Abgerufen 2018-09-18.
  2. ^ a b Bringsjord, Selmer; Govindarajulu, Naveen Sundar (2018), "Künstliche Intelligenz"in Zalta, Edward N. (Hrsg.), Die Stanford -Enzyklopädie der Philosophie (Herbst 2018 Hrsg.), Metaphysics Research Lab, Stanford University, archiviert von das Original Am 2019-11-09, abgerufen 2018-09-18
  3. ^ Deutsch, David (2012-10-03). "Philosophie wird der Schlüssel sein, der künstliche Intelligenz freischaltet | David Deutsch". Der Wächter. ISSN 0261-3077. Abgerufen 2020-04-29.
  4. ^ Russell & Norvig 2003, p. 947 Definieren Sie die Philosophie der KI als aus den ersten beiden Fragen und die zusätzliche Frage der Ethik der künstlichen Intelligenz. Fearn 2007, p. 55 schreibt "In der aktuellen Literatur hat die Philosophie zwei Hauptrollen: um festzustellen, ob solche Maschinen bewusst wären oder nicht, und zweitens vorherzusagen, ob solche Maschinen möglich sind oder nicht." Die letzte Frage trägt die ersten beiden.
  5. ^ a b Dies ist eine Paraphrase des wesentlichen Punktes der Turing-Test. Turing 1950, Haugeland 1985, S. 6–9,, Crevier 1993, p. 24, Russell & Norvig 2003, S. 2–3 und 948
  6. ^ a b McCarthy et al. 1955. Diese Behauptung wurde im Programm für die gedruckt Dartmouth -Konferenz von 1956, allgemein als "Geburt von AI" angesehen. Crevier 1993, p. 28
  7. ^ a b Newell & Simon 1976 und Russell & Norvig 2003, p. 18
  8. ^ a b c d Diese Version ist von Searle (1999)und wird auch zitiert in Dennett 1991, p. 435. Searles ursprüngliche Formulierung war "der angemessen programmierte Computer ist wirklich ein Verstand, in dem Sinne, dass Computer die richtigen Programme buchstäblich zu verstehen und andere kognitive Zustände zu haben können." (Searle 1980, p. 1). Starke KI wird ähnlich definiert durch Russell & Norvig (2003, p. 947): "Die Behauptung, dass Maschinen möglicherweise intelligent handeln könnten (oder, vielleicht besser, so, als ob sie intelligent wären), wird von Philosophen als" schwache AI ​​"-Hypothese genannt und die Behauptung, dass Maschinen, die dies tun, tatsächlich denken (im Gegensatz zu zum Simulieren von Denken) wird als "starke AI" -Hypothese bezeichnet. "
  9. ^ a b Hobbes 1651, Chpt. 5
  10. ^ Sehen Russell & Norvig 2003, p. 3, wo sie zwischen Unterscheidung zwischen Schauspielkunst rational und Sein rational, und definieren Sie KI als Studie des ersteren.
  11. ^ Turing, Alan M. (1950). "Computermaschinen und Intelligenz". Geist. 49 (236): 433–460. doi:10.1093/mind/lix.236.433 - über Cogprints.
  12. ^ Heder, Mihaly; Paksi, Daniel (2012). "Autonomes Roboter und stillschweigendes Wissen". Würdigung. 9 (2): 8–14 - über Academia.edu.
  13. ^ Saygin 2000.
  14. ^ Turing 1950 und sehen Russell & Norvig 2003, p. 948, wo sie sein Papier als "berühmt" bezeichnen und "Turing schreiben", untersuchte eine Vielzahl möglicher Einwände gegen die Möglichkeit intelligenter Maschinen, einschließlich praktisch allerjenigen, die seit seiner Erscheinen seines Papiers im halben Jahrhundert erhoben wurden. "
  15. ^ Turing 1950 unter "das Argument aus dem Bewusstsein"
  16. ^ Russell & Norvig 2003, p. 3
  17. ^ Russell & Norvig 2003, S. 4–5, 32, 35, 36 und 56
  18. ^ Russell und Norvig würden das Wort bevorzugen "rational"zu" intelligent ".
  19. ^ "Künstliche Dummheit". Der Ökonom. Vol. 324, Nr. 7770. 1. August 1992. p. 14.
  20. ^ Saygin, A. P.; Cicekli, I. (2002). "Pragmatiker im Gespräch mit menschlichem Computer". Journal of Pragmatics. 34 (3): 227–258. Citeseerx 10.1.1.12.7834. doi:10.1016/s0378-2166 (02) 80001-7.
  21. ^ Russell & Norvig (2003, S. 48–52) einen Thermostat als einfache Form von betrachten intelligenter Agent, bekannt als a Reflexagent. Für eine eingehende Behandlung der Rolle des Thermostats in der Philosophie siehe Chalmers (1996, S. 293–301) "4. Ist Erfahrung allgegenwärtig?" Unterabschnitte Wie ist es, ein Thermostat zu sein?, Wohin Panpsychismus?, und Das Doppel-Aspekt-Prinzip einschränken.
  22. ^ Dreyfus 1972, p. 106.
  23. ^ Pitts & McCullough 1943.
  24. ^ Moravec 1988.
  25. ^ Kurzweil 2005, p. 262. Siehe auch Russell & Norvig, p. 957 und Crevier 1993, S. 271 und 279. Die extremste Form dieses Arguments (das Ersatzszenario des Gehirns) wurde von vorgelegt Clark Glymour Mitte der 1970er Jahre und wurde von berührt von Zenon Pylyshyn und John Searle im Jahr 1980
  26. ^ Eugene Izhikevich (2005-10-27). "Eugene M. Izhikevich, groß angelegte Simulation des menschlichen Gehirns". Vesikel.nsi.edu. Archiviert von das Original am 2009-05-01. Abgerufen 2010-07-29.
  27. ^ Dreyfus 1972, S. 194–5.
  28. ^ Searle 1980, p. 11.
  29. ^ Searle 1980, p. 7.
  30. ^ Yudkowsky 2008.
  31. ^ Searle schreibt: "Ich mag die Geraden der Behauptung." Searle 1980, p. 4
  32. ^ Dreyfus 1979, p. 156
  33. ^ Gödel, Kurt, 1951, Einige grundlegende Theoreme für die Grundlagen der Mathematik und deren Auswirkungen in Solomon Feferman, ed., 1995. Gesammelte Werke / Kurt Gödel, vol. III. Oxford University Press: 304-23. - In dieser Vorlesung verwendet Gödel den Unvollständigkeitssatz, um die folgende Disjunktion zu erreichen: (a) Der menschliche Geist ist keine konsistente endliche Maschine, oder (b) gibt es dort Diophantinengleichungen für die es nicht entscheiden kann, ob Lösungen existieren. Gödel findet (b) unplausibel und scheint daher geglaubt zu haben, dass der menschliche Geist nicht zu einer endlichen Maschine entspricht, d. H. Seine Kraft übertraf die einer endlichen Maschine. Er erkannte, dass dies nur eine Vermutung war, da man niemals (b) widerlegen konnte. Dennoch betrachtete er die disjunktive Schlussfolgerung als "bestimmte Tatsache".
  34. ^ Lucas 1961, Russell & Norvig 2003, S. 949–950, Hofstadter 1979, S. 471–473, 476–477
  35. ^ Graham Oppy (20. Januar 2015). "Gödels unvollständige Theoreme". Stanford Encyclopedia of Philosophy. Abgerufen 27. April 2016. Diese gödelianischen anti-mechanistischen Argumente sind jedoch problematisch, und es besteht ein großer Konsens darüber, dass sie scheitern.
  36. ^ Stuart J. Russell; Peter Norvig (2010). "26.1.2: Philosophische Grundlagen/schwache KI: Können Maschinen intelligent handeln?/Der mathematische Einwand". Künstliche Intelligenz: ein moderner Ansatz (3. Aufl.). Upper Saddle River, NJ: Prentice Hall. ISBN 978-0-13-604259-4. ... Auch wenn wir gewähren, dass Computer Einschränkungen für das haben, was sie beweisen können, gibt es keine Beweise dafür, dass Menschen gegen diese Einschränkungen immun sind.
  37. ^ Mark Colyvan. Eine Einführung in die Philosophie der Mathematik. Cambridge University Press2012. Ab 2.2.2 "Philosophische Bedeutung von Gödels Unvollständigkeitsergebnissen": "Die akzeptierte Weisheit (mit denen ich stimme) ist, dass die Lucas-Penrose-Argumente scheitern."
  38. ^ Laforte, G., Hayes, P. J., Ford, K. M. 1998. Warum Gödels Theorem den Computerprodukte nicht widerlegen kann. Künstliche Intelligenz, 104: 265-286, 1998.
  39. ^ Russell & Norvig 2003, p. 950 Sie weisen darauf hin, dass echte Maschinen mit endlichem Speicher mithilfe von modelliert werden können Aussagelogik, was formal ist entschlossenund Gödels Argument gilt überhaupt nicht für sie.
  40. ^ Hofstadter 1979
  41. ^ Entsprechend Hofstadter 1979, S. 476–477, wurde diese Aussage erstmals von C. H. Whiteley vorgeschlagen
  42. ^ Hofstadter 1979, S. 476–477, Russell & Norvig 2003, p. 950, Turing 1950 Unter "das Argument aus der Mathematik", in dem er schreibt, ist zwar festgestellt, dass die Kräfte einer bestimmten Maschine Einschränkungen gibt, wurde nur ohne Beweise festgestellt, dass keine solchen Einschränkungen für den menschlichen Intellekt gelten. "
  43. ^ Penrose 1989
  44. ^ Litt, Abninder; Eliasmitit, Chris; Kroon, Frederick W.; Weinstein, Steven; Thagard, Paul (6. Mai 2006). "Ist das Gehirn ein Quantencomputer?". Kognitionswissenschaft. 30 (3): 593–603. doi:10.1207/s15516709Cog0000_59. PMID 21702826.
  45. ^ Dreyfus 1972, Dreyfus 1979, Dreyfus & Dreyfus 1986. Siehe auch Russell & Norvig 2003, S. 950–952, Crevier 1993, S. 120–132 und Fearn 2007, S. 50–51
  46. ^ Russell & Norvig 2003, S. 950–51
  47. ^ Turing 1950 unter "(8) das Argument aus der Informalität des Verhaltens"
  48. ^ a b Russell & Norvig 2003, p. 52
  49. ^ Sehen Brooks 1990 und Moravec 1988
  50. ^ Crevier 1993, p. 125
  51. ^ a b Turing 1950 unter "(4) das Argument aus dem Bewusstsein". Siehe auch Russell & Norvig 2003, S. 952–3, wo sie Searles Argument mit Turings "Argument aus dem Bewusstsein" identifizieren.
  52. ^ Russell & Norvig 2003, p. 947
  53. ^ "[P] eople sage mir immer, dass es sehr schwierig war, das Bewusstsein zu definieren, aber ich denke, wenn Sie nur nach der Art von Commonsense -Definition suchen, die Sie zu Beginn der Untersuchung erhalten, und nicht nach der harter nasener wissenschaftlicher Definition, die Am Ende kommt es nicht schwer, Commonsense -Definition des Bewusstseins zu geben. " Die Zone des Philosophen: Die Frage des Bewusstseins. Siehe auch Dennett 1991
  54. ^ Blackmore 2005, p. 2
  55. ^ Russell & Norvig 2003, S. 954–956
  56. ^ Zum Beispiel schreibt John Searle: "Kann eine Maschine denken? Die Antwort ist offensichtlich, ja. Wir sind genau solche Maschinen." (Searle 1980, p. 11)
  57. ^ Searle 1980. Siehe auch Cole 2004, Russell & Norvig 2003, S. 958–960, Crevier 1993, S. 269–272 und Hearn 2007, S. 43–50
  58. ^ Searle 1980, p. 13
  59. ^ Searle 1984
  60. ^ Cole 2004, 2.1, Leibniz 1714, 17
  61. ^ Cole 2004, 2.3
  62. ^ Searle 1980 unter "1. Die Systeme antworten (Berkeley)", " Crevier 1993, p. 269, Russell & Norvig 2003, p. 959, Cole 2004, 4.1. Unter denjenigen, die sich an der "System" -Position halten (laut Cole), sind Ned Block, Jack Copeland, Daniel Dennett, Jerry Fodor, John Hauugeland, Ray Kurzweil und Georges Rey. Diejenigen, die die Antwort "Virtual Mind" verteidigt haben Marvin Minsky, Alan Perlis, David Chalmers, Ned Block und J. Cole (erneut laut Cole 2004)
  63. ^ Cole 2004, 4.2 zuschreibt diese Position auf Ned Block, Daniel Dennett, Tim Maudlin, David Chalmers, Steven Pinker, Patricia Churchland und andere.
  64. ^ Searle 1980 unter "2. Die Roboter -Antwort (Yale)". Cole 2004, 4.3 zuschreibt diese Position auf Margaret Boden, Tim Crane, Daniel Dennett, Jerry Fodor, Stevan Harnad, Hans Moravec und Georges Rey
  65. ^ Quotiert in Crevier 1993, p. 272
  66. ^ Searle 1980 Unter "3. Die Antwort des Gehirnsimulators (Berkeley und M.I.T.)" Cole 2004 schreibt diese Position zu Paul und Patricia Churchland und Ray Kurzweil
  67. ^ Searle 1980 unter "5. Die anderen Köpfe antworten", Cole 2004, 4.4. Turing 1950 macht diese Antwort unter "(4) das Argument aus dem Bewusstsein." Cole schreibt diese Position Daniel Dennett und Hans Moravec zu.
  68. ^ Dreyfus 1979, p. 156, Haugeland 1985, S. 15–44
  69. ^ Horst 2005
  70. ^ a b Harnad 2001
  71. ^ a b Quotiert in Crevier 1993, p. 266
  72. ^ Crevier 1993, p. 266
  73. ^ a b c Turing 1950 unter "(5) Argumenten aus verschiedenen Behinderungen"
  74. ^ Turing 1950 unter "(6) Lady Lovelaces Einwand"
  75. ^ Turing 1950 Unter "(5) Argument aus verschiedenen Behinderungen"
  76. ^ "Kaplan Andreas; Michael Haenlein". Geschäftshorizonte. 62 (1): 15–25. Januar 2019. doi:10.1016/j.bushor.2018.08.004. S2CID 158433736.
  77. ^ Katz, Leslie (2009-04-02). "Robo-Scientist macht Gene entdeckt auf seine eigene | Crave-CNET". News.cnet.com. Abgerufen 2010-07-29.
  78. ^ a b Wissenschaftler besorten Maschinen können den Mann überlisten Von John Markoff, NY Times, 26. Juli 2009.
  79. ^ Die kommende technologische Singularität: Wie man in der Zeit nach der Menschen überlebt, von Vernor Vinge, Abteilung für Mathematische Wissenschaften, San Diego State University, (c) 1993 von Vernor Vinge.
  80. ^ Rufen Sie um Debatten über Killerroboter, Von Jason Palmer, Science and Technology Reporter, BBC News, 03.08.09.
  81. ^ Science New Navy finanzierte Bericht warn Archiviert 2009-07-28 bei der Wayback -Maschine, von Jason Mick (Blog), DailyTech.com, 17. Februar 2009.
  82. ^ Der Marinebericht warnt vor dem Roboteraufstand, schlägt einen starken moralischen Kompass vor, von Joseph L. Flatley Engadget.com, 18. Februar 2009.
  83. ^ AAAI-Präsidentschaftsgremium für Langzeit-AI-Futures 2008-2009 Studie, Assoziation zur Weiterentwicklung künstlicher Intelligenz, abgerufen am 26.07.09.
  84. ^ Artikel bei assimovlaws.com, Juli 2004, abgerufen am 27.07.09. Archiviert 30. Juni 2009 bei der Wayback -Maschine
  85. ^ "Können digitale Computer denken?". Gesprächsübertragung auf BBC Third Program, 15. Mai 1951. http://www.turingarchive.org/viewer/?id=459&title=8
  86. ^ Turing 1950 Unter "(1) dem theologischen Einwand", obwohl er auch schreibt: "Ich bin nicht sehr beeindruckt von theologischen Argumenten, was auch immer sie verwendet werden können, um sie zu unterstützen."
  87. ^ Brandon Specktor veröffentlicht (2022-06-13). "Google Ai 'ist empfindungsfähig", behauptet Software Engineer, bevor er suspendiert wird ". livescience.com. Abgerufen 2022-06-14.
  88. ^ Lemoine, Blake (2022-06-11). "Ist Lamda empfindungsfähig? - ein Interview". Mittel. Abgerufen 2022-06-14.
  89. ^ Deutsch, David (2012-10-03). "Philosophie wird der Schlüssel sein, der künstliche Intelligenz freischaltet | David Deutsch". der Wächter. Abgerufen 2018-09-18.

Verweise

Seitenzahlen oben und Diagramminhalte beziehen sich auf das Lyceum PDF Drucken des Artikels.