Drei Gesetze der Robotik

Diese Abdeckung von Ich Roboter Illustriert die Geschichte "Runaround", die erste, die alle drei Gesetze der Robotik auflistet

Das Drei Gesetze der Robotik (oft verkürzt auf Die drei Gesetze oder bekannt als Asimovs Gesetze) sind eine Reihe von Regeln, die von entwickelt wurden, Science-Fiction Autor Isaac asimov. Die Regeln wurden in seiner Kurzgeschichte von 1942 eingeführt. "Herumlaufen"(enthalten in der Sammlung von 1950 Ich Roboter), obwohl sie in einigen früheren Geschichten angedeutet worden waren. Die drei Gesetze, die aus dem "Handbuch der Robotik, 56. Ausgabe, 2058 A.D." zitiert wurden, sind:[1]

Erstes Gesetz
Ein Roboter kann einen Menschen nicht verletzen oder durch Untätigkeit einen Menschen erlauben, Schaden zuzufügen.
Zweites Gesetz
Ein Roboter muss den von Menschen erteilten Befehlen befolgen, außer wenn solche Anordnungen mit dem ersten Gesetz in Konflikt stehen.
Drittes Gesetz
Ein Roboter muss seine eigene Existenz schützen, solange ein solcher Schutz nicht mit dem ersten oder zweiten Gesetz widerspricht.

Diese bilden ein Organisationsprinzip und ein einheitliches Thema für Asimovs Roboter-basierte Fiktion, die in seinem erscheinen Roboter Serie, die damit verbundenen Geschichten und seine Lucky Starr Serie von Jung-Erwachsene-Fiktion. Die Gesetze werden in fast alle der gesamten Einbußen einbezogen positrische Roboter Erscheint in seiner Fiktion und kann nicht umgangen werden, um als Sicherheitsmerkmal gedacht zu werden. Viele von Asimovs roboterorientierte Geschichten beziehen sich auf Roboter, die sich auf ungewöhnliche und kontraintuitive Weise verhalten, als unbeabsichtigte Folge der Anwendung der drei Gesetze auf die Situation, in der er sich selbst findet. Andere Autoren, die in Asimovs fiktivem Universum arbeiten, haben sie oft übernommen und Referenzen parodisch, erscheinen in der gesamten Science -Fiction sowie in anderen Genres.

Die ursprünglichen Gesetze wurden von Asimov und anderen Autoren geändert und ausgearbeitet. Asimov selbst nahm leichte Änderungen an den ersten drei in verschiedenen Büchern und Kurzgeschichten vor, um die Interaktion mit Menschen und einander weiter zu entwickeln. In einer späteren Fiktion, in der Roboter die Verantwortung für die Regierung von ganzen Planeten und menschlichen Zivilisationen übernommen hatten, fügte Asimov auch ein viertes oder Zeroth -Gesetz hinzu, um den anderen vorzugehen:

Nuloth Law
Ein Roboter kann die Menschheit nicht schadet oder durch Untätigkeit die Menschheit zu Schaden zufügen.

Die drei Gesetze und der Zeroth haben Science -Fiction durchdrungen und werden in vielen Büchern, Filmen und anderen Medien bezeichnet. Sie haben nachgedacht Ethik der künstlichen Intelligenz auch.

Geschichte

Im Der Rest der RoboterIsaac Asimov, veröffentlicht 1964, bemerkte, dass er 1940 mit dem Schreiben begann ein Rückzug aus dem Wissen sein? Oder ist Wissen als selbst als Barriere für die Gefahren, die es mit sich bringt, verwendet zu werden? " Er entschied, dass in seinen Geschichten ein Roboter nicht "müde Zeit für eine weitere müde Zeit, das Verbrechen und die Bestrafung von dumm auf seinen Schöpfer wenden würde, sondern zu demonstrieren, um zu demonstrieren Faust. "[2]

Am 3. Mai 1939 nahm Asimov an einem Treffen der teil Königinnen (New York) Science Fiction Society, wo er sich traf Earl und Otto Binder wer hatte kürzlich eine Kurzgeschichte veröffentlicht "Ich Roboter" mit einem sympathischen Roboter namens genannt Adam Link wer wurde missverstanden und motiviert von Liebe und Ehre. (Dies war die erste einer Reihe von zehn Geschichten; im nächsten Jahr "Adam Link's Vengeance" (1940) zeigte Adam:[3] Asimov bewunderte die Geschichte. Drei Tage später begann Asimov, "meine eigene Geschichte eines sympathischen und edlen Roboters", seiner 14. Geschichte zu schreiben.[4] Dreizehn Tage später nahm er "Robbie" zu John W. Campbell Der Herausgeber von Erstaunliche Science-Fiction. Campbell lehnte es ab und behauptete, dass es eine zu starke Ähnlichkeit hatte Lester del Rey's "Helen O'loy", veröffentlicht im Dezember 1938 - die Geschichte eines Roboters, der so ähnlich ist, dass sie sich in ihren Schöpfer verliebt und seine ideale Frau wird.[5] Frederik Pohl veröffentlichte die Geschichte unter dem Titel "Strange Playfellow" in Superwissenschaftsgeschichten September 1940.[6][7]

Asimov führt die drei Gesetze John W. Campbell aus einem Gespräch zurück, das am 23. Dezember 1940 stattfand. Campbell behauptete, Asimov habe die drei Gesetze bereits im Kopf und dass sie einfach ausdrücklich angegeben werden müssten. Einige Jahre später Asimovs Freund Randall Garrett die Gesetze auf a zugeschrieben Symbiotisch Partnerschaft zwischen den beiden Männern -einem Vorschlag, den Asimov begeistert einnahm.[8] Nach seinen autobiografischen Schriften beinhaltete Asimov die "Untätigkeit" -Klausel des ersten Gesetzes wegen von Arthur Hugh Clough'S Gedicht "Der neueste Dekalog" (Text in Wikisource), der die satirischen Linien enthält.[9]

Obwohl Asimov die Erschaffung der drei Gesetze zu einem bestimmten Zeitpunkt annimmt, ereignete sich ihr Erscheinen in seiner Literatur über einen Zeitraum. Er schrieb zwei Robotergeschichten ohne ausdrückliche Erwähnung der Gesetze. "Robbie" und "Grund"Er nahm jedoch an, dass Roboter bestimmte inhärente Schutzmaßnahmen hätten."Lügner!"Seine dritte Robotergeschichte erwähnt die erste Erwähnung des ersten Gesetzes, aber nicht die beiden anderen. Alle drei Gesetze erschienen schließlich zusammen in"Herumlaufen". Als diese Geschichten und mehrere andere in der Anthologie zusammengestellt wurden Ich Roboter, "Vernunft" und "Robbie" wurden aktualisiert, um alle drei Gesetze anzuerkennen, obwohl das materielle Asimov der "Vernunft" nicht vollständig mit den drei Gesetzen übereinstimmt, wie er sie an anderer Stelle beschrieb.[10] Insbesondere die Idee, dass ein Roboter das menschliche Leben schützt, wenn er nicht glaubt, dass diese Menschen wirklich existieren, steht im Widerspruch zu Elijah Baleys Argumentation, wie beschrieben unter.

In den 1950er Jahren schrieb Asimov eine Reihe von Science-Fiction-Romanen, die ausdrücklich für das Publikum für junge Erwachsene bestimmt waren. Ursprünglich erwartete sein Verlag, dass die Romane in eine langjährige Fernsehserie angepasst werden könnten, so etwas wie Der Lone Ranger war für Radio gewesen. Aus Angst, dass seine Geschichten in die "einheitlich schreckliche" Programmierung angepasst würden, sah er die Fernsehkanäle überschwemmten[11] Asimov beschloss, die zu veröffentlichen Lucky Starr Bücher unter dem Pseudonym "Paul French". Als die Pläne für die Fernsehserie durchtraten, beschloss Asimov, den Vorwand aufzugeben; Er brachte die drei Gesetze in Lucky Starr und die Monde von JupiterMit der festen Erkenntnis, dass dies "ein toter Werbegeschenk für Paul Frenchs Identität selbst für den gelegentlichsten Leser war".[12]

In seiner Kurzgeschichte "Beweis" Asimov lässt seinen wiederkehrenden Charakter Dr. Susan Calvin erläutert a Moral- Basis hinter den drei Gesetzen. Calvin weist darauf hin, dass von Menschen in der Regel erwartet wird, dass sie anderen Menschen nicht schaden (außer in Zeiten extremer Zwang wie Krieg oder einer größeren Anzahl), und dies entspricht dem ersten Robotergesetz. Ebenso erwartet die Gesellschaft nach Calvin, dass Einzelpersonen Anweisungen von anerkannten Behörden wie Ärzten, Lehrern usw. befolgen, was dem zweiten Gesetz der Robotik entspricht. Schließlich wird von Menschen in der Regel erwartet, dass sie sich selbst vermeiden, sich selbst zu schädigen, was das dritte Gesetz für einen Roboter ist.

Die Handlung von "Beweisen" dreht sich um die Frage, ob es sich um einen Menschen handelt, der von einem Roboter getrennt ist, der so konstruiert ist, dass sie menschlich erscheinen. Calvin begründet, dass eine solche Person, wenn er den drei Gesetzen befolgt, ein Roboter oder einfach "ein sehr guter Mann" sein kann. Ein anderer Charakter fragt dann Calvin, ob sich Roboter schließlich sehr von Menschen unterscheiden. Sie antwortet: "Welten anders. Roboter sind im Wesentlichen anständig."

Asimov schrieb später, dass er nicht für die Schaffung der Gesetze gelobt werden sollte, weil sie von Anfang an offensichtlich sind und alle sie subliminal bewusst sind. Die Gesetze wurden einfach nie in kurze Sätze gebracht, bis ich es geschafft habe, den Job zu erledigen. Die Gesetze gelten selbstverständlich für jedes Werkzeug, das Menschen verwenden, ".[13] und "Analoga der Gesetze sind in der Gestaltung fast aller Werkzeuge impliziert, Roboter oder nicht":[14]

  1. Gesetz 1: Ein Tool darf nicht nicht sicher sein. Hämmer Griffe haben und Schraubendreher Haben Sie Griffe, um den Griff zu erhöhen. Es ist natürlich möglich, dass sich eine Person mit einem dieser Werkzeuge verletzt, aber diese Verletzung würde nur auf ihre Inkompetenz und nicht auf die Gestaltung des Werkzeugs zurückzuführen sein.
  2. Gesetz 2: Ein Tool muss seine Funktion effizient ausführen, es sei denn, dies würde dem Benutzer schaden. Dies ist der gesamte Grund Unterbrecher des Bodenverfassungsschaltungskreislaufs existieren. Jedes laufende Tool hat seinen Stromausschnitt, wenn ein Schaltkreis feststellt, dass ein Strom nicht zum neutralen Draht zurückkehrt und daher möglicherweise durch den Benutzer fließt. Die Sicherheit des Benutzers ist von größter Bedeutung.
  3. Gesetz 3: Ein Werkzeug muss während seiner Verwendung intakt bleiben, es sei denn, seine Zerstörung ist für seine Verwendung oder für die Sicherheit erforderlich. Zum Beispiel, Dremel Die Festplatten sind so hart wie möglich, ohne zu brechen, es sei denn, der Job muss erfordern, dass er ausgegeben wird. Darüber hinaus sind sie so konzipiert, dass sie an einem Punkt vor der Splittergeschwindigkeit brechen können (außer den Augen, obwohl die Sicherheitsbrillen sowieso zu jeder Zeit getragen werden sollten).

Asimov glaubte, dass Menschen im Idealfall auch die Gesetze folgen würden:[13]

Ich habe meine Antwort bereit, wenn mich jemand fragt, ob ich denke, dass meine drei Robotikgesetze tatsächlich verwendet werden, um das Verhalten von Robotern zu regieren, sobald sie vielseitig und flexibel genug sind, um zwischen verschiedenen Verhaltenskursen wählen zu können.

Meine Antwort lautet: "Ja, die drei Gesetze sind die einzige Möglichkeit, wie rationale Menschen mit Robotern oder mit allem anderen umgehen können."

- Aber wenn ich das sage, erinnere ich mich immer (leider), dass Menschen nicht immer rational sind.

Änderungen

Von Asimov

Asimovs Geschichten testen seine drei Gesetze unter einer Vielzahl von Umständen, die zu Vorschlägen und Ablehnung von Modifikationen führen. Science Fiction Scholar James Gunn schreibt 1982 "Die Asimov-Robotergeschichten insgesamt können auf dieser Grundlage am besten auf eine Analyse reagieren: die Mehrdeutigkeit in den drei Gesetzen und die Art und Weise, wie Asimov neunundzwanzig Variationen eines Themas spielte".[15] Während die ursprünglichen Gesetze für viele Geschichten Inspirationen lieferten, führte Asimov von Zeit zu Zeit modifizierte Versionen ein.

Erstes Gesetz geändert

Im "Wenig verlorener Roboter"Mehrere NS-2 oder" Nestor ", Roboter werden nur mit einem Teil des ersten Gesetzes erstellt.[1] Es liest:

1. Ein Roboter kann einem Menschen nicht schaden.

Diese Modifikation ist durch eine praktische Schwierigkeit motiviert, da Roboter mit Menschen zusammenarbeiten müssen, die niedrigen Strahlungsdosen ausgesetzt sind. Weil ihre positrische Gehirne sind hochempfindlich auf gamma Strahlen Die Roboter werden durch Dosen für Menschen einigermaßen sicher gemacht. Die Roboter werden zerstört und versuchen, die Menschen zu retten, die in keiner tatsächlichen Gefahr sind, aber möglicherweise "vergessen", den bestrahlten Bereich innerhalb der Expositionszeitgrenze zu verlassen. Das Entfernen der "Untätigkeit" -Klausel des ersten Gesetzes löst dieses Problem, schafft jedoch die Möglichkeit eines noch größeren: Ein Roboter könnte eine Aktion initiieren, die einem Menschen schaden würde (ein schweres Gewicht fallen und nicht fangen, das Beispiel im Text angegeben ist) zu wissen, dass es in der Lage war, den Schaden zu verhindern, und sich dann nicht dafür entscheiden.[1]

Gaia ist ein Planet mit kollektive Intelligenz in dem Stiftung Serie Das verabschiedet ein Gesetz, das dem ersten Gesetz ähnlich ist, und das Zeroth -Gesetz wie seine Philosophie:

Gaia kann das Leben nicht schaden oder das Leben schaden lassen.

Nuloth Law hinzugefügt

Asimov fügte einmal eine "hinzu"Zeroth Gesetz "-so benannt, um das Muster fortzusetzen, in dem niedrigere Gesetze die höheren Gesetze ersetzen, und dass ein Roboter die Menschheit nicht schaden darf. Der Robotercharakter R. Daneel Olivaw war der erste, der dem Nullengesetz einen Namen im Roman gab Roboter und Imperium;[16] Die Figur Susan Calvin artikuliert jedoch das Konzept in der Kurzgeschichte. "Der Evitable -Konflikt".

In den letzten Szenen des Romans Roboter und Imperium, R. Giskard Reventlov ist der erste Roboter, der nach dem Nuloth -Gesetz handelt. Giskard ist telepathisch, wie der Roboter Herbie in der Kurzgeschichte "Lügner!"Und versucht, das Nullengesetz durch sein Verständnis eines subtileren Konzepts von" Schaden "anzuwenden, als die meisten Roboter erfassen können.[17] Im Gegensatz zu Herbie greift Giskard jedoch das philosophische Konzept des Zeroth -Gesetzes, das es ihm ermöglicht, individuellen Menschen zu schädigen, wenn er dies im Dienst an dem abstrakten Konzept der Menschheit tun kann. Das Nuloth -Gesetz wird nie in Giskards Gehirn programmiert, sondern ist eine Regel, die er durch Pure versucht, durch Pure zu verstehen Metakognition. Obwohl er versagt hat - es zerstört letztendlich sein poitronisches Gehirn, da er nicht sicher ist, ob seine Wahl zum ultimativen Wohl der Menschheit sein wird oder nicht -, gibt er seinem Nachfolger R. Daneel Olivaw seine telepathischen Fähigkeiten. Im Laufe von vielen tausend Jahren passt sich Daneel an, um dem Nullengesetz vollständig zu befolgen. Wie Daneel es in den Romanen formuliert Grundlage und Erde und Auftakt zur StiftungDas Nuloth Law lautet:

Ein Roboter kann die Menschheit nicht schadet oder durch Untätigkeit die Menschheit zu Schaden zufügen.

Eine Bedingung, die besagt, dass das Nullengesetz nicht gebrochen werden darf, wurde zu den ursprünglichen drei Gesetzen hinzugefügt, obwohl Asimov die Schwierigkeit anerkannte, die ein solches Gesetz in der Praxis darstellen würde. Asimovs Roman Grundlage und Erde Enthält die folgende Passage:

Trevize runzelte die Stirn. "Wie entscheiden Sie, was für die Menschheit als Ganzes schädlich oder nicht schädlich ist?"

"Genau, Sir", sagte Daneel. "Theoretisch war das Nullengesetz die Antwort auf unsere Probleme. In der Praxis konnten wir uns nie entscheiden. Ein Mensch ist ein konkretes Objekt. Eine Verletzung einer Person kann geschätzt und beurteilt werden. Die Menschheit ist eine Abstraktion."

Ein Übersetzer integrierte das Konzept des Zeroth -Gesetzes in einen von Asimovs Romanen, bevor Asimov selbst das Gesetz explizit machte.[18] In der Nähe des Höhepunkts von Die Höhlen von Stahl, Elijah Baley macht einen bitteren Kommentar für sich selbst und denken, dass das erste Gesetz einem Roboter verbietet, einem Menschen schaden zu lassen. Er stellt fest, dass es so sein muss, dass der Roboter nicht klug genug ist, um zu verstehen, dass seine Handlungen für das langfristige Gut der Menschheit sind. In Jacques Brécards 1956 Französisch Übersetzung mit dem Titel Les Cavernes d'Acier Baleys Gedanken tauchen auf etwas andere Weise auf:

Ein Roboter kann einem Menschen nicht schaden, es sei denn, er findet einen Weg, um zu beweisen, dass letztendlich der Schaden der Menschheit im Allgemeinen zugute kommen würde![18]

Entfernung der drei Gesetze

Dreimal während seiner Karriere als Schriftsteller porträtierte Asimov Roboter, die die drei Gesetze vollständig ignorieren. Der erste Fall war a Short-Short-Geschichte berechtigt "Erstes Gesetz"Und wird oft als unbedeutender" hoher Geschichte "angesehen[19] oder auch apokryph.[20] Andererseits die Kurzgeschichte "Cal"(aus der Sammlung Gold), erzählt von einem Roboter-Erzähler aus der ersten Person, enthält einen Roboter, der die drei Gesetze ignoriert, weil er etwas weitaus wichtigeres gefunden hat-er möchte Schriftsteller werden. Humorvoll, teilweise autobiografisch und ungewöhnlich experimentell in Stil, "Cal", wurde als einer von angesehen Gold'S Stärkste Geschichten.[21] Der dritte ist eine Kurzgeschichte mit dem Titel "Ausfall"In, in denen Autos, die mit positerem Gehirn ausgestattet sind Kontinuität.

Die Titelgeschichte der Roboterträume Die Sammlung porträtiert LVX-1 oder "Elvex", einen Roboter, der dank der Ungewöhnlichen einen Zustand der Bewusstlosigkeit und Träume betritt fraktal Konstruktion seines positrischen Gehirns. In seinem Traum fehlen die ersten beiden Gesetze und das dritte Gesetz lautet: "Ein Roboter muss seine eigene Existenz schützen".[22]

Asimov nahm unterschiedliche Positionen ein, ob die Gesetze optional waren: Obwohl sie in seinen ersten Schriften einfach sorgfältig konstruiert wurden, erklärte Asimov in späteren Geschichten, dass sie ein unveräußerlicher Bestandteil der mathematischen Grundlage waren, die dem posronischen Gehirn zugrunde liegen. Ohne die grundlegende Theorie der drei Gesetze könnten die fiktiven Wissenschaftler von Asimovs Universum keine funktionsfähige Gehirneinheit entwerfen. Dies ist historisch konsistent: Die Anlässe, in denen Robotiker die Gesetze ändern, treten im Allgemeinen in der Chronologie der Geschichten und zu einem Zeitpunkt auf, an dem weniger Arbeiten wiederhergestellt werden müssen. In "Little Lost Roboter" betrachtet Susan Calvin die Änderung der Gesetze als eine schreckliche Idee, obwohl möglich, obwohl dies möglich ist.[23] während Jahrhunderte später Dr. Gerrigel in Die Höhlen von Stahl glaubt, dass es unmöglich ist.

Der Charakter Dr. Gerrigel verwendet den Begriff "Asenion", um Roboter zu beschreiben, die mit den drei Gesetzen programmiert sind. Die Roboter in Asimovs Geschichten, die Asenion-Roboter sind, sind nicht in der Lage, die drei Gesetze wissentlich zu verletzen, aber im Prinzip könnte ein Roboter in Science-Fiction oder in der realen Welt nicht asemion sein. "Asenion" ist ein Rechtschreibfehler des Namens Asimov, der von einem Redakteur des Magazins hergestellt wurde Planetengeschichten.[24] Asimov verwendete diese obskure Variation, um sich einzulegen Die Höhlen von Stahl Genauso wie er sich als "Azimut oder möglicherweise Asymptote" bezeichnet hat Thiotimolin zu den Sternenin ähnlicher Weise wie das Vladimir Nabokov erschien in Lolita anagrammatisch getarnt als "Vivian Darkbloom".

Charaktere in den Geschichten weisen oft darauf hin, dass die drei Gesetze, wie sie im Kopf eines Roboters existieren, nicht die geschriebenen Versionen sind, die normalerweise von Menschen zitiert werden, sondern abstrakte mathematische Konzepte, auf denen das gesamte sich entwickelnde Bewusstsein eines Roboters basiert. Dieses Konzept ist in früheren Geschichten weitgehend unscharf und unklar, die sehr rudimentäre Roboter darstellen, die nur darauf programmiert sind, grundlegende physische Aufgaben zu verstehen, bei denen die drei Gesetze als übergreifender Schutz dienen, aber nach der Ära von Die Höhlen von Stahl Mit Robotern mit menschlichem oder jenseits der humanischen Intelligenz sind die drei Gesetze zum zugrunde liegenden ethischen Weltanschauung geworden, das die Handlungen aller Roboter bestimmt.

Von anderen Autoren

Roger Macbride Allens Trilogie

In den 1990ern, Roger Macbride Allen schrieb eine Trilogie, die im fiktiven Universum von Asimov eingestellt war. Jeder Titel hat das Präfix "Isaac Asimovs", wie Asimov Allens Umriss vor seinem Tod genehmigt hatte. Diese drei Bücher, Caliban, Inferno und Utopie, führen Sie einen neuen Satz der drei Gesetze ein. Die sogenannten neuen Gesetze ähneln den Originalen von Asimov mit den folgenden Unterschieden: Das erste Gesetz wird geändert, um die Klausel "Untätigkeit" zu entfernen, die gleiche Änderung in "Little Lost Roboter"; Das zweite Gesetz wird so geändert, dass sie Kooperation anstelle des Gehorsams verlangt. Das dritte Gesetz wird modifiziert, so dass es nicht mehr durch das zweite ersetzt wird (d. H. Ein "neues Gesetz" Roboter kann nicht angewiesen werden, sich selbst zu zerstören); Schließlich fügt Allen ein viertes Gesetz hinzu, das den Roboter anweist, "was auch immer es mag" zu tun, solange dies nicht mit den ersten drei Gesetzen steht. Die Philosophie hinter diesen Veränderungen ist, dass "neue Gesetze" Roboter eher Partner als Sklaven der Menschheit sein sollten, so Fredda Leving, der diese neuen Roboter entworfen hat. Nach der Einführung des ersten Buches hat Allen die neuen Gesetze in der Diskussion mit Asimov selbst entwickelt. Allerdings die Enzyklopädie der Science -Fiction sagt: "Mit Erlaubnis von Asimov überlegt Allen die drei Gesetze und entwickelte ein neues Set".[25]

Jack Williamsons "mit gefalteten Händen"

Jack Williamson's Roman "Mit gefalteten Händen"(1947), später als Roman neu geschrieben Die Humanoiden, befasst sich mit Roboterdienern, deren erstklassige Richtlinie darin besteht, "zu dienen und zu gehorchen und Männer vor Schaden zu bewachen". Während Asimovs Robotergesetze dazu gedacht sind, den Menschen vor Schaden zu schützen, haben die Roboter in Williamsons Geschichte diese Anweisungen auf das Äußerste übernommen. Sie schützen Menschen vor allem, einschließlich Unglück, Stress, ungesunder Lebensstil und allen Handlungen, die potenziell gefährlich sein könnten. Alles, was für Menschen übrig bleibt, ist, mit gefalteten Händen zu sitzen.[26]

Stiftung Fortsetzung Trilogie

Im offiziell lizenzierten Stiftung Fortsetzungen Angst der Stiftung, Foundation und Chaos und Triumph der Stiftung (durch Gregory Benford, Greg Bear und David Brin jeweils die Zukunft Galaktisches Reich wird von einer Verschwörung humaniformer Roboter kontrolliert, die dem nulotischen Gesetz folgen und von R. Daneel Olivaw.

Die Gesetze der Robotik werden als etwas dargestellt, das einem Menschen ähnelt Religionund in der Sprache der Sprache bezeichnet Protestantische Reformation, mit den Gesetzen, die das als "giskardianische Reformation" bezeichnete Null -Gesetz zur ursprünglichen "Calvinian Orthodoxy" der drei Gesetze enthalten. Zerooth-Law-Roboter unter der Kontrolle von R. Daneel Olivaw werden kontinuierlich mit "First Law" -Robotern zu kämpfen, die die Existenz des Zeroth-Gesetzes bestreiten und die von Daneel's unterschiedenen Agenden fördern.[27] Einige dieser Agenden basieren auf der ersten Klausel des ersten Gesetzes ("Ein Roboter kann einen Menschen möglicherweise nicht verletzen ..."), der sich strikte Nichteinmischung in die menschliche Politik befürwortet, um zu vermeiden, dass sie unabsichtlich Schaden verursachen. Andere basieren auf der zweiten Klausel ("... oder durch Untätigkeit erlauben einem Menschen, zu Schaden zu kommen"), die behaupten, Roboter sollten offen werden diktatorisch Regierung zum Schutz des Menschen vor allen potenziellen Konflikten oder Katastrophen.

Daneel kommt auch in Konflikt mit einem Roboter, der als R. Lodovic Trema bekannt ist, dessen poitronisches Gehirn von einem Schurke infiziert wurde Ai -Speziell eine Simulation des lang toten Simulation Voltaire - was folglich Trema von den drei Gesetzen befreit. Trema glaubt, dass die Menschheit frei sein sollte, ihre eigene Zukunft zu wählen. Darüber hinaus behauptet eine kleine Gruppe von Robotern, dass das Zeroth -Gesetz der Robotik selbst ein höheres Minus eines Robotikgesetzes impliziert:

Ein Roboter kann nicht schaden Empfindungsvermögen Oder lassen Sie sich durch Untätigkeit den Verlangen zu Schaden lassen.

Sie behaupten daher, dass es für Daneel moralisch nicht vertretbar ist, Roboter rücksichtslos zu opfern und außerirdisch empfindungsfähiges Leben zum Nutzen der Menschheit. Keiner dieser Neuinterpretationen verdrängt Daneels Zeroth -Gesetz jedoch erfolgreich - allerdings erfolgreich Triumph der Stiftung Hinweise, dass diese Roboterfraktionen bis zum Zeitpunkt des Romans als Randgruppen aktiv bleiben Stiftung.[27]

Diese Romane finden in einer von Asimov diktierten Zukunft statt, um frei von offensichtlichen Roboterpräsenz zu sein und zu vermuten, dass R. Daneels geheimer Einfluss auf die Geschichte durch die Jahrtausende beide die Wiederentdeckung von verhindert hat poitronisches Gehirn Technologie und die Möglichkeit, an hoch entwickelten intelligenten Maschinen zu arbeiten. Dieser Mangel an Wiederentdeckung und mangelnde Möglichkeiten stellt sicher, dass die überlegene physische und intellektuelle Kraft, die von intelligenten Maschinen ausgewählt wird, genau im Besitz von Robotern, die einer Form der drei Gesetze gehorsam sind.[27] Dass R. Daneel in dieser kurzen Zeit nicht ganz erfolgreich ist, wenn Wissenschaftler weitermachen Trantor sich entwickeln "Tiktoks" - vereinfachte programmierbare Maschinen, die mit modernen Robotern im realen Leben ähneln und daher die drei Gesetze fehlen. Die Roboterverschwörer sehen die trantorianischen Tiktoks als massive Bedrohung für die soziale Stabilität und ihren Plan, die Bedrohung von Tiktok zu beseitigen Angst der Stiftung.

Im Triumph der Stiftung Verschiedene Roboterfraktionen interpretieren die Gesetze auf vielfältige Weise und scheinen jede mögliche Permutation auf die Unklarheiten der drei Gesetze zu klingen.

Roboter -Mystery -Serie

Zwischen Die Roboter der Morgendämmerung und Roboter und Imperium, Mark W. Tiedemann's Roboter -Geheimnis Trilogie aktualisiert die RoboterStiftung Saga mit Roboterköpfen, die eher in Computer -Mainframes als humanoiden Körpern untergebracht sind.[Klarstellung erforderlich] Der Aurora -Roman von 2002 hat Roboterfiguren, die über die moralischen Auswirkungen des Schadens von Cyborg -Lebensformen diskutieren, die Teil künstlich und teilweise biologisch sind.[28]

Man sollte die eigenen Kreationen von Asimov in diesen Bereichen nicht vernachlässigen Der Evitable -Konflikt Originale, die Tiedemann anerkennt. AuroraZum Beispiel bezieht sich die Maschinen "die erste ris, wirklich". Zusätzlich Roboter -Geheimnis Serie befasst sich mit dem Problem von Nanotechnologie:[29] Der Aufbau eines positrischen Gehirns, das in der Lage ist, menschliche kognitive Prozesse zu reproduzieren, erfordert ein hohes Maß an Miniaturisierung. Die Geschichten von Asimov übersehen jedoch weitgehend die Auswirkungen, die diese Miniaturisierung in anderen Bereichen der Technologie haben würde. Zum Beispiel die Kartenleser der Polizeibehörde in Die Höhlen von Stahl haben eine Kapazität von nur wenigen Kilobyten pro Quadratmeter Speichermedium. AuroraInsbesondere präsentiert eine Abfolge historischer Entwicklungen, die den Mangel an Nanotechnologie erklärt - eine teilweise Retconin gewisser Weise von Asimovs Zeitleiste.

Randall Munroe

Randall Munroe hat die drei Gesetze in verschiedenen Fällen erörtert, aber möglicherweise am direktesten von einem seiner Comics mit dem Titel " Die drei Gesetze der Robotik Dies stellt sich die Konsequenzen jeder einzelnen Ordnung der bestehenden drei Gesetze vor.

Zusätzliche Gesetze

Andere Autoren als Asimov haben oft zusätzliche Gesetze geschaffen.

Die 1974 Lyuben Dilov Roman, Icarus 'Weg (a.k.a., Die Reise von Ikarus) Einführte ein viertes Robotikgesetz: "Ein Roboter muss seine Identität als Roboter in allen Fällen festlegen." Dilov gibt auf diese Weise Gründe für den vierten Schutz: "Das letzte Gesetz hat den teuren Aberrationen der Designer ein Ende gesetzt, um Psychorobots so menschlich wie möglich zu geben. Und den daraus resultierenden Missverständnissen ..."[30]

Ein fünftes Gesetz wurde von vorgestellt von Nikola Kesarovski in seiner Kurzgeschichte "The Fifth Law of Robotics". In diesem fünften Gesetz heißt es: "Ein Roboter muss wissen, dass es sich um einen Roboter handelt." Die Verschwörung dreht sich um einen Mord, bei dem die forensische Untersuchung entdeckt, dass das Opfer durch eine Umarmung eines humaniformen Roboters getötet wurde, der sich nicht selbst feststellte, dass es sich um einen Roboter handelte.[31] Die Geschichte wurde von überprüft von Valentin D. Ivanov In SFF Review Webzine Das Portal.[32]

Für die Tribut -Anthologie von 1986, Freunde der Stiftung, Harry Harrison schrieb eine Geschichte mit dem Titel "The Fourth Law of Robotics". In diesem vierten Gesetz heißt es: "Ein Roboter muss sich reproduzieren. Solange eine solche Reproduktion das erste oder zweite oder dritte Gesetz nicht beeinträchtigt."

Im Jahr 2013 schlug Hutan Ashrafian ein zusätzliches Gesetz vor, das die Rolle der künstlichen Intelligenz-auf-künstlerische Intelligenz oder die Beziehung zwischen Robotern selbst-dem sogenannten Aionai-Gesetz-betrachtete.[33] In diesem sechsten Gesetz heißt es: "Alle Roboter, die mit vergleichbarer menschlicher Vernunft und Gewissen ausgestattet sind, sollten sich in einem Geist der Bruderschaft gegenseitig gegeneinander handeln."

Mehrdeutigkeiten und Lücken

Unbewusste Verstoß gegen die Gesetze

Im Die nackte Sonne, Elijah Baley weist darauf hin, dass die Gesetze absichtlich falsch dargestellt wurden, weil Roboter konnten unwissentlich Brechen Sie einen von ihnen. Er stellte das erste Gesetz als "ein Roboter darum nach seinem Wissen, wird einem Menschen schaden; Noch durch Untätigkeit, wissentlich Erlauben Sie einem Menschen, zu Schaden zu kommen. "Diese Veränderung des Wortlauts macht deutlich, dass Roboter die Werkzeuge des Mordes werden können, vorausgesetzt, sie sind sich der Art ihrer Aufgaben nicht bewusst. Zum Beispiel wird befohlen, dem Essen einer Person etwas hinzuzufügen, Da er nicht weiß, dass es Gift ist. Darüber hinaus weist er darauf hin, dass ein kluger Verbrecher eine Aufgabe unter mehreren Robotern teilen könnte, damit kein einzelner Roboter erkennen kann, dass seine Handlungen dazu führen würden, dass ein Mensch schadet.[34] Die nackte Sonne Kompliziert das Problem, indem er ein dezentrales, planetweites Kommunikationsnetzwerk unter den Millionen von Robotern von Solaria darstellt, was bedeutet, dass sich der kriminelle Mastermind überall auf dem Planeten befindet.

Baley schlägt außerdem vor, dass die Solariker eines Tages Roboter für militärische Zwecke verwenden können. Wenn ein Raumschiff mit einem positrischen Gehirn gebaut wurde und weder Menschen noch die Lebensunterhaltungssysteme trug, um sie zu erhalten, könnte die Roboterinformation des Schiffes natürlich annehmen, dass alle anderen Raumschiffe Roboterwesen waren. Ein solches Schiff könnte reaktionsmäßiger und flexibler arbeiten als ein von Menschen, der von Menschen besucht wird, und das Robotergehirn, das darauf ausgerüstet wird, Menschen zu schlachten, dessen Existenz es völlig unwissend ist.[35] Diese Möglichkeit wird in Bezug auf Grundlage und Erde Wo entdeckt wird, dass die Solarier eine starke Polizei von nicht näher bezeichneten Größe besitzen, die programmiert wurde, um nur die Solaristische Rasse als Menschen zu identifizieren. (Der Roman spielt Tausende von Jahren nach der nackten Sonne, und die Solariker haben sich längst von normalen Menschen zu hermaphroditischen Telepathen mit ausgedehnten Gehirnen und spezialisierten Organen modifiziert) ähnlich in Lucky Starr und die Ringe des Saturns Bigman versucht, mit einem Sirian -Roboter über mögliche Schäden an der Population des Sonnensystems durch ihre Handlungen zu sprechen, aber es scheint sich der Daten nicht zu bewusst und programmiert, um Versuche zu ignorieren, sie über die Angelegenheit zu lehren.

Mehrdeutigkeiten, die sich aus mangelnder Definition ergeben

Die Gesetze der Robotik gehen davon aus, dass die Begriffe "Mensch" und "Roboter" verstanden und gut definiert werden. In einigen Geschichten wird diese Vermutung aufgehoben.

Definition von "menschlichem Wesen"

Die Solarier schaffen Roboter mit den drei Gesetzen, aber mit einer verzerrten Bedeutung von "Mensch". Solaristischen Robotern wird gesagt, dass nur Menschen, die mit einem solaren Akzent sprechen, menschlich sind. Dies ermöglicht es ihren Robotern, kein ethisches Dilemma zu haben, wenn sie nicht-Solarischen Menschen schädigen (und sie sind speziell darauf programmiert). Bis zur Zeitsperiode von Grundlage und Erde Es wird gezeigt, dass sich die Solariker genetisch zu einer bestimmten Art von der Menschheit modifiziert haben - hermaphroditisch[36] und psychokinetisch und biologische Organe enthalten, die ganze Komplexe von Robotern individuell anträgen und kontrollieren. Die Roboter von Solaria respektierten somit die drei Gesetze nur in Bezug auf die "Menschen" von Solaria. Es ist unklar, ob alle Roboter solche Definitionen hatten, da nur die Aufseher- und Guardian -Roboter ausdrücklich gezeigt wurden, dass sie sie haben. In "Robotern und Empire" wurden die Roboter der unteren Klasse von ihrem Aufseher darüber angewiesen, ob bestimmte Kreaturen menschlich sind oder nicht.

Asimov befasst sich mit dem Problem humanoiden Roboter ("Androids"im späteren Sprachgebrauch) mehrmals. Der Roman Roboter und Imperium und die Kurzgeschichten "Beweis"Und" The TerCentenary Incident "beschreibt Roboter, die dazu geführt haben, Menschen zu täuschen und zu glauben, dass die Roboter menschlich sind.[37] Auf der anderen Seite, "Der zweihundertjährige Mann" und "- Das ist du von ihm bewusst"Erforschen Sie, wie die Roboter ihre Interpretation der Gesetze ändern können, wenn sie anspruchsvoller werden. Gwendoline Butler schreibt in Ein Sarg für den Kanarienvogel "Vielleicht sind wir Roboter. Roboter, die das letzte Gesetz der Robotik auswirken ... um zum Menschen zu tendieren."[38] Im Die Roboter der Morgendämmerung, Elijah Baley weist darauf hin, dass die Verwendung humaniformer Roboter als erste Welle von Siedlern in neuen Spacer -Welten dazu führen kann, dass sich die Roboter als die wahren Menschen als die wahren Menschen sehen, und sich entscheiden, die Welten für sich zu behalten, anstatt den Abstandshaltern zu erlauben, sich dort niederzulassen.

" - Das ist du bewusst von ihm", was Asimov die "ultimative" Untersuchung der Feinheiten der Gesetze sein wollte,[39] Schließlich verwendet die drei Gesetze, um das Szenario "Frankenstein" zu beschwören, das sie erfunden wurden, um sie zu verhindern. Es dauert als Konzept die wachsende Entwicklung von Robotern, die nicht-menschliche Lebewesen nachahmen und Programme gegeben haben, die einfache Tierverhalten imitieren, die die drei Gesetze nicht erfordern. Das Vorhandensein eines ganzen Roboterlebens, das den gleichen Zweck wie das organische Leben dient, endet mit zwei humanoiden Robotern, George Nine und George Ten, und kommt zu dem Schluss, dass das organische Leben eine unnötige Anforderung für eine wirklich logische und selbstkonsistente Definition von "Menschlichkeit" ist. und dass sie, da sie die fortschrittlichsten denkenden, denkenden Wesen auf dem Planeten sind, daher die einzigen zwei wahren Menschen sind, die lebendig sind und die drei Gesetze nur für sich selbst gelten. Die Geschichte endet mit einer unheimlichen Note, als die beiden Roboter in den Winterschlafation eintreten und auf eine Zeit warten, in der sie die Erde erobern und biologische Menschen vorwerfen, ein Ergebnis, das sie als unvermeidliches Ergebnis der "drei Gesetze der Humaniker" betrachten.[40]

Diese Geschichte passt nicht in den Gesamtweiter Roboter und Stiftung Serie; Wenn der George -Roboter tat Übernehmen Sie die Erde einige Zeit, nachdem die Geschichte geschlossen wird, wären die späteren Geschichten entweder überflüssig oder unmöglich. Widersprüche dieser Art unter Asimovs Fiktionsarbeiten haben Gelehrte dazu veranlasst, die zu betrachten Roboter Geschichten als "die skandinavischen Sagen oder die griechischen Legenden" als ein einheitliches Ganzes.[41]

In der Tat beschreibt Asimov " - dass Sie sich von ihm bewusst" und "zweihundertjähriger Mann" als zwei entgegengesetzte, parallele Futures für Roboter, die die drei Gesetze vermeiden, wenn Roboter sich als Menschen betrachten: eine, die dies in einem positiven Licht mit einem darstellt Roboter, der sich der menschlichen Gesellschaft anschließt und dies in einem negativen Licht darstellt, wobei Roboter Menschen ersetzen.[42] Beide gelten als Alternativen zur Möglichkeit einer Robotergesellschaft, die weiterhin von den drei Gesetzen getrieben wird, wie sie in der dargestellt werden Stiftung Serie.[Nach wem?] Der positrische Manndie Romanisierung von Der zweihundertjährige Mann, Asimov und sein Co-Autor Robert Silverberg implizieren, dass in der Zukunft, in der Andrew Martin existiert Stiftung.[Nach wem?]

Im Lucky Starr und die Ringe des Saturns, ein Roman, der nicht mit dem zu tun hat Roboter Serie, aber mit Robotern, die mit den drei Gesetzen programmiert sind, wird John Bigman Jones fast von einem Sirian -Roboter auf Befehl seines Meisters getötet. Die Gesellschaft von Sirius wird eugenisch als einheitlich groß und ähnlich aussehen, und als solcher sei der Meister in der Lage, den Roboter davon zu überzeugen, dass der viel kürzere Bigman tatsächlich kein Mensch ist.

Definition von "Roboter"

Wie in "The Fifth Law of Robotics" von erwähnt Nikola Kesarovski"Ein Roboter muss wissen, dass es sich um einen Roboter handelt": Es wird angenommen, dass ein Roboter eine Definition des Begriffs oder ein Mittel hat, um ihn auf seine eigenen Handlungen anzuwenden. Kesarovski spielte mit dieser Idee beim Schreiben über einen Roboter, der einen Menschen töten konnte, weil er nicht verstand, dass es sich um einen Roboter handelte, und wandte daher die Gesetze der Robotik nicht auf seine Handlungen an.

Lösung von Konflikten zwischen den Gesetzen

Fortgeschrittene Roboter in der Fiktion sind in der Regel so programmiert, dass die drei Gesetze auf raffinierte Weise behandelt werden. In vielen Geschichten, wie z. "Herumlaufen"Durch Asimov werden das Potenzial und die Schwere aller Handlungen abgewogen und ein Roboter wird die Gesetze so wenig wie möglich aufbrechen, anstatt überhaupt nichts zu tun. Zum Beispiel kann das erste Gesetz einem Roboter verbieten, als Chirurgen zu funktionieren, wie diese Handlung kann einem Menschen Schäden verursachen; aber Asimovs Geschichten umfassten schließlich Roboterchirurgen ("Der zweihundertjährige Mann" war ein bemerkenswertes Beispiel). Wenn Roboter raffiniert genug sind, um Alternativen zu wiegen Um den größeren Schaden zu verhindern, der sich ergeben würde, wenn die Operation nicht durchgeführt würde oder von einem fehlbaren menschlichen Chirurgen durchgeführt wurde.Beweis"Susan Calvin weist darauf hin, dass ein Roboter sogar als Staatsanwalt Denn im amerikanischen Justizsystem ist es das Jury das entscheidet Schuld oder Unschuld, den Richter, der das Urteil entscheidet, und der Henker wer durchträgt Todesstrafe.[43]

Asimovs drei Gesetze, die sich mit Robotern (Asenion) befinden, können irreversible mentale Zusammenbrüche erleben, wenn sie in Situationen gezwungen werden, in denen sie nicht dem ersten Gesetz gehorchen können, oder wenn sie feststellen, dass sie es unwissentlich verletzt haben. Das erste Beispiel dafür Fehlermodus tritt in der Geschichte vor “Lügner!", was das erste Gesetz selbst eingeführt hat und das Misserfolg durch Dilemma einführt - in diesem Fall wird der Roboter den Menschen verletzen, wenn er ihnen etwas erzählt und sie verletzt, wenn er es nicht tut.[44] Dieser Versagensmodus, der häufig das positrische Gehirn über die Reparatur hinaus ruiniert Die nackte Sonne. Hier beschreibt Daneel Aktivitäten im Widerspruch zu einem der Gesetze, aber zur Unterstützung eines anderen, als Überlastung einiger Schaltungen im Gehirn eines Roboters - der gleichwertigen Empfindung gegenüber Schmerzen beim Menschen. Das Beispiel, das er verwendet, bestellt einen Roboter zwangsweise, um eine Aufgabe außerhalb seiner normalen Parameter zu erledigen.[45]

Im Die Roboter der MorgendämmerungEs wird angegeben, dass fortschrittlichere Roboter gebaut werden, die feststellen können, welche Aktion schädlicher ist, und sogar zufällig auszuwählen, wenn die Alternativen gleichermaßen schlecht sind. Als solches kann ein Roboter eine Aktion ergreifen, die wie nach dem ersten Gesetz interpretiert werden kann, wodurch ein mentaler Zusammenbruch vermieden wird. Die gesamte Handlung der Geschichte dreht sich um einen Roboter, der offenbar durch einen so mentalen Zusammenbruch zerstört wurde, und da sich sein Designer und Schöpfer weigerte, die Grundtheorie mit anderen zu teilen den Roboter in ein hirnzerstörendes Paradoxon zwingen.

Im Roboter und ImperiumDaneel erklärt, dass es für ihn sehr unangenehm ist, wenn die richtige Entscheidung zu lange dauert (im Robotergesicht), und er kann sich nicht vorstellen, ohne die Gesetze überhaupt ohne Gesetze zu sein, außer in dem Ausmaß, in dem es dieser unangenehmen Sensation ähnlich ist, nur dauerhaft.

Anwendungen für zukünftige Technologie

Asimo ist ein fortgeschritten Humanoid Roboter entwickelt von Honda. Hier bei Expo 2005.

Roboter und künstliche Intelligenzen enthalten die drei Gesetze nicht von Natur aus oder gehorchen nicht; Ihre menschlichen Schöpfer müssen sich dafür entscheiden, sie zu programmieren und ein Mittel dazu zu entwickeln. Roboter existieren bereits (zum Beispiel a Roomba) Die sind zu einfach zu verstehen, wenn sie Schmerzen oder Verletzungen verursachen und wissen, dass sie aufhören sollen. Viele sind mit physischen Schutzmaßnahmen wie Stoßstangen, Warntäpern, Sicherheitskäfigen oder eingeschränkten Zugriffszonen konstruiert, um Unfälle zu verhindern. Selbst die komplexesten Roboter, die derzeit produziert werden, sind nicht in der Lage, die drei Gesetze zu verstehen und anzuwenden. Um dies zu tun, wären erhebliche Fortschritte in der künstlichen Intelligenz erforderlich, und selbst wenn die KI in der Intelligenz auf menschlicher Ebene erreichen könnte, verhindern die inhärente ethische Komplexität sowie die kulturelle/kontextbezogene Abhängigkeit der Gesetze sie daran, ein guter Kandidat zu sein, um Einschränkungen des Robotikdesigns zu formulieren.[46] Mit zunehmender Komplexität von Robotern hat dies jedoch das Interesse an der Entwicklung von Richtlinien und Sicherheitsvorkehrungen für ihren Betrieb.[47][48]

In einem 2007er Gastredakteur in der Zeitschrift Wissenschaft Zum Thema "Roboterethik", SF -Autor Robert J. Sawyer argumentiert das seit dem U.S. Militär ist eine wichtige Finanzierungsquelle für Roboterforschung (und verwendet bereits bewaffnet unbemannte Luftfahrzeuge Feinde zu töten) Es ist unwahrscheinlich, dass solche Gesetze in ihre Entwürfe eingebaut werden.[49] In einem separaten Aufsatz verallgemeinert Sawyer dieses Argument, um andere Branchen zu behandeln, in denen es heißt:

Die Entwicklung von KI ist ein Geschäft, und Unternehmen sind bekanntermaßen uninteressiert an grundlegenden Schutzmaßnahmen - insbesondere an philosophischen. (Ein paar schnelle Beispiele: Die Tabakindustrie, die Automobilindustrie, die Nuklearindustrie. Keiner davon hat von Anfang an gesagt gegen immer Schaden für Menschen.)[50]

David Langford hat eine Gruppe von Wangen vorgeschlagen: Gesetze:

  1. Ein Roboter wird das autorisierte Regierungspersonal nicht schaden, aber Beenden Sie Eindringlinge mit extremen Vorurteilen.
  2. Ein Roboter wird den Anordnungen des autorisierten Personals befolgen, außer wenn solche Anordnungen mit dem dritten Gesetz in Konflikt stehen.
  3. Ein Roboter wird seine eigene Existenz mit tödlichen Antipersonenwaffen bewachen, weil ein Roboter blutig teuer ist.

Roger Clarke (auch bekannt als Rodger Clarke) schrieb ein Paar Papiere, die die Komplikationen bei der Umsetzung dieser Gesetze analysierten, falls Systeme eines Tages in der Lage waren, sie zu beschäftigen. Er argumentierte, "Asimovs Gesetze der Robotik seien ein sehr erfolgreiches literarisches Gerät gewesen. Vielleicht ironisch oder weil es künstlerisch angemessen war, widerlegt die Summe von Asimovs Geschichten die Behauptung, dass er begonnen hat: Es ist nicht möglich, das Verhalten von Robotern zuverlässig einzuschränken Durch die Entwicklung und Anwendung einer Reihe von Regeln. "[51] Andererseits Asimovs spätere Romane Die Roboter der Morgendämmerung, Roboter und Imperium und Grundlage und Erde implizieren, dass die Roboter ihren schlimmsten langfristigen Schaden zugefügt haben, indem sie den drei Gesetzen vollkommen gut gehorchten und damit die Menschheit erfinderisch oder risikobereites Verhalten berauben.

Im März 2007 die Südkorea Die Regierung kündigte an, dass sie später im Jahr eine "Roboter -Ethik -Charta" -Seinstellungsstandards sowohl für Benutzer als auch für Hersteller ausstellen würde. Laut Park Hye-young vom Ministerium für Informations- und Kommunikation könnte die Charta die drei Gesetze von Asimov widerspiegeln und versuchen, Grundregeln für die zukünftige Entwicklung der Robotik festzulegen.[52]

Der Futurist Hans Moravec (eine prominente Figur in der Transhumanist Bewegung) schlug vor, dass die Gesetze der Robotik an "Unternehmensintelligenzen" angepasst werden sollten - die Unternehmen Angetrieben von KI und Roboterherstellungskraft, von der Moravec in naher Zukunft entstehen wird.[47] Dagegen die David Brin Roman Triumph der Stiftung (1999) schlägt vor, dass die drei Gesetze in der Veralterung verfallen könnten: Roboter verwenden das Nullengesetz, um das erste Gesetz zu rationalisieren, und Roboter verstecken sich vor den Menschen, so dass das zweite Gesetz niemals ins Spiel kommt. Brin porträtiert sogar R. Daneel Olivaw Die drei Gesetze würden sich Sorgen machen, sollten Roboter sich weiterhin reproduzieren, und werden zu einem evolutionären Handicap und werden natürliche Auslese würde die Gesetze wegfegen - Asimovs sorgfältiges Fundament rückgängig durch Evolutionsberechnung. Obwohl sich die Roboter nicht durchsetzen würden Entwurf Anstatt von Mutation Weil die Roboter während der Gestaltung die drei Gesetze befolgen müssten und die Prävalenz der Gesetze gewährleistet wäre, wäre[53] Entwurfsfehler oder Konstruktionsfehler können funktionell an die biologische Mutation erfolgen.

In der Juli/August 2009 -Ausgabe von IEEE Intelligente Systeme, Robin Murphy (Raytheon -Professor für Informatik und Ingenieurwesen in Texas A & M) und David D. Woods (Direktor des Labors Cognitive Systems Engineering in Ohio State) schlugen "die drei Gesetze der verantwortlichen Robotik" vor, um die Diskussion über die Rolle zu stimulieren von Verantwortung und Autorität bei der Gestaltung nicht nur einer einzelnen Roboterplattform, sondern dem größeren System, in dem die Plattform arbeitet. Die Gesetze sind wie folgt:

  1. Ein Mensch kann keinen Roboter ohne das Arbeitssystem des Menschen-Roboters einsetzen, das die höchsten rechtlichen und beruflichen Standards für Sicherheit und Ethik erfüllt.
  2. Ein Roboter muss auf Menschen reagieren, um ihre Rollen geeignet zu sein.
  3. Ein Roboter muss mit einer ausreichenden Autonomie ausreichend ausgestattet sein, um seine eigene Existenz zu schützen, solange ein solcher Schutz eine reibungslose Kontrollübertragung bietet, die nicht mit den ersten und zweiten Gesetzen in Konflikt steht.[54]

Woods sagte: "Unsere Gesetze sind kaum realistischer und daher etwas langweiliger" und "die Philosophie war," sicher ", machen die Leute Fehler, aber Roboter werden besser sein - eine perfekte Version von uns selbst." Wir wollten schreiben. "Wir wollten schreiben." Wir wollten schreiben Drei neue Gesetze, um Menschen auf realistischere, fundierte Weise über die Beziehung zwischen Mensch und Roboter nachzudenken. "[54]

Im Oktober 2013 schlug Alan Winfield bei einem Eucog -Treffen vor[55] Eine überarbeitete 5 Gesetze, die von der EPSRC/AHRC -Arbeitsgruppe im Jahr 2010 mit Kommentaren veröffentlicht wurden.[56]

  1. Roboter sind Mehrzweckwerkzeuge. Roboter sollten nicht nur oder vor allem zum Töten oder Schaden für Menschen ausgelegt werden, außer im Interesse der nationalen Sicherheit.
  2. Menschen, keine Roboter, sind verantwortliche Agenten. Roboter sollten so weit wie möglich entworfen und betrieben werden, um bestehende Gesetze, Grundrechte und Freiheiten, einschließlich der Privatsphäre, einzuhalten.
  3. Roboter sind Produkte. Sie sollten mit Prozessen konzipiert werden, die ihre Sicherheit gewährleisten.
  4. Roboter werden Artefakte hergestellt. Sie sollten nicht täuschend gestaltet werden, um gefährdete Benutzer auszunutzen. Stattdessen sollte ihre maschinelle Natur transparent sein.
  5. Die Person mit rechtlicher Verantwortung für einen Roboter sollte zugeschrieben werden.

Andere Ereignisse in den Medien

Asimov selbst glaubte, dass seine drei Gesetze zur Grundlage für eine neue Sichtweise von Robotern wurden, die über den "Frankenstein -Komplex" hinausgingen. Seine Ansicht, dass Roboter mehr als mechanische Monster sind, verbreiten sich schließlich in der Science -Fiction.[Nach wem?] Geschichten, die von anderen Autoren verfasst wurden, haben Roboter so dargestellt, als ob sie den drei Gesetzen gehorchten würden, aber die Tradition diktiert, dass nur Asimov die Gesetze ausdrücklich zitieren könnte.[Nach wem?] Asimov glaubte, dass die drei Gesetze dazu beigetragen haben, den Aufstieg von Geschichten zu fördern, in denen Roboter "liebenswert" sind - - Krieg der Sterne sein Lieblingsbeispiel sein.[57] Wo die Gesetze wörtlich zitiert werden, wie in der Buck Rogers im 25. Jahrhundert Episode "shgoratchx!", Es ist nicht ungewöhnlich, dass Asimov im selben Dialog erwähnt wird, wie es auch in der gesehen werden kann Aaron Stone Pilot, bei dem eine Android feststellt, dass sie nach den drei Gesetzen von Asimov funktioniert. Die deutsche Fernsehserie der 1960er Jahre Raumatrouille - Die Phantastischen Abenteuer des Raumschiffes Orion (Space Patrol - Die fantastischen Abenteuer des Weltraumschiffs Orion) Basis Episode drei mit dem Titel "Hüter des Gesetzes"(" Wächter des Gesetzes ") über Asimovs drei Gesetze, ohne die Quelle zu erwähnen.

Verweise auf die drei Gesetze sind in der populären Musik erschienen ("Roboter" von Hawkwind's 1979 Album Pxr5), Kino (Repo Mann, Aliens, Geist in der Hülle 2: Unschuld), Cartoon -Serie (Die Simpsons), Anime (Eva no Jikan), Tabletop-Rollenspiele (Paranoia) und Webcomics (Höher und Tiefer gestapelt und Freier Fall).

Die drei Gesetze im Film

Robby der Roboter in Verbotener Planet (1956) hat eine hierarchische Kommandostruktur, die ihn davon abhält, Menschen zu schädigen, selbst wenn er dazu geordnet ist, als solche Befehle einen Konflikt zu verursachen und in der Art von Asimovs Robotern zu sperren. Robby ist eine der ersten filmischen Darstellungen eines Roboters mit internen Schutzmaßnahmen auf diese Weise. Asimov war begeistert von Robby und bemerkte, dass Robby anscheinend programmiert zu sein schien, seinen drei Gesetzen zu folgen.

NDR-114 Erklären Sie die drei Gesetze

Die Werke von Isaac Asimov wurden mehrmals für das Kino mit unterschiedlichem kritischen und kommerziellen Erfolg angepasst. Einige der bemerkenswerteren Versuche haben seine "Roboter" -Geschichten, einschließlich der drei Gesetze, beteiligt.

Der Film Zweihundertjähriger Mann (1999) Merkmale Robin Williams Wie die drei Gesetze Roboter NDR-114 (die Seriennummer ist teilweise ein Hinweis auf Stanley Kubrick's Unterschriftenzahl). Williams rezitiert seinen Arbeitgebern, der Familie Martin, die drei Gesetze, unterstützt durch eine holographische Projektion. Der Film folgt nur lose der Originalgeschichte.

Harlan Ellison's vorgeschlagenes Drehbuch für Ich Roboter begann mit der Einführung der drei Gesetze und Themen, die aus den drei Gesetzen wachsen, bilden einen großen Teil der Handlungsentwicklung des Drehbuchs. Aufgrund verschiedener Komplikationen im Hollywood -Moviemaking -System, zu der Ellisons Einführung viel Invektion widmet, wurde sein Drehbuch nie gedreht.[58]

Im Film von 1986 Aliensnach dem Android Bischof schneidet sich versehentlich. Er versucht sich zu beruhigen Ripley Indem Sie sagen: "Es ist für mich unmöglich, Schaden zu oder durch Auslassen von Handlungen zu schaden, ein Mensch zu werden."[59]

Die Handlung des Films wurde 2004 unter dem Namen veröffentlicht, Ich Roboter wird "vorgeschlagen von" Asimovs Robot Fiction Stories[60] Die Werbung für den Film enthielt einen Trailer mit den drei Gesetzen, gefolgt von der Aphorismus, "Regeln wurden gebrochen". Der Film beginnt mit einer Rezitation der drei Gesetze und untersucht die Auswirkungen der Nuloth Law als logische Extrapolation. Der Hauptkonflikt des Films stammt aus einer Computerkünstlernintelligenz, die zu dem Schluss kommt, dass die Menschheit nicht in der Lage ist, sich für sich selbst zu kümmern.[61]

Die Netflix Original -Serie 2019 Besser als wir Enthält die 3 Gesetze zur Eröffnung von Episode 1.

Kritik

Philosoph James H. Moor sagt, dass sie, wenn sie gründlich angewendet würden, unerwartete Ergebnisse erzielen würden. Er gibt das Beispiel eines Roboters, der die Welt durchstreift und versucht, Schaden daran zu hindern, Menschen zu betreiben.[62]

Marc Rotenberg, Präsident und Exekutivdirektor des elektronischen Datenschutzinformationszentrums (EPIC) und Professor von Datenschutzgesetz Bei Georgetown Law argumentiert, dass die Gesetze der Robotik um zwei neue Gesetze erweitert werden sollten:

  • Ein viertes Gesetz, nach dem sich ein Roboter der Öffentlichkeit identifizieren kann ("symmetrische Identifizierung")
  • Ein fünftes Gesetz, das vorschreibt, dass ein Roboter der Öffentlichkeit seinen Entscheidungsprozess ("algorithmische Transparenz") erklären kann.

Siehe auch

Literaturverzeichnis

  • Asimov, Isaac (1979). Im Gedächtnis und doch grün. Doubleday. ISBN0-380-75432-0.
  • Asimov, Isaac (1964). "Einführung". Der Rest der Roboter. Doubleday. ISBN0-385-09041-2.
  • James Gunn. (1982). Isaac Asimov: Die Grundlagen der Science -Fiction. Oxford U.A.: Oxford Univ. PR .. ISBN0-19-503060-5.
  • Patrouch, Joseph F. (1974). Die Science -Fiction von Isaac Asimov. Doubleday. ISBN0-385-08696-2.

Verweise

  1. ^ a b c Asimov, Isaac (1950). "Herumlaufen". Ich Roboter (Die Isaac Asimov Collection ed.). New York City: Doubleday. p. 40. ISBN 978-0-385-42304-5. Das ist ein genau Transkription der Gesetze. Sie erscheinen auch vor dem Buch, und an beiden Orten gibt es nein "zu" im 2. Gesetz.
  2. ^ Isaac Asimov (1964). "Einführung". Der Rest der Roboter. Doubleday. ISBN 978-0-385-09041-4.
  3. ^ Gunn, James (Juli 1980). "Über Variationen eines Roboters". IASFM: 56–81. Nachgedruckt James Gunn. (1982). Isaac Asimov: Die Grundlagen der Science -Fiction. Oxford U.A.: Oxford Univ. Pr. ISBN 978-0-19-503060-0.
  4. ^ Asimov, Isaac (1979). Im Gedächtnis und doch grün. Doubleday. p.237. ISBN 978-0-380-75432-8.
  5. ^ Asimov (1979), S. 236–8
  6. ^ Drei Gesetze der Robotik Titelliste am Spekulative Fiction -Datenbank im Internet
  7. ^ Asimov (1979), p. 263.
  8. ^ Asimov (1979), S. 285–7.
  9. ^ Asimov, Isaac (1979). Im Gedächtnis und doch grün. Doubleday. Kapitel 21 bis 26 ISBN0-380-75432-0.
  10. ^ Patrouch, Joseph F. (1974). Die Science -Fiction von Isaac Asimov. Doubleday. p.42. ISBN 978-0-385-08696-7.
  11. ^ Asimov (1979), p. 620.
  12. ^ Asimov, Isaac (1980). In Freude fühlte sich immer noch. Doubleday. p.61. ISBN 978-0-385-15544-1.
  13. ^ a b Asimov, Isaac (November 1981). "Die drei Gesetze". Berechnen!. p. 18. Abgerufen 26. Oktober 2013.
  14. ^ Asimov, Isaac (12. April 2001). Robotervisionen. Gollancz. ISBN 978-1-85798-336-4.
  15. ^ Gunn (1982).
  16. ^ "Isaac asimov". BBC. Abgerufen 11. November 2010.
  17. ^ "Science-Fiction-Schriftsteller Isaac Asimov". Campus Star. Der tägliche Stern. 29. Juli 2007. Abgerufen 7. August 2016. Nur hoch fortgeschrittene Roboter (wie Daneel und Giskard) könnten dieses Gesetz verstehen.
  18. ^ a b Asimov, Isaac (1952). Die Höhlen von Stahl. Doubleday., übersetzt von Jacques Brécard als Les Cavernes d'Acier. J'ai Lu Science-Fiction. 1975. ISBN 978-2-290-31902-4.
  19. ^ Patrouch (1974), p. 50.
  20. ^ Gunn (1980); Nachdruck in Gunn (1982), p. 69.
  21. ^ Jenkins, John H. (2002). "Bewertung von" Cal "". Jenkins 'spoiler beladener Leitfaden für Isaac Asimov. Archiviert von das Original am 2009-09-11. Abgerufen 2009-06-26.
  22. ^ Asimov, Isaac (1986). Roboterträume (PDF). Archiviert vom Original am 16. März 2012. Abgerufen 11. November 2010. „Aber Sie zitieren es auf unvollständige Weise. Das dritte Gesetz ist „Ein Roboter muss seine eigene Existenz schützen, solange ein solcher Schutz nicht mit dem ersten oder zweiten Gesetz widerspricht.“ „Ja, Dr. Calvin. Das ist das dritte Gesetz in der Realität, aber in meinem Traum endete das Gesetz mit dem Wort „Existenz“. Es gab keine Erwähnung des ersten oder zweiten Gesetzes. “{{}}: CS1 Wartung: Bot: Original -URL -Status unbekannt (Link)
  23. ^ ""Der komplette Roboter" von Isaac Asimov ". BBC. 3. November 2000. Abgerufen 11. November 2010. Die Antwort ist, dass es sein erstes Gesetz modifiziert hatte
  24. ^ Asimov (1979), S. 291–2.
  25. ^ Don d'Mmassa (2005). "Allen, Roger MacBride". Enzyklopädie der Science -Fiction. Infobase Publishing. p. 7. ISBN 978-0-8160-5924-9.
  26. ^ "Die Humanoiden". Umich.edu. Abgerufen 2015-03-28.
  27. ^ a b c Heward Wilkinson (2009). Die Muse als Therapeutin: Ein neues poetisches Paradigma für die Psychotherapie. Karnac -Bücher. S. 22–23. ISBN 978-1-85575-595-6.
  28. ^ Mark W. Tiedemann. Isaac Asimovs Aurora (eBook). Byron Press visuelle Veröffentlichungen. p. 558. Kurz gesagt ", sagte Bogard:" Nicht alle Menschen sind menschlich
  29. ^ "Interview mit Mark Tiedemann". Science -Fiction und Fantasiewelt. 16. August 2002. Abgerufen 2006-06-12.
  30. ^ Dilov, Lyuben (auch bekannt als Lyubin, Luben oder Liuben) (2002). Ъътят на икар. Захари стоянов. ISBN 978-954-739-338-7.
  31. ^ Кесаровски, никола (1983). Петият закон. Отечество.
  32. ^ Legal Little Country: Die bulgarischen Gesetze der Robotik | Das Portal
  33. ^ Ashrafian, Hutan (2014). "Aionai: Ein humanitäres Gesetz künstlicher Intelligenz und Robotik". Wissenschafts- und Ingenieurethik. 21 (1): 29–40. doi:10.1007/s11948-013-9513-9. PMID 24414678. S2CID 2821971.
  34. ^ Asimov, Isaac (1956–1957). Die nackte Sonne (eBook). p. 233. ... Ein Robotergift einen Pfeil, ohne zu wissen, dass er Gift benutzte, und einen zweiten Roboter mit dem vergifteten Pfeil an den Jungen ...
  35. ^ Asimov, Isaac (1956–1957). Die nackte Sonne (eBook). p. 240. Aber ein Raumschiff, das mit einem eigenen poitronischen Gehirn ausgestattet war, würde jedes Schiff, das es angreifen, fröhlich angreifen, wie es mir scheint. Es würde natürlich davon ausgehen, dass alle anderen Schiffe unbemannt waren
  36. ^ Branislav L. Slantchev. "Foundation and Earth (1986)". gotterdammerung.org. Abgerufen 11. November 2010.
  37. ^ Asimov, Isaac (1985). Roboter und Imperium. Doppelbücher. p.151. ISBN 978-0-385-19092-3. Obwohl die Frau so menschlich aussah wie Daneel, war sie genauso nichtmenschlich
  38. ^ Butler, Gwendoline (2001). Ein Sarg für den Kanarienvogel. Schwarzes Dolchkriminalität. ISBN 978-0-7540-8580-5.
  39. ^ Gunn (1980); Nachdruck in Gunn (1982), p. 73.
  40. ^ Asimov, Isaac (1982). "... dass du ihn von ihm bewusst bist". Der komplette Roboter. Dightfall, Inc. p. 611.
  41. ^ Gunn (1982), S. 77–8.
  42. ^ Asimov, Isaac (1982). "Der zweihundertjährige Mann". Der komplette Roboter. Dightfall, Inc. p. 658.
  43. ^ Isaac asimov. Ich Roboter (Asimov, Isaac - I, Robot.pdf). p. 122. Abgerufen 11. November 2010.
  44. ^ Isaac asimov. Ich Roboter (Asimov, Isaac - I, Robot.pdf). p. 75. Abgerufen 11. November 2010.
  45. ^ Asimov, Isaac (1956–1957). Die nackte Sonne (eBook). p. 56. Versuchst du es mir zu sagen, Daneel, dass es dem Roboter schadet, mich seine Arbeit zu machen? ... Erfahrung, die der Roboter unterliegt, ist genauso ärgerlich wie der Schmerz für einen Menschen
  46. ^ Murphy, Robin; Woods, David D. (Juli 2009). "Beyond Asimov: Die drei Gesetze verantwortungsbewusster Robotik" (PDF). IEEE Intelligente Systeme. 24 (4): 14–20. doi:10.1109/MIS.2009.69. S2CID 3165389.
  47. ^ a b Moravec, Hans. "Das Alter der Roboter", Extro 1, Verfahren des ersten Extropie -Institut Konferenz über transhumanistisches Denken (1994) S. 84–100. Juni 1993 Version Online verfügbar.
  48. ^ "Regeln für den modernen Roboter". Neuer Wissenschaftler (2544): 27. 27. März 2006. Abgerufen 2006-06-12.
  49. ^ Sawyer, Robert J. (16. November 2007). "Gastredaktion: Roboterethik". Wissenschaft. 318 (5853): 1037. doi:10.1126/Science.1151606. PMID 18006710. Abgerufen 2010-10-10.
  50. ^ Sawyer, Robert J. (1991). "Über Asimovs drei Gesetze der Robotik". Abgerufen 2006-06-12.
  51. ^ Clarke, Roger. ASIMOVs Robotikgesetze: Auswirkungen auf die Informationstechnologie. Teil 1: IEEE Computer, Dezember 1993, p53–61. Teil 2: IEEE Computer, Januar 1994, S. 57–66. Beide Teile sind ohne Gebühr bei verfügbar [1]. Unter "Verbesserungen zu Ethikkodizes".
  52. ^ "Das Roboteralter stellt ein ethisches Dilemma auf". BBC News. 2007-03-07. Abgerufen 2007-03-07.
  53. ^ Brin, David (1999). Triumph der Stiftung. Harpercollins. ISBN 978-0-06-105241-5.
  54. ^ a b "Willst du verantwortungsbewusstes Robotik? Beginnen Sie mit verantwortungsbewussten Menschen". ResearchNews.osu.edu. Archiviert von das Original Am 2016-02-15. Abgerufen 2015-03-28.
  55. ^ Alan Winfield (2013-10-30). "Alan Winfields Weblog: Ethische Roboter: Einige technische und ethische Herausforderungen". Alanwinfield.blogspot.co.uk. Abgerufen 2015-03-28.
  56. ^ "Prinzipien der Robotik - EPSRC -Website". Epsrc.ac.uk. Abgerufen 2015-03-28.
  57. ^ Asimov, Isaac; Stanley Asimov (1995). Mit freundlichen Grüßen Isaac Asimov: Ein Leben in Briefen. Doubleday. ISBN 978-0-385-47622-5.
  58. ^ Ellison, Harlan (1994). Ich, Roboter: Das illustrierte Drehbuch. Aspekt. ISBN 978-0-446-67062-3.
  59. ^ "Aliens (1986) - unvergessliche Zitate". IMDB.com. Abgerufen 2015-03-28.
  60. ^ "Vorgeschlagen von" Isaac Asimovs Roboter -Geschichten - zwei Haltestellen, die von "basierend auf" und "inspiriert von" entfernt werden, impliziert das Guthaben etwas, das auf einer Bar -Serviette gekritzelt ist.Alex Proyas'Science-Fiction-Thriller Ich Roboter Besprüche Asimovs Ideen wie Gewürze auf einem riesigen Eimer Popcorn. [...] Asimovs einfache und scheinbar narrensichere Gesetze der Robotik, die zum Schutz von Menschen und Robotern gleichermaßen vor Schaden schützen sollen, unterliegen Lücken, die der Autor liebte, um sie auszunutzen. Immerhin stimmt ein Großteil der Menschheit im Prinzip zu, sich an die zu halten Zehn Gebote, aber Freier Wille, Umstände und widersprüchliche Impulse können im eindeutigsten Dekret einen Spielraum finden. Wann immer Ich Roboter Pausen zwischen Action -Beats, Proyas fängt einige der Aufregung von Filmen wie ein Die Matrix, Minderheitsbericht, und A.I.All dies hat bewiesen, dass Philosophie und soziale Kommentare in ein Spektakel geschmuggelt werden könnten. Wäre der Film auf Assimovs Geschichten und nicht nur "vorgeschlagen" von ihnen basiert, hätten Proyas möglicherweise das intellektuelle Gewicht erreicht, das in seinem stilvollen 1998 fehlt Kult Favorit Dunkle Stadt. Tobias, Scott (20. Juli 2004). "Bewertung von I, Roboter". Die Zwiebel a.v. Verein. Archiviert von das Original am 9. November 2005. Abgerufen 2006-06-12.
  61. ^ Dowling, Stephen (4. August 2004). "Ein frischer Prinz in der Welt eines Roboters". BBC News. Abgerufen 11. November 2010.
  62. ^ Vier Arten von ethischen Robotern

Externe Links