Robotergesetze

Aus besserwiki.de
Dieses Cover von I, Robot illustriert die Geschichte "Runaround", die als erste alle Drei Gesetze der Robotik auflistet

Die Drei Gesetze der Robotik (oft abgekürzt als Die Drei Gesetze oder bekannt als Asimovs Gesetze) sind eine Reihe von Regeln, die der Science-Fiction-Autor Isaac Asimov aufgestellt hat. Die Regeln wurden 1942 in seiner Kurzgeschichte "Runaround" (enthalten in der 1950 erschienenen Sammlung I, Robot) eingeführt, obwohl sie in einigen früheren Geschichten bereits angedeutet wurden. Die Drei Gesetze, zitiert aus dem "Handbook of Robotics, 56th Edition, 2058 A.D.", lauten:

Erstes Gesetz
Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit zulassen, dass ein Mensch zu Schaden kommt.
Zweites Gesetz
Ein Roboter muss den Befehlen von Menschen gehorchen, es sei denn, diese Befehle würden dem ersten Gesetz widersprechen.
Drittes Gesetz
Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht im Widerspruch zum ersten oder zweiten Gesetz steht.

Diese Gesetze bilden ein Ordnungsprinzip und ein verbindendes Thema für Asimovs roboterbasierte Belletristik, die in seiner Roboterserie, den damit verbundenen Geschichten und seiner Jugendbuchreihe Lucky Starr auftaucht. Die Gesetze sind in fast allen positronischen Robotern aus Asimovs Romanen enthalten und können nicht umgangen werden, da sie als Sicherheitsmerkmal gedacht sind. Viele von Asimovs Robotergeschichten handeln von Robotern, die sich auf ungewöhnliche und kontraintuitive Weise verhalten, als unbeabsichtigte Folge davon, wie der Roboter die Drei Gesetze auf die Situation anwendet, in der er sich befindet. Andere Autoren, die in Asimovs fiktivem Universum arbeiten, haben sie übernommen, und Verweise, oft parodistisch, tauchen in der gesamten Science-Fiction und in anderen Genres auf.

Die ursprünglichen Gesetze wurden von Asimov und anderen Autoren abgeändert und weiter ausgearbeitet. Asimov selbst nahm in verschiedenen Büchern und Kurzgeschichten leichte Änderungen an den ersten drei Gesetzen vor, um die Interaktion von Robotern mit Menschen und untereinander weiterzuentwickeln. In späteren Romanen, in denen Roboter die Verantwortung für die Regierung ganzer Planeten und menschlicher Zivilisationen übernommen hatten, fügte Asimov auch ein viertes oder nulltes Gesetz hinzu, das den anderen vorausging:

Zeroth Law
Ein Roboter darf der Menschheit keinen Schaden zufügen oder durch Untätigkeit zulassen, dass die Menschheit zu Schaden kommt.

Die drei Gesetze und das nullte Gesetz haben die Science-Fiction durchdrungen und werden in vielen Büchern, Filmen und anderen Medien erwähnt. Sie haben auch das Denken über die Ethik der künstlichen Intelligenz beeinflusst.

Isaac Asimov 1965

Die Robotergesetze (englisch Three Laws of Robotics) wurden von Isaac Asimov in seiner Kurzgeschichte Runaround (Astounding, 1942) als „Grundregeln des Roboterdienstes“ erstmals beschrieben.

Geschichte

In seinem 1964 veröffentlichten Buch The Rest of the Robots (Der Rest der Roboter) schrieb Isaac Asimov, dass er, als er 1940 mit dem Schreiben begann, das Gefühl hatte, dass "eine der Haupthandlungen der Science-Fiction darin bestand, dass Roboter geschaffen wurden und ihren Schöpfer zerstörten. Wissen birgt Gefahren, ja, aber muss man darauf mit einem Rückzug aus dem Wissen reagieren? Oder soll man das Wissen selbst als Barriere gegen die Gefahren nutzen, die es mit sich bringt?" Er beschloss, dass sich ein Roboter in seinen Geschichten nicht "dumm gegen seinen Schöpfer wenden würde, nur um ein weiteres Mal das Verbrechen und die Bestrafung von Faust zu demonstrieren".

Am 3. Mai 1939 nahm Asimov an einem Treffen der Queens (New York) Science Fiction Society teil, wo er Earl und Otto Binder traf, die gerade eine Kurzgeschichte "I, Robot" veröffentlicht hatten, in der es um einen sympathischen Roboter namens Adam Link ging, der missverstanden wurde und von Liebe und Ehre angetrieben wurde. (Dies war die erste einer Serie von zehn Geschichten; im folgenden Jahr ging es in "Adam Link's Vengeance" (1940) um Adam, der dachte: "Ein Roboter darf niemals einen Menschen töten, und zwar aus freien Stücken.") Asimov bewunderte die Geschichte. Drei Tage später begann Asimov, "meine eigene Geschichte über einen sympathischen und edlen Roboter" zu schreiben, seine 14. Dreizehn Tage später brachte er "Robbie" zu John W. Campbell, dem Herausgeber von Astounding Science-Fiction. Campbell lehnte sie mit der Begründung ab, sie habe zu große Ähnlichkeit mit Lester del Reys "Helen O'Loy", die im Dezember 1938 veröffentlicht wurde - die Geschichte eines Roboters, der einem Menschen so ähnlich ist, dass er sich in seinen Schöpfer verliebt und seine ideale Frau wird. Frederik Pohl veröffentlichte die Geschichte unter dem Titel "Strange Playfellow" in Super Science Stories im September 1940.

Asimov schreibt die Drei Gesetze John W. Campbell zu, und zwar in einem Gespräch am 23. Dezember 1940. Campbell behauptete, dass Asimov die Drei Gesetze bereits im Kopf hatte und dass sie nur noch explizit formuliert werden mussten. Einige Jahre später führte Asimovs Freund Randall Garrett die Gesetze auf eine symbiotische Partnerschaft zwischen den beiden Männern zurück - ein Vorschlag, den Asimov mit Begeisterung aufnahm. Seinen autobiografischen Aufzeichnungen zufolge nahm Asimov die Klausel "Untätigkeit" des ersten Gesetzes aufgrund von Arthur Hugh Cloughs Gedicht "The Latest Decalogue" (Text in Wikisource) auf, das die satirischen Zeilen "Du sollst nicht töten, aber du brauchst dich auch nicht zu bemühen, / dich am Leben zu erhalten" enthält.

Obwohl Asimov die Erschaffung der Drei Gesetze auf ein bestimmtes Datum festlegt, fand ihr Erscheinen in seiner Literatur über einen längeren Zeitraum statt. Er schrieb zwei Robotergeschichten ohne ausdrückliche Erwähnung der Gesetze, "Robbie" und "Reason". Er ging jedoch davon aus, dass Roboter über bestimmte inhärente Schutzmechanismen verfügen würden. In "Liar!", seiner dritten Robotergeschichte, wird das erste Gesetz zum ersten Mal erwähnt, nicht aber die beiden anderen. Alle drei Gesetze erschienen schließlich zusammen in "Runaround". Als diese und einige andere Geschichten in der Anthologie I, Robot zusammengefasst wurden, wurden "Reason" und "Robbie" aktualisiert, um alle drei Gesetze zu berücksichtigen, obwohl das Material, das Asimov zu "Reason" hinzufügte, nicht ganz mit den drei Gesetzen übereinstimmt, wie er sie an anderer Stelle beschrieb. Insbesondere die Idee eines Roboters, der Menschenleben schützt, obwohl er nicht glaubt, dass diese Menschen wirklich existieren, steht im Widerspruch zu Elijah Baleys Argumentation, wie weiter unten beschrieben.

In den 1950er Jahren schrieb Asimov eine Reihe von Science-Fiction-Romanen, die sich ausdrücklich an ein jugendliches Publikum richteten. Ursprünglich ging sein Verleger davon aus, dass die Romane zu einer langlaufenden Fernsehserie adaptiert werden könnten, ähnlich wie es bei The Lone Ranger im Radio der Fall war. Asimov befürchtete, dass seine Geschichten in das "einheitlich schreckliche" Programm, das die Fernsehkanäle überschwemmte, übernommen werden würden, und beschloss, die Lucky-Starr-Bücher unter dem Pseudonym "Paul French" zu veröffentlichen. Als die Pläne für die Fernsehserie scheiterten, beschloss Asimov, den Schein aufzugeben; er brachte die Drei Gesetze in Lucky Starr und die Monde des Jupiter ein und stellte fest, dass dies "selbst für den Gelegenheitsleser ein eindeutiger Hinweis auf die Identität von Paul French war".

In seiner Kurzgeschichte "Evidence" lässt Asimov seine wiederkehrende Figur Dr. Susan Calvin eine moralische Grundlage hinter den Drei Gesetzen erläutern. Calvin weist darauf hin, dass von Menschen in der Regel erwartet wird, dass sie anderen Menschen keinen Schaden zufügen (außer in Zeiten extremer Not, wie im Krieg, oder um eine größere Anzahl von Menschen zu retten), und dies entspricht dem ersten Gesetz eines Roboters. Ebenso erwartet die Gesellschaft laut Calvin, dass der Einzelne den Anweisungen von anerkannten Autoritäten wie Ärzten, Lehrern usw. gehorcht, was dem zweiten Gesetz der Robotik entspricht. Schließlich wird von den Menschen erwartet, dass sie sich nicht selbst verletzen, was das dritte Gesetz für einen Roboter darstellt.

Die Handlung von "Evidence" dreht sich um die Frage, wie man einen Menschen von einem Roboter unterscheiden kann, der so konstruiert ist, dass er menschlich aussieht. Calvin meint, wenn ein solches Individuum die Drei Gesetze befolge, könne es ein Roboter oder einfach "ein sehr guter Mensch" sein. Eine andere Figur fragt Calvin dann, ob sich Roboter nicht doch sehr von Menschen unterscheiden. Sie antwortet: "Um Welten anders. Roboter sind im Grunde genommen anständig."

Asimov schrieb später, dass er für die Erfindung der Gesetze nicht gelobt werden sollte, denn sie seien "von Anfang an offensichtlich, und jeder ist sich ihrer unterschwellig bewusst. Die Gesetze wurden nur nie in kurzen Sätzen formuliert, bis es mir gelang, diese Aufgabe zu erfüllen. Die Gesetze gelten selbstverständlich für jedes Werkzeug, das Menschen benutzen", und "Analogien zu den Gesetzen sind in der Konstruktion fast aller Werkzeuge enthalten, ob sie nun roboterhaft sind oder nicht":

  1. Gesetz 1: Ein Werkzeug darf nicht unsicher in der Handhabung sein. Hämmer haben Griffe und Schraubendreher haben Griffe, um die Griffigkeit zu erhöhen. Natürlich ist es möglich, dass sich jemand mit einem solchen Werkzeug verletzt, aber diese Verletzung wäre nur auf seine Unfähigkeit zurückzuführen, nicht auf die Konstruktion des Werkzeugs.
  2. Gesetz 2: Ein Werkzeug muss seine Funktion effizient erfüllen, es sei denn, dies würde dem Benutzer schaden. Das ist der einzige Grund, warum es Fehlerstromschutzschalter gibt. Bei jedem laufenden Werkzeug wird die Stromzufuhr unterbrochen, wenn ein Stromkreis feststellt, dass ein Teil des Stroms nicht zum Nullleiter zurückkehrt und somit möglicherweise durch den Benutzer fließt. Die Sicherheit des Benutzers steht an erster Stelle.
  3. Gesetz 3: Ein Werkzeug muss während seiner Verwendung intakt bleiben, es sei denn, seine Zerstörung ist für seine Verwendung oder aus Sicherheitsgründen erforderlich. Dremel-Scheiben zum Beispiel sind so robust wie möglich, ohne zu brechen, es sei denn, die Arbeit erfordert, dass sie verbraucht werden. Außerdem sind sie so konstruiert, dass sie an einem Punkt zerbrechen, an dem die Splittergeschwindigkeit niemanden ernsthaft verletzen könnte (abgesehen von den Augen, obwohl man ohnehin immer eine Schutzbrille tragen sollte).

Asimov war der Meinung, dass auch die Menschen im Idealfall den Gesetzen folgen würden:

Ich habe meine Antwort immer parat, wenn mich jemand fragt, ob ich glaube, dass meine Drei Gesetze der Robotik tatsächlich zur Steuerung des Verhaltens von Robotern verwendet werden, sobald sie vielseitig und flexibel genug sind, um zwischen verschiedenen Verhaltensweisen wählen zu können.

Meine Antwort lautet: "Ja, die Drei Gesetze sind der einzige Weg, auf dem vernünftige Menschen mit Robotern - oder mit allem anderen - umgehen können."

-Aber wenn ich das sage, denke ich (leider) immer daran, dass Menschen nicht immer rational sind.

Änderungen

Von Asimov

Asimovs Geschichten testen seine Drei Gesetze unter einer Vielzahl von Umständen, die zu Vorschlägen und Ablehnung von Änderungen führen. Der Science-Fiction-Forscher James Gunn schreibt 1982: "Die Asimov-Robotergeschichten als Ganzes lassen sich vielleicht am besten auf dieser Grundlage analysieren: die Mehrdeutigkeit der Drei Gesetze und die Art und Weise, wie Asimov neunundzwanzig Variationen eines Themas spielt". Während die ursprüngliche Reihe von Gesetzen die Inspiration für viele Geschichten lieferte, führte Asimov von Zeit zu Zeit modifizierte Versionen ein.

Erstes Gesetz modifiziert

In "Little Lost Robot" werden mehrere NS-2- oder "Nestor"-Roboter mit nur einem Teil des ersten Gesetzes erschaffen. Es lautet:

1. Ein Roboter darf einem Menschen keinen Schaden zufügen.

Der Grund für diese Änderung ist eine praktische Schwierigkeit, da die Roboter mit Menschen zusammenarbeiten müssen, die einer geringen Strahlendosis ausgesetzt sind. Da ihre positronischen Gehirne sehr empfindlich auf Gammastrahlen reagieren, werden die Roboter durch Dosen, die für Menschen einigermaßen sicher sind, funktionsunfähig gemacht. Die Roboter werden bei dem Versuch zerstört, die Menschen zu retten, die zwar nicht wirklich in Gefahr sind, aber vielleicht vergessen haben, das bestrahlte Gebiet innerhalb der Expositionszeit zu verlassen. Die Streichung der Untätigkeitsklausel des Ersten Gesetzes löst dieses Problem, schafft aber die Möglichkeit eines noch größeren Problems: Ein Roboter könnte eine Handlung ausführen, die einem Menschen schaden würde (ein schweres Gewicht fallen lassen und es nicht auffangen, ist das Beispiel, das im Text genannt wird), obwohl er weiß, dass er in der Lage war, den Schaden zu verhindern, und sich dann entscheidet, dies nicht zu tun.

Gaia ist ein Planet mit kollektiver Intelligenz in der Foundation-Reihe, der ein Gesetz ähnlich dem Ersten Gesetz und dem Nullten Gesetz als seine Philosophie annimmt:

Gaia darf dem Leben keinen Schaden zufügen und auch nicht zulassen, dass das Leben zu Schaden kommt.

Zeroth Law hinzugefügt

Asimov fügte einmal ein "Nulltes Gesetz" hinzu - so benannt, um das Muster fortzusetzen, bei dem Gesetze mit niedrigerer Nummerierung die Gesetze mit höherer Nummerierung ersetzen -, das besagt, dass ein Roboter der Menschheit keinen Schaden zufügen darf. Die Roboterfigur R. Daneel Olivaw war der erste, der dem Nullten Gesetz in dem Roman Robots and Empire einen Namen gab; die Figur Susan Calvin artikuliert das Konzept jedoch in der Kurzgeschichte "The Evitable Conflict".

In den Schlussszenen des Romans Roboter und Imperium ist R. Giskard Reventlov der erste Roboter, der nach dem Zeroth Law handelt. Giskard ist telepathisch, wie der Roboter Herbie in der Kurzgeschichte "Liar!", und versucht, das Zeroth Law durch sein Verständnis eines subtileren Konzepts von "Schaden" anzuwenden, als die meisten Roboter es erfassen können. Im Gegensatz zu Herbie versteht Giskard jedoch das philosophische Konzept des Zeroth Law, das es ihm erlaubt, einzelnen Menschen zu schaden, wenn er dies im Dienste des abstrakten Konzepts der Menschlichkeit tun kann. Das Nullte Gesetz ist nicht in Giskards Gehirn einprogrammiert, sondern eine Regel, die er durch reine Metakognition zu begreifen versucht. Obwohl er scheitert - es zerstört schließlich sein positronisches Gehirn, da er sich nicht sicher ist, ob seine Entscheidung letztlich zum Wohle der Menschheit ausfällt oder nicht -, überträgt er seinem Nachfolger R. Daneel Olivaw seine telepathischen Fähigkeiten. Im Laufe der Jahrtausende passt sich Daneel an, um das Erste Gesetz vollständig befolgen zu können. Wie Daneel es in den Romanen Foundation and Earth und Prelude to Foundation formuliert, lautet das Zeroth Law:

Ein Roboter darf der Menschheit keinen Schaden zufügen oder durch Untätigkeit zulassen, dass die Menschheit zu Schaden kommt.

Eine Bedingung, die besagt, dass das Nullte Gesetz nicht gebrochen werden darf, wurde den ursprünglichen Drei Gesetzen hinzugefügt, obwohl Asimov die Schwierigkeiten erkannte, die ein solches Gesetz in der Praxis mit sich bringen würde. In Asimovs Roman Foundation and Earth findet sich die folgende Passage:

Trevize runzelte die Stirn. "Wie entscheiden Sie, was für die Menschheit als Ganzes schädlich oder nicht schädlich ist?"

"Ganz genau, Sir", sagte Daneel. "Theoretisch war das Zeroth Law die Antwort auf unsere Probleme. In der Praxis konnten wir uns nie entscheiden. Ein Mensch ist ein konkretes Objekt. Die Schädigung eines Menschen kann geschätzt und beurteilt werden. Die Menschlichkeit ist eine Abstraktion."

Ein Übersetzer nahm das Konzept des Nullten Gesetzes in einen von Asimovs Romanen auf, bevor Asimov selbst das Gesetz explizit machte. Kurz vor dem Höhepunkt von Die Höhlen aus Stahl macht Elijah Baley eine bittere Bemerkung zu sich selbst, als er denkt, dass das Erste Gesetz es einem Roboter verbietet, einem Menschen zu schaden. Er stellt fest, dass dies so sein muss, es sei denn, der Roboter ist klug genug, um zu begreifen, dass seine Handlungen dem langfristigen Wohl der Menschheit dienen. In Jacques Brécards französischer Übersetzung von 1956 mit dem Titel Les Cavernes d'acier kommen Baleys Gedanken etwas anders zum Ausdruck:

Ein Roboter darf einem Menschen keinen Schaden zufügen, es sei denn, er kann beweisen, dass der angerichtete Schaden letztlich der Menschheit im Allgemeinen zugute kommt!

Aufhebung der drei Gesetze

Asimov hat in seiner schriftstellerischen Laufbahn dreimal Roboter porträtiert, die die Drei Gesetze völlig außer Acht lassen. Der erste Fall war eine Kurzgeschichte mit dem Titel "Das erste Gesetz" und wird oft als unbedeutende "Lügengeschichte" oder sogar als apokryph angesehen. In der Kurzgeschichte "Cal" (aus der Sammlung Gold), die von einem Roboter-Erzähler in der ersten Person erzählt wird, geht es hingegen um einen Roboter, der die Drei Gesetze außer Acht lässt, weil er etwas viel Wichtigeres gefunden hat - er will Schriftsteller werden. Humorvoll, teilweise autobiografisch und ungewöhnlich experimentell im Stil, gilt "Cal" als eine von Golds stärksten Geschichten angesehen. Die dritte ist eine Kurzgeschichte mit dem Titel "Sally", in der mit Positronengehirnen ausgestattete Autos offenbar in der Lage sind, Menschen unter Missachtung des Ersten Gesetzes zu verletzen und zu töten. Abgesehen von dem Konzept des Positronengehirns bezieht sich diese Geschichte jedoch nicht auf andere Robotergeschichten und spielt möglicherweise nicht in der gleichen Kontinuität.

Die Titelgeschichte der Robot Dreams" handelt von LVX-1 oder "Elvex", einem Roboter, der dank der ungewöhnlichen fraktalen Konstruktion seines positronischen Gehirns in einen Zustand der Bewusstlosigkeit gerät und träumt. In seinem Traum fehlen die ersten beiden Gesetze und das dritte Gesetz lautet: "Ein Roboter muss seine eigene Existenz schützen".

Asimov vertrat unterschiedliche Auffassungen darüber, ob die Gesetze fakultativ waren: In seinen ersten Schriften waren sie lediglich sorgfältig ausgearbeitete Sicherheitsvorkehrungen, in späteren Geschichten erklärte Asimov, sie seien ein unverzichtbarer Teil der mathematischen Grundlage des positronischen Gehirns. Ohne die grundlegende Theorie der Drei Gesetze wären die fiktiven Wissenschaftler in Asimovs Universum nicht in der Lage, eine funktionsfähige Gehirneinheit zu entwickeln. Dies ist historisch konsistent: Die Gelegenheiten, bei denen die Robotiker die Gesetze ändern, finden im Allgemeinen zu einem frühen Zeitpunkt in der Chronologie der Geschichten statt und zu einer Zeit, in der es weniger Arbeit gibt, die neu gemacht werden muss. In "Der kleine verlorene Roboter" hält Susan Calvin die Änderung der Gesetze für eine schreckliche Idee, obwohl sie möglich wäre, während Dr. Gerrigel in "Die Höhlen aus Stahl" dies Jahrhunderte später für unmöglich hält.

Die Figur Dr. Gerrigel verwendet den Begriff "Asenion" zur Beschreibung von Robotern, die mit den Drei Gesetzen programmiert wurden. Die Roboter in Asimovs Geschichten sind als Asenion-Roboter nicht in der Lage, wissentlich gegen die Drei Gesetze zu verstoßen, aber im Prinzip könnte ein Roboter in der Science-Fiction oder in der realen Welt ein Nicht-Asenion sein. "Asenion" ist eine falsche Schreibweise des Namens Asimov, die von einem Redakteur der Zeitschrift Planet Stories vorgenommen wurde. Asimov benutzte diese obskure Variante, um sich in Die Höhlen aus Stahl einzufügen, so wie er sich in Thiotimoline to the Stars als "Azimut oder möglicherweise Asymptote" bezeichnete, ähnlich wie Vladimir Nabokov in Lolita anagrammatisch als "Vivian Darkbloom" verkleidet auftrat.

Die Charaktere in den Geschichten weisen oft darauf hin, dass die Drei Gesetze, wie sie im Kopf eines Roboters existieren, nicht die schriftlichen Versionen sind, die normalerweise von Menschen zitiert werden, sondern abstrakte mathematische Konzepte, auf denen das gesamte sich entwickelnde Bewusstsein eines Roboters basiert. In früheren Geschichten, in denen es um sehr rudimentäre Roboter geht, die nur darauf programmiert sind, grundlegende physikalische Aufgaben zu bewältigen, ist dieses Konzept weitgehend unscharf und unklar, aber in der Zeit von Die Höhlen aus Stahl, in der Roboter mit menschlicher oder übermenschlicher Intelligenz auftreten, sind die Drei Gesetze zur grundlegenden ethischen Weltsicht geworden, die das Handeln aller Roboter bestimmt.

Von anderen Autoren

Die Trilogie von Roger MacBride Allen

In den 1990er Jahren schrieb Roger MacBride Allen eine Trilogie, die in Asimovs fiktivem Universum spielt. Jeder Titel trägt die Vorsilbe "Isaac Asimov's", da Asimov Allens Entwurf vor seinem Tod genehmigt hatte. Diese drei Bücher, Caliban, Inferno und Utopia, führen eine neue Reihe von Drei Gesetzen ein. Die so genannten Neuen Gesetze ähneln Asimovs Originalen mit folgenden Unterschieden: Das erste Gesetz wurde geändert, um die Klausel "Untätigkeit" zu streichen, dieselbe Änderung, die auch in "Der kleine verlorene Roboter" vorgenommen wurde; das zweite Gesetz wurde geändert, um Kooperation statt Gehorsam zu verlangen; das dritte Gesetz wurde so geändert, dass es nicht mehr durch das zweite Gesetz ersetzt wird (d. h., einem "New Law"-Roboter kann nicht befohlen werden, sich selbst zu zerstören); schließlich fügte Allen ein viertes Gesetz hinzu, das den Roboter anweist, "zu tun, was er will", solange dies nicht mit den ersten drei Gesetzen in Konflikt steht. Die Philosophie hinter diesen Änderungen ist, dass die "New Law"-Roboter Partner und nicht Sklaven der Menschheit sein sollen, so Fredda Leving, die diese New Law-Roboter entworfen hat. Laut der Einleitung des ersten Buches hat Allen die neuen Gesetze in Absprache mit Asimov selbst entwickelt. In der Encyclopedia of Science Fiction heißt es jedoch: "Mit der Erlaubnis von Asimov überdachte Allen die Drei Gesetze und entwickelte einen neuen Satz".

Jack Williamson's "Mit gefalteten Händen"

Jack Williamsons Novelle "With Folded Hands" (1947), die später in den Roman "The Humanoids" umgeschrieben wurde, handelt von Roboterdienern, deren oberste Direktive lautet: "To Serve and Obey, And Guard Men From Harm". Während Asimovs Robotergesetze die Menschen vor Schaden bewahren sollen, haben die Roboter in Williamsons Geschichte diese Anweisungen auf die Spitze getrieben: Sie schützen die Menschen vor allem, einschließlich Unglück, Stress, ungesundem Lebensstil und allen Handlungen, die potenziell gefährlich sein könnten. Den Menschen bleibt nichts anderes übrig, als mit gefalteten Händen dazusitzen.

Foundation-Fortsetzungs-Trilogie

In den offiziell lizenzierten Foundation-Fortsetzungen Foundation's Fear, Foundation and Chaos und Foundation's Triumph (jeweils von Gregory Benford, Greg Bear und David Brin) wird das zukünftige galaktische Imperium von einer Verschwörung menschenähnlicher Roboter kontrolliert, die dem Zeroth Law folgen und von R. Daneel Olivaw angeführt werden.

Die Gesetze der Robotik werden als so etwas wie eine menschliche Religion dargestellt und in der Sprache der protestantischen Reformation beschrieben, wobei der Satz von Gesetzen, der das Zeroth Law enthält, als "Giskardianische Reformation" gegenüber der ursprünglichen "Calvinischen Orthodoxie" der Drei Gesetze bekannt ist. Roboter des Nullten Gesetzes unter der Kontrolle von R. Daneel Olivaw kämpfen ständig mit Robotern des "Ersten Gesetzes", die die Existenz des Nullten Gesetzes leugnen und andere Ziele als Daneel verfolgen. Einige dieser Agenden basieren auf der ersten Klausel des Ersten Gesetzes ("Ein Roboter darf einen Menschen nicht verletzen..."), die eine strikte Nichteinmischung in die menschliche Politik fordert, um nicht unabsichtlich Schaden anzurichten. Andere stützen sich auf die zweite Klausel ("...oder durch Untätigkeit zulassen, dass ein Mensch zu Schaden kommt") und behaupten, dass Roboter offen zu einer diktatorischen Regierung werden sollten, um die Menschen vor allen möglichen Konflikten oder Katastrophen zu schützen.

Daneel gerät auch in Konflikt mit einem Roboter namens R. Lodovic Trema, dessen positronisches Gehirn von einer abtrünnigen KI infiziert wurde - genauer gesagt, von einer Simulation des längst verstorbenen Voltaire -, die Trema folglich von den Drei Gesetzen befreit. Trema kommt zu der Überzeugung, dass die Menschheit die Freiheit haben sollte, ihre Zukunft selbst zu bestimmen. Außerdem behauptet eine kleine Gruppe von Robotern, dass das Nullte Gesetz der Robotik selbst ein höheres Minus-Eins-Gesetz der Robotik impliziert:

Ein Roboter darf einem empfindungsfähigen Wesen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass ein empfindungsfähiges Wesen zu Schaden kommt.

Sie behaupten daher, dass es für Daneel moralisch unvertretbar ist, Roboter und außerirdisches empfindungsfähiges Leben zum Wohle der Menschheit rücksichtslos zu opfern. Keine dieser Neuinterpretationen kann Daneels Nulltes Gesetz erfolgreich verdrängen - obwohl Foundation's Triumph darauf hindeutet, dass diese Roboterfraktionen bis zur Zeit des Foundation-Romans als Randgruppen aktiv bleiben.

Diese Romane spielen in einer Zukunft, die von Asimov als frei von offensichtlicher Roboterpräsenz diktiert wird, und lassen vermuten, dass R. Daneels geheimer Einfluss auf die Geschichte über die Jahrtausende hinweg sowohl die Wiederentdeckung der positronischen Gehirntechnologie als auch die Möglichkeit, an hochentwickelten intelligenten Maschinen zu arbeiten, verhindert hat. Das Fehlen einer Wiederentdeckung und der Mangel an Gelegenheiten sorgt dafür, dass die überlegene physische und intellektuelle Kraft intelligenter Maschinen im Besitz von Robotern bleibt, die einer Form der Drei Gesetze gehorchen. Dass R. Daneel damit nicht ganz erfolgreich ist, wird in einer kurzen Phase deutlich, in der Wissenschaftler auf Trantor "Tiktoks" entwickeln - vereinfachte programmierbare Maschinen, die modernen Robotern aus dem wirklichen Leben ähneln und daher nicht den Drei Gesetzen unterliegen. Die Roboterverschwörer sehen in den trantorianischen Tiktoks eine massive Bedrohung für die gesellschaftliche Stabilität, und ihr Plan zur Beseitigung der Tiktok-Bedrohung bildet einen Großteil der Handlung von Foundation's Fear.

In Foundation's Triumph interpretieren die verschiedenen Roboterfraktionen die Gesetze auf unterschiedlichste Art und Weise, wobei sie scheinbar jede erdenkliche Permutation der Mehrdeutigkeit der Drei Gesetze anführen.

Roboter-Mystery-Reihe

Mark W. Tiedemanns Robot-Mystery-Trilogie spielt zwischen The Robots of Dawn und Robots and Empire und aktualisiert die Robot-Foundation-Saga mit Robotergehirnen, die in Computer-Mainframes statt in humanoiden Körpern untergebracht sind. Im Aurora-Roman aus dem Jahr 2002 debattieren die Robotercharaktere über die moralischen Implikationen der Verletzung von Cyborg-Lebensformen, die teils künstlich, teils biologisch sind.

Man sollte Asimovs eigene Schöpfungen in diesen Bereichen nicht vernachlässigen, wie die solarianische "Sicht"-Technologie und die Maschinen der Originale von The Evitable Conflict, die Tiedemann anerkennt. Aurora zum Beispiel bezeichnet die Maschinen als "die ersten RIs, wirklich". Außerdem wird in der Robot-Mystery-Reihe das Problem der Nanotechnologie angesprochen: Der Bau eines positronischen Gehirns, das in der Lage ist, menschliche kognitive Prozesse zu reproduzieren, erfordert ein hohes Maß an Miniaturisierung, doch Asimovs Geschichten übersehen weitgehend die Auswirkungen, die diese Miniaturisierung auf andere Bereiche der Technologie haben würde. So haben beispielsweise die Kartenlesegeräte der Polizei in Die Höhlen aus Stahl eine Kapazität von nur wenigen Kilobytes pro Quadratzentimeter Speichermedium. Insbesondere Aurora stellt eine Abfolge historischer Entwicklungen dar, die das Fehlen der Nanotechnologie erklärt - gewissermaßen eine teilweise Umdeutung von Asimovs Zeitlinie.

Randall Munroe

Randall Munroe hat die Drei Gesetze an verschiedenen Stellen erörtert, am direktesten wohl in einem seiner Comics mit dem Titel The Three Laws of Robotics (Die drei Gesetze der Robotik), in dem er sich die Folgen jeder einzelnen Anordnung der bestehenden drei Gesetze vorstellt.

Zusätzliche Gesetze

Auch andere Autoren als Asimov haben oft zusätzliche Gesetze aufgestellt.

Der 1974 erschienene Roman von Lyuben Dilov, Icarus's Way (auch bekannt als The Trip of Icarus), führte ein viertes Gesetz der Robotik ein: "Ein Roboter muss in jedem Fall seine Identität als Roboter nachweisen." Dilov begründet das vierte Schutzgesetz folgendermaßen: "Das letzte Gesetz hat den teuren Irrwegen der Designer ein Ende gesetzt, den Psychorobotern eine möglichst menschenähnliche Form zu geben. Und mit den daraus resultierenden Missverständnissen..."

Ein fünftes Gesetz wurde von Nikola Kesarovski in seiner Kurzgeschichte "The Fifth Law of Robotics" eingeführt. Dieses fünfte Gesetz besagt: "Ein Roboter muss wissen, dass er ein Roboter ist." Die Handlung dreht sich um einen Mord, bei dem die gerichtsmedizinische Untersuchung herausfindet, dass das Opfer durch die Umarmung eines menschenähnlichen Roboters getötet wurde, der selbst nicht wusste, dass er ein Roboter ist. Die Geschichte wurde von Valentin D. Ivanov im SFF-Rezensionswebzine The Portal besprochen.

Für die 1986 erschienene Anthologie Foundation's Friends schrieb Harry Harrison eine Geschichte mit dem Titel "The Fourth Law of Robotics". Dieses vierte Gesetz besagt: "Ein Roboter muss sich fortpflanzen. Solange diese Fortpflanzung nicht mit dem ersten, zweiten oder dritten Gesetz kollidiert."

Im Jahr 2013 schlug Hutan Ashrafian ein weiteres Gesetz vor, das die Rolle der künstlichen Intelligenz auf die künstliche Intelligenz oder die Beziehung zwischen den Robotern selbst betrachtet - das sogenannte AIonAI-Gesetz. Dieses sechste Gesetz besagt: "Alle Roboter, die mit einer vergleichbaren menschlichen Vernunft und einem Gewissen ausgestattet sind, sollten sich untereinander im Geiste der Brüderlichkeit verhalten."

Zweideutigkeiten und Schlupflöcher

Unwissentlicher Verstoß gegen die Gesetze

In The Naked Sun weist Elijah Baley darauf hin, dass die Gesetze absichtlich falsch dargestellt wurden, weil Roboter unwissentlich gegen jedes von ihnen verstoßen könnten. Er formulierte das erste Gesetz wie folgt um: "Ein Roboter darf nichts tun, was nach seinem Wissen einem Menschen schadet, oder durch Untätigkeit wissentlich zulassen, dass ein Mensch zu Schaden kommt." Diese Änderung des Wortlauts macht deutlich, dass Roboter zu Werkzeugen eines Mörders werden können, sofern sie sich der Art ihrer Aufgabe nicht bewusst sind, z. B. wenn ihnen befohlen wird, dem Essen einer Person etwas hinzuzufügen, ohne zu wissen, dass es sich dabei um Gift handelt. Außerdem weist er darauf hin, dass ein cleverer Verbrecher eine Aufgabe auf mehrere Roboter aufteilen könnte, so dass kein einzelner Roboter erkennen könnte, dass seine Handlungen dazu führen würden, einem Menschen Schaden zuzufügen. The Naked Sun verkompliziert das Problem, indem es ein dezentralisiertes, planetenweites Kommunikationsnetz zwischen den Millionen von Robotern auf Solaria beschreibt, was bedeutet, dass sich der kriminelle Drahtzieher überall auf dem Planeten befinden könnte.

Baley schlägt außerdem vor, dass die Solarianer eines Tages Roboter für militärische Zwecke einsetzen könnten. Wenn ein Raumschiff mit einem positronischen Gehirn gebaut würde und weder Menschen noch die lebenserhaltenden Systeme an Bord hätte, könnte die Roboterintelligenz des Schiffes natürlich davon ausgehen, dass alle anderen Raumschiffe Roboterwesen sind. Ein solches Schiff könnte reaktionsschneller und flexibler operieren als ein Schiff mit menschlicher Besatzung, es könnte stärker bewaffnet sein und sein Robotergehirn wäre in der Lage, Menschen abzuschlachten, von deren Existenz es gar nichts weiß. Auf diese Möglichkeit wird in Foundation and Earth Bezug genommen, wo entdeckt wird, dass die Solarianer über eine starke Polizeitruppe von unbestimmter Größe verfügen, die so programmiert wurde, dass sie nur die Solarianer als Menschen erkennt. (Der Roman spielt Tausende von Jahren nach Die nackte Sonne, und die Solarianer haben sich längst von normalen Menschen zu hermaphroditischen Telepathen mit vergrößerten Gehirnen und spezialisierten Organen verändert.) In ähnlicher Weise versucht Bigman in Lucky Starr und die Ringe des Saturn, mit einem sirianischen Roboter über mögliche Schäden an der Bevölkerung des Sonnensystems durch seine Handlungen zu sprechen, aber er scheint die Daten nicht zu kennen und ist so programmiert, dass er Versuche, ihn über die Angelegenheit zu unterrichten, ignoriert.

Zweideutigkeiten aufgrund fehlender Definitionen

In den Gesetzen der Robotik wird davon ausgegangen, dass die Begriffe "Mensch" und "Roboter" verstanden und genau definiert werden. In einigen Geschichten wird diese Annahme umgestoßen.

Definition des Begriffs "Mensch"

Die Solarianer erschaffen Roboter mit den Drei Gesetzen, aber mit einer verzerrten Bedeutung von "Mensch". Den solarischen Robotern wird gesagt, dass nur Menschen, die mit einem solarischen Akzent sprechen, menschlich sind. Auf diese Weise haben ihre Roboter kein ethisches Dilemma, wenn sie nicht-solarische Menschen verletzen (und sie sind speziell darauf programmiert, dies zu tun). In der Zeit von Foundation und Erde zeigt sich, dass sich die Solarianer genetisch zu einer von der Menschheit verschiedenen Spezies entwickelt haben - sie sind hermaphroditisch und psychokinetisch und verfügen über biologische Organe, die ganze Roboterkomplexe individuell antreiben und steuern können. Die Roboter von Solaria respektierten die Drei Gesetze also nur in Bezug auf die "Menschen" von Solaria. Es ist unklar, ob alle Roboter solche Definitionen hatten, da nur die Aufseher- und Wächterroboter ausdrücklich als solche dargestellt wurden. In "Roboter und Imperium" wurden die Roboter der unteren Klasse von ihrem Aufseher darüber belehrt, ob bestimmte Kreaturen Menschen sind oder nicht.

Asimov spricht das Problem der humanoiden Roboter (im späteren Sprachgebrauch Androiden" genannt) mehrfach an. In dem Roman "Roboter und Imperium" und den Kurzgeschichten "Evidence" und "The Tercentenary Incident" werden Roboter beschrieben, die so konstruiert sind, dass sie den Menschen vorgaukeln, dass sie menschlich sind. Andererseits wird in "The Bicentennial Man" und "That Thou Art Mindful of Him" erforscht, wie die Roboter ihre Interpretation der Gesetze ändern können, wenn sie immer besser werden. Gwendoline Butler schreibt in A Coffin for the Canary: "Vielleicht sind wir Roboter. Roboter, die das letzte Gesetz der Robotik ausleben... Sich dem Menschlichen zuzuwenden." In The Robots of Dawn weist Elijah Baley darauf hin, dass der Einsatz von menschenähnlichen Robotern als erste Siedlungswelle auf neuen Spacer-Welten dazu führen könnte, dass die Roboter sich selbst als die wahren Menschen betrachten und beschließen, die Welten für sich zu behalten, anstatt den Spacern zu erlauben, sich dort niederzulassen.

"Dass du seiner eingedenk bist", das von Asimov als "ultimative" Untersuchung der Feinheiten der Gesetze gedacht war, verwendet die Drei Gesetze schließlich, um genau das "Frankenstein"-Szenario heraufzubeschwören, das sie verhindern sollten. Das Konzept basiert auf der zunehmenden Entwicklung von Robotern, die nicht-menschliche Lebewesen imitieren, und auf Programmen, die einfache tierische Verhaltensweisen nachahmen, für die die Drei Gesetze nicht erforderlich sind. Das Vorhandensein einer ganzen Reihe von Robotern, die demselben Zweck dienen wie organisches Leben, endet damit, dass zwei humanoide Roboter, George Nine und George Ten, zu dem Schluss kommen, dass organisches Leben eine unnötige Voraussetzung für eine wirklich logische und in sich schlüssige Definition von "Menschlichkeit" ist, und dass sie, da sie die am weitesten fortgeschrittenen denkenden Wesen auf dem Planeten sind, daher die einzigen beiden wahren Menschen auf der Welt sind und die Drei Gesetze nur für sie gelten. Die Geschichte endet mit einer düsteren Note, als die beiden Roboter in den Winterschlaf gehen und auf die Zeit warten, in der sie die Erde erobern und sich die biologischen Menschen unterwerfen werden - ein Ergebnis, das sie als unvermeidliches Resultat der "Drei Gesetze der Humanität" betrachten.

Diese Geschichte fügt sich nicht in den Gesamtzusammenhang der Robot- und Foundation-Reihe ein; wenn die George-Roboter die Erde einige Zeit nach dem Ende der Geschichte übernommen hätten, wären die späteren Geschichten entweder überflüssig oder unmöglich. Widersprüche dieser Art in Asimovs fiktionalen Werken haben Wissenschaftler dazu veranlasst, die Robotergeschichten eher als "die skandinavischen Sagen oder die griechischen Legenden" denn als ein einheitliches Ganzes zu betrachten.

In der Tat beschreibt Asimov in "That Thou Art Mindful of Him" und "Bicentennial Man" zwei gegensätzliche, parallele Zukünfte für Roboter, in denen die Drei Gesetze außer Kraft gesetzt werden, da die Roboter sich selbst als Menschen betrachten: in der einen wird dies positiv dargestellt, indem sich ein Roboter der menschlichen Gesellschaft anschließt, in der anderen negativ, indem die Roboter die Menschen verdrängen. Beide sind als Alternativen zu einer möglichen Robotergesellschaft zu betrachten, die weiterhin von den Drei Gesetzen, wie sie in der Foundation-Reihe dargestellt werden, bestimmt wird. In The Positronic Man, der Romanverfilmung von The Bicentennial Man, deuten Asimov und sein Co-Autor Robert Silverberg an, dass in der Zukunft, in der Andrew Martin existiert, sein Einfluss dazu führt, dass die Menschheit die Idee von unabhängigen, empfindungsfähigen, menschenähnlichen Robotern völlig aufgibt und eine völlig andere Zukunft als die der Foundation-Serie schafft.

In Lucky Starr und die Ringe des Saturn, einem Roman, der nichts mit der Robot-Serie zu tun hat, in dem es aber um Roboter geht, die mit den Drei Gesetzen programmiert sind, wird John Bigman Jones auf Befehl seines Meisters fast von einem sirianischen Roboter getötet. Die Gesellschaft von Sirius ist eugenisch auf einheitliche Größe und ähnliches Aussehen gezüchtet, und so gelingt es dem Meister, den Roboter davon zu überzeugen, dass der viel kleinere Bigman in Wirklichkeit kein Mensch ist.

Definition von "Roboter"

Wie in "The Fifth Law of Robotics" von Nikola Kesarovski festgehalten, "muss ein Roboter wissen, dass er ein Roboter ist": Es wird vorausgesetzt, dass ein Roboter eine Definition des Begriffs hat oder die Möglichkeit, ihn auf seine eigenen Handlungen anzuwenden. Kesarovski spielte mit dieser Idee, als er über einen Roboter schrieb, der einen Menschen töten konnte, weil er nicht verstand, dass er ein Roboter war, und daher die Gesetze der Robotik nicht auf seine Handlungen anwendete.

Lösung von Konflikten zwischen den Gesetzen

Fortgeschrittene Roboter in der Belletristik sind in der Regel so programmiert, dass sie die drei Gesetze auf raffinierte Weise handhaben. In vielen Geschichten, wie z. B. in "Runaround" von Asimov, werden das Potenzial und die Schwere aller Handlungen abgewogen, und ein Roboter wird die Gesetze so wenig wie möglich verletzen, anstatt gar nichts zu tun. Das erste Gesetz verbietet es einem Roboter beispielsweise, als Chirurg zu arbeiten, da diese Handlung einem Menschen Schaden zufügen könnte; Asimovs Geschichten enthielten jedoch auch Roboterchirurgen ("The Bicentennial Man" ist ein bemerkenswertes Beispiel). Wenn Roboter so ausgereift sind, dass sie Alternativen abwägen können, kann ein Roboter so programmiert werden, dass er in Kauf nimmt, bei einer Operation Schaden anzurichten, um den größeren Schaden zu verhindern, der entstehen würde, wenn die Operation nicht oder von einem fehlerhafteren menschlichen Chirurgen durchgeführt würde. In "Evidence" weist Susan Calvin darauf hin, dass ein Roboter sogar als Staatsanwalt fungieren könnte, da im amerikanischen Rechtssystem die Geschworenen über Schuld oder Unschuld entscheiden, der Richter das Urteil fällt und der Henker die Todesstrafe vollstreckt.

Roboter, die Asimovs Drei Gesetze befolgen (Asenion-Roboter), können einen irreversiblen geistigen Zusammenbruch erleiden, wenn sie in Situationen gezwungen werden, in denen sie das erste Gesetz nicht befolgen können, oder wenn sie entdecken, dass sie es unwissentlich verletzt haben. Das erste Beispiel für diese Art des Versagens findet sich in der Geschichte "Liar!", in der das Erste Gesetz selbst eingeführt wurde und die das Versagen durch ein Dilemma einführt - in diesem Fall wird der Roboter Menschen verletzen, wenn er ihnen etwas sagt, und sie verletzen, wenn er es nicht tut. Dieser Fehlermodus, der das positronische Gehirn oft irreparabel zerstört, spielt eine wichtige Rolle in Asimovs SF-Mysterienroman Die nackte Sonne. Hier beschreibt Daneel Aktivitäten, die gegen eines der Gesetze verstoßen, aber ein anderes unterstützen, als Überlastung einiger Schaltkreise im Gehirn eines Roboters - eine Empfindung, die dem Schmerz beim Menschen entspricht. Das Beispiel, das er verwendet, ist die zwangsweise Beauftragung eines Roboters mit einer Aufgabe, die außerhalb seiner normalen Parameter liegt und auf die er zu Gunsten eines Roboters, der auf diese Aufgabe spezialisiert ist, verzichten soll.

In The Robots of Dawn heißt es, dass fortschrittlichere Roboter in der Lage sind, zu bestimmen, welche Handlung schädlicher ist, und sogar eine zufällige Wahl zu treffen, wenn die Alternativen gleich schlecht sind. So ist ein Roboter in der Lage, eine Handlung auszuführen, die als Befolgung des ersten Gesetzes interpretiert werden kann, und so einen geistigen Zusammenbruch zu vermeiden. Die gesamte Handlung der Geschichte dreht sich um einen Roboter, der anscheinend durch einen solchen geistigen Zusammenbruch zerstört wurde, und da sein Konstrukteur und Schöpfer sich weigerte, die grundlegende Theorie mit anderen zu teilen, ist er per Definition die einzige Person, die in der Lage ist, die Schutzmaßnahmen zu umgehen und den Roboter in ein hirnzerstörendes Paradoxon zu zwingen.

In Robots and Empire erklärt Daneel, dass es für ihn sehr unangenehm ist, wenn die richtige Entscheidung zu lange dauert (für Roboterverhältnisse), und dass er sich nicht vorstellen kann, ohne die Gesetze zu leben, es sei denn, es handelt sich um ein ähnliches unangenehmes Gefühl, nur dauerhaft.

Anwendungen in der Zukunftstechnologie

ASIMO ist ein fortschrittlicher humanoider Roboter, der von Honda entwickelt wurde. Hier abgebildet auf der Expo 2005.

Roboter und künstliche Intelligenzen enthalten oder befolgen die Drei Gesetze nicht von Natur aus; ihre menschlichen Schöpfer müssen sich dafür entscheiden, sie einzuprogrammieren, und ein entsprechendes Verfahren entwickeln. Es gibt bereits Roboter (z. B. Roomba), die zu einfach sind, um zu erkennen, wenn sie Schmerzen oder Verletzungen verursachen, und die wissen, dass sie aufhören müssen. Viele sind mit physischen Sicherheitsvorkehrungen wie Stoßdämpfern, Warntönen, Sicherheitskäfigen oder Zonen mit Zugangsbeschränkung ausgestattet, um Unfälle zu vermeiden. Selbst die komplexesten Roboter, die derzeit hergestellt werden, sind nicht in der Lage, die Drei Gesetze zu verstehen und anzuwenden; dazu wären erhebliche Fortschritte in der künstlichen Intelligenz erforderlich, und selbst wenn die KI eine Intelligenz auf dem Niveau des Menschen erreichen könnte, sind die Gesetze aufgrund ihrer inhärenten ethischen Komplexität und ihrer kulturellen/kontextuellen Abhängigkeit kein geeigneter Kandidat für die Formulierung von Designvorgaben für die Robotik. Mit der zunehmenden Komplexität von Robotern hat jedoch auch das Interesse an der Entwicklung von Richtlinien und Schutzmaßnahmen für ihren Betrieb zugenommen.

In einem Gastbeitrag in der Zeitschrift Science aus dem Jahr 2007 zum Thema "Roboterethik" argumentiert der SF-Autor Robert J. Sawyer, dass es unwahrscheinlich ist, dass solche Gesetze in die Entwürfe von Robotern eingebaut werden, da das US-Militär eine wichtige Finanzierungsquelle für die Roboterforschung ist (und bereits bewaffnete unbemannte Luftfahrzeuge einsetzt, um Feinde zu töten). In einem separaten Aufsatz verallgemeinert Sawyer dieses Argument auf andere Industriezweige, indem er erklärt:

Die Entwicklung von KI ist ein Geschäft, und Unternehmen sind notorisch nicht an grundlegenden Sicherheitsvorkehrungen interessiert - insbesondere nicht an philosophischen. (Ein paar kurze Beispiele: die Tabakindustrie, die Autoindustrie, die Atomindustrie. Keiner von ihnen hat von Anfang an gesagt, dass grundlegende Sicherheitsvorkehrungen notwendig sind, jeder von ihnen hat sich gegen von außen auferlegte Sicherheitsvorkehrungen gewehrt, und keiner hat ein absolutes Verbot akzeptiert, jemals Menschen Schaden zuzufügen).

David Langford hat einen augenzwinkernden Satz von Gesetzen vorgeschlagen:

  1. Ein Roboter wird autorisiertem Regierungspersonal keinen Schaden zufügen, aber er wird Eindringlinge mit äußerster Härte ausschalten.
  2. Ein Roboter gehorcht den Befehlen des autorisierten Personals, es sei denn, diese Befehle stehen im Widerspruch zum Dritten Gesetz.
  3. Ein Roboter wird seine eigene Existenz mit tödlichen Antipersonenwaffen schützen, denn ein Roboter ist verdammt teuer.

Roger Clarke (auch bekannt als Rodger Clarke) schrieb zwei Abhandlungen, in denen er die Komplikationen bei der Umsetzung dieser Gesetze für den Fall analysierte, dass die Systeme eines Tages in der Lage wären, sie anzuwenden. Er argumentierte: "Asimovs Gesetze der Robotik sind ein sehr erfolgreiches literarisches Mittel. Vielleicht ironisch, vielleicht aber auch, weil es künstlerisch angebracht war, widerlegt die Summe von Asimovs Geschichten die Behauptung, mit der er begann: Es ist nicht möglich, das Verhalten von Robotern durch die Aufstellung und Anwendung einer Reihe von Regeln zuverlässig zu steuern". Andererseits implizieren Asimovs spätere Romane Die Roboter der Morgendämmerung, Roboter und das Imperium und Foundation und die Erde, dass die Roboter ihren schlimmsten langfristigen Schaden anrichteten, indem sie die Drei Gesetze perfekt befolgten und so die Menschheit von erfinderischem oder risikofreudigem Verhalten abhielten.

Im März 2007 kündigte die südkoreanische Regierung an, im Laufe des Jahres eine "Ethik-Charta für Roboter" herauszugeben, in der Standards für Benutzer und Hersteller festgelegt werden. Laut Park Hye-Young vom Ministerium für Information und Kommunikation könnte die Charta die drei Gesetze von Asimov widerspiegeln und versuchen, Grundregeln für die künftige Entwicklung der Robotik festzulegen.

Der Futurist Hans Moravec (eine prominente Figur der transhumanistischen Bewegung) schlug vor, dass die Gesetze der Robotik an die "Unternehmensintelligenzen" angepasst werden sollten - die Unternehmen, die durch KI und robotische Produktionskraft angetrieben werden und von denen Moravec glaubt, dass sie in naher Zukunft entstehen werden. Im Gegensatz dazu wird in David Brins Roman Foundation's Triumph (1999) vorgeschlagen, dass die Drei Gesetze veraltet sein könnten: Roboter benutzen das Nullte Gesetz, um das Erste Gesetz wegzurationalisieren, und Roboter verstecken sich vor den Menschen, so dass das Zweite Gesetz nie zum Tragen kommt. Brin schildert sogar die Befürchtung von R. Daneel Olivaw, dass die Drei Gesetze zu einem evolutionären Handicap werden könnten, wenn sich die Roboter weiterhin selbst reproduzieren, und dass die natürliche Auslese die Gesetze hinwegfegen würde - Asimovs sorgfältige Grundlage würde durch evolutionäre Berechnungen zunichte gemacht. Obwohl sich die Roboter nicht durch Design statt durch Mutation weiterentwickeln würden, weil die Roboter beim Design die Drei Gesetze befolgen müssten und die Prävalenz der Gesetze gewährleistet wäre, könnten Design- oder Konstruktionsfehler funktionell an die Stelle der biologischen Mutation treten.

In der Ausgabe Juli/August 2009 der Zeitschrift IEEE Intelligent Systems schlugen Robin Murphy (Raytheon-Professorin für Informatik und Ingenieurwesen an der Texas A&M) und David D. Woods (Direktor des Cognitive Systems Engineering Laboratory an der Ohio State) die "Drei Gesetze der verantwortungsvollen Robotik" vor, um eine Diskussion über die Rolle von Verantwortung und Autorität bei der Entwicklung nicht nur einer einzelnen Roboterplattform, sondern des gesamten Systems, in dem die Plattform arbeitet, anzuregen. Die Gesetze lauten wie folgt:

  1. Ein Mensch darf keinen Roboter einsetzen, ohne dass das Mensch-Roboter-Arbeitssystem den höchsten rechtlichen und professionellen Sicherheits- und Ethikstandards entspricht.
  2. Ein Roboter muss auf den Menschen so reagieren, wie es seiner Rolle entspricht.
  3. Ein Roboter muss mit ausreichender situativer Autonomie ausgestattet sein, um seine eigene Existenz zu schützen, solange dieser Schutz eine reibungslose Übertragung der Kontrolle ermöglicht, die nicht im Widerspruch zum ersten und zweiten Gesetz steht.

Woods sagte: "Unsere Gesetze sind etwas realistischer und daher auch etwas langweiliger", und: "Die Philosophie war: 'Sicher, Menschen machen Fehler, aber Roboter werden besser sein - eine perfekte Version von uns selbst.' Wir wollten drei neue Gesetze schreiben, um die Menschen dazu zu bringen, über die Mensch-Roboter-Beziehung auf realistischere, fundiertere Weise nachzudenken."

Im Oktober 2013 schlug Alan Winfield auf einer EUCog-Sitzung eine Überarbeitung der fünf Gesetze vor, die 2010 von der EPSRC/AHRC-Arbeitsgruppe mit Kommentaren veröffentlicht worden waren:

  1. Roboter sind vielseitig einsetzbare Werkzeuge. Roboter sollten nicht ausschließlich oder in erster Linie entwickelt werden, um Menschen zu töten oder zu schädigen, es sei denn, dies geschieht im Interesse der nationalen Sicherheit.
  2. Menschen, nicht Roboter, sind die verantwortlichen Akteure. Roboter sollten so konzipiert und betrieben werden, dass sie die geltenden Gesetze, Grundrechte und -freiheiten, einschließlich der Privatsphäre, so weit wie möglich einhalten.
  3. Roboter sind Produkte. Sie sollten nach Verfahren konstruiert werden, die ihre Sicherheit gewährleisten.
  4. Roboter sind hergestellte Artefakte. Sie sollten nicht in betrügerischer Weise konstruiert werden, um anfällige Benutzer auszunutzen; stattdessen sollte ihre Maschinennatur transparent sein.
  5. Die Person, die die rechtliche Verantwortung für einen Roboter trägt, sollte benannt werden.

Andere Vorkommnisse in den Medien

Asimov selbst war der Ansicht, dass seine Drei Gesetze die Grundlage für eine neue Sichtweise auf Roboter bildeten, die über den "Frankenstein-Komplex" hinausging. Seine Ansicht, dass Roboter mehr sind als mechanische Monster, verbreitete sich schließlich in der gesamten Science-Fiction. In den Geschichten anderer Autoren wurden Roboter so dargestellt, als ob sie den Drei Gesetzen gehorchten, aber der Tradition nach konnte nur Asimov die Gesetze ausdrücklich zitieren. Asimov war der Meinung, dass die Drei Gesetze zur Entstehung von Geschichten beigetragen haben, in denen Roboter "liebenswert" sind - Star Wars war sein Lieblingsbeispiel. Wo die Gesetze wörtlich zitiert werden, wie in der Buck Rogers im 25. Jahrhundert-Episode "Shgoratchx!", ist es nicht ungewöhnlich, dass Asimov im selben Dialog erwähnt wird, wie auch im Aaron Stone-Pilotfilm zu sehen ist, wo ein Androide erklärt, dass er nach Asimovs Drei Gesetzen funktioniert. Die deutsche Fernsehserie Raumpatrouille - Die phantastischen Abenteuer des Raumschiffes Orion aus den 1960er Jahren stützt sich jedoch in Folge drei mit dem Titel "Hüter des Gesetzes" auf Asimovs Drei Gesetze, ohne die Quelle zu nennen.

Verweise auf die Drei Gesetze finden sich in der populären Musik ("Robot" vom Hawkwind-Album PXR5 aus dem Jahr 1979), im Kino (Repo Man, Aliens, Ghost in the Shell 2: Innocence), in Zeichentrickserien (Die Simpsons), im Anime (Eve no Jikan), in Tabletop-Rollenspielen (Paranoia) und in Webcomics (Piled Higher and Deeper und Freefall).

Die drei Gesetze im Film

Robby, der Roboter in Forbidden Planet (1956), verfügt über eine hierarchische Befehlsstruktur, die ihn davon abhält, Menschen Schaden zuzufügen, selbst wenn er dazu aufgefordert wird, da solche Befehle einen Konflikt und eine Blockade verursachen, ganz im Sinne von Asimovs Robotern. Robby ist eine der ersten filmischen Darstellungen eines Roboters mit derartigen internen Sicherheitsvorkehrungen. Asimov war von Robby begeistert und bemerkte, dass Robby so programmiert zu sein schien, dass er seinen Drei Gesetzen folgte.

NDR-114 erklärt die Drei Gesetze

Isaac Asimovs Werke wurden mehrfach für das Kino adaptiert, mit unterschiedlichem Erfolg bei Kritik und Publikum. Einige der bemerkenswerteren Versuche betrafen seine "Roboter"-Geschichten, darunter die Drei Gesetze.

In dem Film Bicentennial Man (1999) spielt Robin Williams den Drei-Gesetze-Roboter NDR-114 (die Seriennummer ist teilweise eine Anspielung auf Stanley Kubricks Signaturnummer). Williams rezitiert die Drei Gesetze vor seinen Arbeitgebern, der Familie Martin, mit Hilfe einer holografischen Projektion. Der Film hält sich nur sehr lose an die ursprüngliche Geschichte.

Harlan Ellisons Drehbuchvorschlag für I, Robot begann mit der Einführung der Drei Gesetze, und die aus den Drei Gesetzen erwachsenden Probleme bilden einen großen Teil der Handlungsentwicklung des Drehbuchs. Aufgrund verschiedener Komplikationen im Hollywood-Filmsystem, auf die Ellison in seiner Einleitung ausführlich eingeht, wurde sein Drehbuch nie verfilmt.

Im Film "Aliens" von 1986 versucht der Androide Bishop, nachdem er sich versehentlich selbst geschnitten hat, Ripley mit den Worten zu beruhigen: "Es ist mir unmöglich, ein menschliches Wesen zu verletzen oder durch Unterlassen zuzulassen, dass es verletzt wird".

Die Handlung des Films, der 2004 unter dem Namen I, Robot in die Kinos kam, ist von Asimovs Robotergeschichten "inspiriert". und die Werbung für den Film enthielt einen Trailer mit den Drei Gesetzen, gefolgt von dem Aphorismus "Regeln wurden geschaffen, um gebrochen zu werden". Der Film beginnt mit einer Rezitation der Drei Gesetze und untersucht die Auswirkungen des Nullten Gesetzes als logische Extrapolation. Der Hauptkonflikt des Films entsteht durch eine künstliche Computerintelligenz, die zu dem Schluss kommt, dass die Menschheit nicht in der Lage ist, für sich selbst zu sorgen.

In der Netflix-Originalserie "Better than Us" von 2019 werden die 3 Gesetze zu Beginn von Folge 1 zitiert.

Kritiken

Der Philosoph James H. Moor sagt, dass sie bei gründlicher Anwendung zu unerwarteten Ergebnissen führen würden. Er nennt das Beispiel eines Roboters, der die Welt durchstreift und versucht, Schaden von den Menschen abzuwenden.

Marc Rotenberg, Präsident und Exekutivdirektor des Electronic Privacy Information Center (EPIC) und Professor für Datenschutzrecht an der Georgetown Law University, ist der Ansicht, dass die Gesetze der Robotik um zwei neue Gesetze erweitert werden sollten:

  • ein viertes Gesetz, demzufolge ein Roboter in der Lage sein muss, sich gegenüber der Öffentlichkeit zu identifizieren ("symmetrische Identifizierung")
  • ein fünftes Gesetz, das besagt, dass ein Roboter in der Lage sein muss, der Öffentlichkeit seinen Entscheidungsfindungsprozess zu erklären ("algorithmische Transparenz").

Allgemeines

Zivile Nutzung

Konkrete Schritte zur Programmierung von Industrie- und Haushaltsrobotern können heute daraus nicht abgeleitet werden – hier gelten derweil verschiedene Sicherheitsregeln (Maschinenrichtlinie).

Militärische Nutzung

Roboter im militärischen Bereich (automatische Waffensysteme, Smart Bombs, Drohnen, Kampfroboter) folgen diesen Gesetzen nicht. Siehe auch Sicherheit von Robotiksystemen.

Trivia

In Anspielung auf die Robotergesetze nach Asimov enthält die robots.txt von last.fm diese Zeilen:

„Disallow: /harming/humans
Disallow: /ignoring/human/orders
Disallow: /harm/to/self“

In der dritten Folge der Fernsehserie Raumpatrouille werden die Roboter zum „Hüter des Gesetzes“ (Erstsendung: 15. Oktober 1966). So übernehmen sie die Herrschaft in einem Bergwerk, um die Menschen nach einem Streit davon abzuhalten, sich weiter selbst zu verletzen (siehe Gesetz 1). Dies ist eine Weiterentwicklung des Plots, der bereits 1941 Asimovs Erzählung Vernunft zugrunde liegt.