Asimov, Dick, Menschen, Götter (Essay)

Das erste Gesetz: Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.

 

Das zweite Gesetz: Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde das Erste Gesetz der Robotik verletzen.

 

Das dritte Gesetz: Ein Roboter muss seine Existenz schützen, es sei denn, dies würde das Erste oder das Zweite Gesetz brechen.

 

Es ist bemerkenswert, dass Isaac Asimov es gelungen ist für seine Zukunftsvision drei Regeln aufzustellen, wo Gott für den Menschen zehn brauchte.

Asimovs Vision dreht sich um die Vorstellung von zwei Spezies: die Menschen und die Roboter. Der Mensch ist für den Roboter im Prinzip das, was Gott für den Menschen ist: sein Schöpfer. Die Roboter können frei entscheiden, frei handeln, aber auch sie benötigen eine Moral. Und diese wird ihnen in Form der drei Gesetze einprogrammiert. Der Mensch kann dies, weil er die Schöpfungskraft über die Roboter hat. Um eine friedliche Koexistenz zwischen Menschen und Robotern zu garantieren, müssen die Roboter nach Ansicht ihrer Erfinder unter allen Umständen diese drei „Gebote“ einhalten. Genauer kann dies in der berühmten Geschichte „Runabout“ nachgelesen werden. Es fällt auf, dass in diesen Regeln der Mensch sich selbst als bedeutungsvoller und zentraler einschätzt als seine Schöpfung. Der Mensch ist in diesen Regeln den Robotern übergeordnet, während ihnen gleichzeitig die größtmögliche Eigenständigkeit in dieser Unterordnung gewährt wird.

In ihnen steckt die Botschaft: „Ich bin dein Gott“ wenn schon nicht zwischen die Zeilen, so doch zwischen die Buchstaben gezwängt.

Wer diesen drei Geboten folgt, der ist ein moralisch anständiger Roboter. Da es ihnen jedoch einprogrammiert wird, ist jedes moralische Dilemma im Vorhinein nur als Scheindilemma gegeben. In Wahrheit gibt es durch die Programmierung keine Sekunde des Zögerns, allenthalben ein im Rückblick gegönntes Gefühl der Reue.

Diese Gebote werden in ihrer Tragweite bei einem anderen Science Fiction Autor meines Erachtens deutlicher: Bei Philip K. Dick. Seine Welt beherbergt ein wahnwitziges, überaus intelligentes Spiel mit der Frage nach der Täuschung.

Angenommen die Roboter nähern sich in ihrer Seinsweise der des Menschen an. Angenommen es wäre ununterscheidbar, wer Roboter und wer Mensch ist. Angenommen, die Emotionen der Roboter wäre derart intensiv, dass auch wenn ihre Konflikte ihnen als Scheindilemma begegnen, sie diese dennoch als echte Dilemma wahrnehmen. Angenommen man selbst wäre ein Roboter, der diesen drei Regeln folgt.

Dicks Welt ist die des frustrierten Deismus: Gott hat die Welt erschaffen, sie dann aber im Stich gelassen. Er hat die Welt als eine Maschine erschaffen mit Naturgesetzen, er hat sie eingeschaltet und laufen lassen. Und das war’s. Dann war sein Job erledigt. Er sah, dass es gut war und er ließ die Maschine einfach laufen. Ein Spielzeug, das läuft und läuft und läuft und läuft und sich selbständig weiter entwickelt. Frei von Wundern und frei von Gott. Gottfried Wilhelm Leibniz z.B. sprach von Gott als von einem Uhrmacher. Und Philip K. Dick dreht diese Uhr in seinen Händen und besieht sich das Wunder der Technik von seiner dunkelsten Seite:

Ein Roboter, der sich selbst für einen Menschen hält und so programmiert ist, dass er keinen Unterschied wahrzunehmen im Stande ist, der sich also verhält wie ein Mensch und fühlt wie ein Mensch. Der ist auch ein Mensch. Je tiefer man in Dicks Werke eintaucht, umso mehr mag man fast schon glauben: der ist mehr Mensch als der Mensch. So wie der Mensch mehr Gott ist als Gott.

Die Maschinen in Dicks literar-philosophischen Kosmos leiden fast so sehr, dass wir Mitgefühl mit ihnen haben, selbst wenn wir immer wieder darauf hingewiesen werden, dass unser Mitgefühl ganz alleine ist und auf kein echtes Gefühl im Innern des leidenden Roboters stößt. Wir sind bereit, Tränen zu vergießen, wenn einer, der nur so tut, als sei er mit Gefühlen gesegnet, vor unseren Augen stirbt. Wir machen uns bewusst, dass wir eine Maschine einfach nur deshalb wertschätzen, weil sie alles richtig macht, um die Lücke zwischen Maschine und Mensch zu minimieren.

Vielleicht haben einige deshalb so wenig Mitgefühl mit Menschen, die sich nicht so verhalten, wie wir es von Menschen gewohnt sind. Mit Behinderten zum Beispiel. Mit Komapatienten. Mit Kranken. Mit Ausbrüchen aus der Norm.

Es gibt Menschen, die manisch Angst vor Babys haben. Angeblich, weil die Augen so wach aussehen, aber man genau weiß, dass dahinter keine „echten“ Gedanken existieren. Andere haben Angst vor Masken. Vor Clowns. Vor dem ewig lächelnden Gesicht, wohinter wir genau wissen, dass keine echte Freude lauert.

Aber die Perfektion eines Menschen: die perfekte Mensch-Maschine, der würden wir vertrauen.

So merkwürdig es klingt, wir neigen im Alltag fast ständig dazu, uns der großen Täuschung hinzugeben. In der Informatik wird vom ELIZA-Effekt gesprochen: wir unterstellen Maschinen ein Seelenleben, wo eigentliche Programmierung die Grundlage ist. Ein Bankautomat, der „Vielen Dank für ihren Besuch“ auf dem Display stehen hat, würden wir niemals für wahrlich „dankbar“ empfinden. Aber einen ewig abstürzenden Computer, kann man den als zickig bezeichnen? Eine „streikende“ Kaffeemaschine ansprechen mit „Was ist denn mit dir heute los?“ Ein Schachcomputer als intelligenter als ich? Sein Zug: „überraschend“? „Was hast du jetzt wieder vor?“

Ein Roboter, der alte Menschen pflegt, als sozial, liebevoll, zärtlich, behutsam, sorgfältig?

Wenn wir von ihm zugedeckt werden mit den Worten: „Schlaf gut.“, bedenken wir ihn mit den Worten: „Danke.“ Oder „Danke, du auch.“ Oder schweigen wir?

Vielleicht flüstert unser Pflegeroboter uns die heilige Schrift zum Einschlafen ins Ohr. Und vielleicht lautet sie:

 

Das erste Gesetz: Ein Mensch darf kein göttliches Wesen verletzen oder durch Untätigkeit zulassen, dass einem göttlichen Wesen Schaden zugefügt wird.

 

Das zweite Gesetz: Ein Mensch muss den ihm von einem Gott gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde das Erste Gesetz der Menschheit verletzen.

 

Das dritte Gesetz: Ein Mensch muss seine Existenz schützen, es sei denn, dies würde das Erste oder das Zweite Gesetz brechen.

 

Wäre das alles.

Wären wir moralische Menschen?

Wäre das alles.

Wären Roboter moralisch?

3 thoughts on “Asimov, Dick, Menschen, Götter (Essay)

  1. „Es fällt auf, dass in diesen Regeln der Mensch sich selbst als bedeutungsvoller und zentraler einschätzt als seine Schöpfung.“ – was, wenn der Mensch das nicht täte? Könnte die Schöpfung dann zum Gott werden?

    • Das Buch ist auch unfassbar gut! Ich liebe Dicks Dvdrstörend gute Deismus-Welten. DAdoES aka Blade Runner war meine „Einstiegsdroge“ in seine Welt. Und die Neuverfilmung wird dieser Idee mehr als nur gerecht, finde ich.

Was sagt ihr dazu?