# taz.de -- Die Moral sei mit ihnen
       
       > In dem Kinofilm „I, Robot“ wird eine Maschine zum Mörder. Aber nicht
       > etwa, weil sie böse ist und keine moralischen Maßstäbe kennt. Sondern
       > weil gute Science-Fiction den Gesetzen der Moral folgt
       
       VON NIKLAUS HABLÜTZEL
       
       Können Computer eines Tages das menschliche Leben bedrohen? Oder die Macht
       über unsere Gesellschaft übernehmen? Die Frage ist so alt wie die Computer
       und vor allem deswegen so lang anhaltend reizvoll, weil man sie
       vernünftigerweise nur mit „Ja“ beantworten kann. Jedes Leben und jede
       Organisation, staatlich oder privat, ist grundsätzlich bedroht. Selbst
       wenig intelligente Maschinen können tödlich sein, und je mehr wir unsere
       Kommunikation einem prinzipiell allumfassenden Netz von
       informationsverarbeitenden Maschinen anvertrauen, desto plausibler wird die
       Vorstellung, dass dieses anonyme Globalsystem einmal alle unsere
       Entscheidungen so sehr beeinflusst, dass wir die Kontrolle über uns selbst
       verlieren. Wir bilden uns dann immer noch ein, selbst zu entscheiden, tun
       aber nur, was uns die Computer vorhersagen.
       
       ## Moral-Fiction
       
       Regelmäßig kehrt daher die Vision einer Computerapokalypse in die Kinos
       zurück. Sie ist ein klassischer Stoff der Science-Fiction. Seit der
       Tscheche Karel Čapek Anfang des letzten Jahrhunderts das Wort „Robot“
       prägte, reißt die Reihe Trivialromane nicht ab, in denen ein Roboter seinen
       Erfinder umbringt. Das jedoch schien Isaac Asimov, dem Großmeister des
       Genres, von dem auch die Vorlage des Films „I, Robot“ stammt, nicht genug.
       Er fand das Frankenstein-Schema nur langweilig und formulierte in den
       30er-Jahren seine noch heute ständig zitierten drei „Gesetze des Roboters“.
       Sie lauten: (1): Kein Roboter darf menschliches Leben verletzen oder durch
       Untätigkeit zulassen, dass ein Mensch Schaden leidet. (2): Jeder Roboter
       muss jedem Befehl eines Menschen gehorchen, es sei denn, dieser Befehl
       widerspricht dem ersten Gesetz. (3): Jeder Roboter muss seine eigene
       Existenz schützen, solange dieser Schutz nicht im Widerspruch zum ersten
       oder zweiten Gesetz steht.“
       
       Die utilitaristischen Annahmen dieser Regeln sind eher schlicht.
       Informatiker hätten wohl kaum größere Schwierigkeiten, sie in
       Maschinensprache zu übersetzen und zur Grundlage aller weiteren Programme
       zu machen. Berühmt geworden sind Asimovs Gesetze jedoch nicht, weil sie
       irgendeinen Einfluss auf die weitere Entwicklung der Informatik gehabt
       hätten. Ganz wie von ihrem Erfinder gedacht, sind sie bis heute lediglich
       dramaturgische Gesetze für Romane geblieben. Sie verwandeln die
       Science-Fiction in Moral-Fiction, weil sie den bloß von außen beschriebenen
       Konflikt zwischen gutem Menschen und böser Maschine durch einen Konflikt
       innerhalb der Maschine selbst ersetzen. Von seiner (menschlich erzeugten)
       Anlage her ist ein Asimov-Computer gutartig, weil er aber immer perfekter
       arbeitet und schließlich so menschenfreundlich und lernfähig programmiert
       ist, dass er sogar Gefühle zu entwickeln scheint, kann er zum Verbrecher
       werden. Jetzt erst wird er abendfüllend tragisch, weil die Geschichte
       seines inneren Kampfes gegen sein eigenes Programm erzählt werden kann.
       
       ## Moralische Evolution
       
       Davon allerdings sind die Computer, die schon heute im Internet miteinander
       verbunden sind, Lichtjahre entfernt. Die mögliche Gefahr, die auch von
       ihnen ausgeht, hat keine moralische Qualität. Dennoch werden Asimovs
       Gesetze inzwischen auch in dem Forschungszweig der Informatik diskutiert,
       der sich mit der so genannten künstlichen Intelligenz beschäftigt. Eine
       ganze Reihe lesenswerter Aufsätze ist unter [1][www.asimovlaws.com] zu
       finden. Überaus überzeugend legt etwa Gordon Worley dar, dass die drei
       Grundregeln uns nicht nur vor Mörderandroiden keineswegs schützen, sondern
       insgesamt ungeeignet sind, eine Moral für Computer zu begründen. Die aber
       brauchen wir, meint Eliezer Yudkowsky in einem anderen Aufsatz, wenn wir
       unsere Angst vor den überintelligenten Maschinen loswerden wollen. Denn es
       geht nicht darum, ihnen ihre prinzipiell mögliche Gefährlichkeit
       wegzuprogrammieren. Das ist weder möglich noch sinnvoll. Sie müssen
       vielmehr insofern menschenähnlich werden, als sie selbst entscheiden
       lernen, was gut und böse ist. Prinzipiell auszuschließen sei ein solcher
       Zustand für Maschinen keineswegs, meint Yudkowski, allerdings kann er sich
       eine Moral menschlicher Artefakte nur als Ergebnis einer ihnen eigenen,
       zweiten Evolution, nicht einer einmaligen Ingenieursleistung vorstellen.
       
       So klug diese Idee klingt, für Kinofilme ist sie wenig geeignet. Maschinen
       dieser Art sind vielleicht nicht einmal theoretisch denkbar, denn ihre
       logischen (und philosophischen) Probleme sind noch immer ungelöst.
       Yudkowskis Vorschlag besteht lediglich darin, dass die heute lebenden
       Informatiker verpflichtet seien, ihren Erfindungen eine solche eigene
       Evolution möglich zu machen. Ob wir später moralische Roboter haben,
       scheint also doch nur davon abzuhängen, ob wir heute moralische Ingenieure
       haben. Der menschlichen Moral liegen Millionen Jahre der natürlichen
       Evolution voraus. Wie lange unsere heutigen Amöbencomputer dazu brauchen,
       weiß kein Mensch – gehen wir solange ins Kino.
       
       4 Aug 2004
       
       ## LINKS
       
 (DIR) [1] http://www.asimovlaws.com
       
       ## AUTOREN
       
 (DIR) NIKLAUS HABLÜTZEL
       
       ## ARTIKEL ZUM THEMA