# taz.de -- Die Moral sei mit ihnen
> In dem Kinofilm „I, Robot“ wird eine Maschine zum Mörder. Aber nicht
> etwa, weil sie böse ist und keine moralischen Maßstäbe kennt. Sondern
> weil gute Science-Fiction den Gesetzen der Moral folgt
VON NIKLAUS HABLÜTZEL
Können Computer eines Tages das menschliche Leben bedrohen? Oder die Macht
über unsere Gesellschaft übernehmen? Die Frage ist so alt wie die Computer
und vor allem deswegen so lang anhaltend reizvoll, weil man sie
vernünftigerweise nur mit „Ja“ beantworten kann. Jedes Leben und jede
Organisation, staatlich oder privat, ist grundsätzlich bedroht. Selbst
wenig intelligente Maschinen können tödlich sein, und je mehr wir unsere
Kommunikation einem prinzipiell allumfassenden Netz von
informationsverarbeitenden Maschinen anvertrauen, desto plausibler wird die
Vorstellung, dass dieses anonyme Globalsystem einmal alle unsere
Entscheidungen so sehr beeinflusst, dass wir die Kontrolle über uns selbst
verlieren. Wir bilden uns dann immer noch ein, selbst zu entscheiden, tun
aber nur, was uns die Computer vorhersagen.
## Moral-Fiction
Regelmäßig kehrt daher die Vision einer Computerapokalypse in die Kinos
zurück. Sie ist ein klassischer Stoff der Science-Fiction. Seit der
Tscheche Karel Čapek Anfang des letzten Jahrhunderts das Wort „Robot“
prägte, reißt die Reihe Trivialromane nicht ab, in denen ein Roboter seinen
Erfinder umbringt. Das jedoch schien Isaac Asimov, dem Großmeister des
Genres, von dem auch die Vorlage des Films „I, Robot“ stammt, nicht genug.
Er fand das Frankenstein-Schema nur langweilig und formulierte in den
30er-Jahren seine noch heute ständig zitierten drei „Gesetze des Roboters“.
Sie lauten: (1): Kein Roboter darf menschliches Leben verletzen oder durch
Untätigkeit zulassen, dass ein Mensch Schaden leidet. (2): Jeder Roboter
muss jedem Befehl eines Menschen gehorchen, es sei denn, dieser Befehl
widerspricht dem ersten Gesetz. (3): Jeder Roboter muss seine eigene
Existenz schützen, solange dieser Schutz nicht im Widerspruch zum ersten
oder zweiten Gesetz steht.“
Die utilitaristischen Annahmen dieser Regeln sind eher schlicht.
Informatiker hätten wohl kaum größere Schwierigkeiten, sie in
Maschinensprache zu übersetzen und zur Grundlage aller weiteren Programme
zu machen. Berühmt geworden sind Asimovs Gesetze jedoch nicht, weil sie
irgendeinen Einfluss auf die weitere Entwicklung der Informatik gehabt
hätten. Ganz wie von ihrem Erfinder gedacht, sind sie bis heute lediglich
dramaturgische Gesetze für Romane geblieben. Sie verwandeln die
Science-Fiction in Moral-Fiction, weil sie den bloß von außen beschriebenen
Konflikt zwischen gutem Menschen und böser Maschine durch einen Konflikt
innerhalb der Maschine selbst ersetzen. Von seiner (menschlich erzeugten)
Anlage her ist ein Asimov-Computer gutartig, weil er aber immer perfekter
arbeitet und schließlich so menschenfreundlich und lernfähig programmiert
ist, dass er sogar Gefühle zu entwickeln scheint, kann er zum Verbrecher
werden. Jetzt erst wird er abendfüllend tragisch, weil die Geschichte
seines inneren Kampfes gegen sein eigenes Programm erzählt werden kann.
## Moralische Evolution
Davon allerdings sind die Computer, die schon heute im Internet miteinander
verbunden sind, Lichtjahre entfernt. Die mögliche Gefahr, die auch von
ihnen ausgeht, hat keine moralische Qualität. Dennoch werden Asimovs
Gesetze inzwischen auch in dem Forschungszweig der Informatik diskutiert,
der sich mit der so genannten künstlichen Intelligenz beschäftigt. Eine
ganze Reihe lesenswerter Aufsätze ist unter [1][www.asimovlaws.com] zu
finden. Überaus überzeugend legt etwa Gordon Worley dar, dass die drei
Grundregeln uns nicht nur vor Mörderandroiden keineswegs schützen, sondern
insgesamt ungeeignet sind, eine Moral für Computer zu begründen. Die aber
brauchen wir, meint Eliezer Yudkowsky in einem anderen Aufsatz, wenn wir
unsere Angst vor den überintelligenten Maschinen loswerden wollen. Denn es
geht nicht darum, ihnen ihre prinzipiell mögliche Gefährlichkeit
wegzuprogrammieren. Das ist weder möglich noch sinnvoll. Sie müssen
vielmehr insofern menschenähnlich werden, als sie selbst entscheiden
lernen, was gut und böse ist. Prinzipiell auszuschließen sei ein solcher
Zustand für Maschinen keineswegs, meint Yudkowski, allerdings kann er sich
eine Moral menschlicher Artefakte nur als Ergebnis einer ihnen eigenen,
zweiten Evolution, nicht einer einmaligen Ingenieursleistung vorstellen.
So klug diese Idee klingt, für Kinofilme ist sie wenig geeignet. Maschinen
dieser Art sind vielleicht nicht einmal theoretisch denkbar, denn ihre
logischen (und philosophischen) Probleme sind noch immer ungelöst.
Yudkowskis Vorschlag besteht lediglich darin, dass die heute lebenden
Informatiker verpflichtet seien, ihren Erfindungen eine solche eigene
Evolution möglich zu machen. Ob wir später moralische Roboter haben,
scheint also doch nur davon abzuhängen, ob wir heute moralische Ingenieure
haben. Der menschlichen Moral liegen Millionen Jahre der natürlichen
Evolution voraus. Wie lange unsere heutigen Amöbencomputer dazu brauchen,
weiß kein Mensch – gehen wir solange ins Kino.
4 Aug 2004
## LINKS
(DIR) [1] http://www.asimovlaws.com
## AUTOREN
(DIR) NIKLAUS HABLÜTZEL
## ARTIKEL ZUM THEMA