# taz.de -- Waffen ohne menschliche Kontrolle: Der Aufstieg der Maschinen
       
       > Wer ist Freund? Wer wird getötet? Das könnten in Zukunft Roboter statt
       > Soldaten entscheiden. Nur: Wer ist verantwortlich, wenn sie falsche Ziele
       > treffen?
       
 (IMG) Bild: Killerroboter aus der Zukunft: Der „Terminator“ sieht nur aus wie ein Mensch.
       
       BERLIN taz | Am 4. August 1997 wird der Militärcomputer „Skynet“
       installiert, um das nationale Waffenarsenal der USA zu kontrollieren. Das
       intelligente System lernt schnell, viel zu schnell. Als die Bediener des
       Computers in Panik geraten und versuchen, es wieder abzustellen, beginnt
       der Rechner einen atomaren Weltkrieg. Von dem Krieg zwischen Menschen und
       Maschinen handelt die Science-Fiction-Filmreihe „Terminator“, in der
       intelligente Roboter aus der Zukunft den künftigen Anführer der
       menschlichen Widerstandsbewegung zu ermorden versuchen.
       
       Während rebellierende Maschinen und intelligente Computer noch weit
       entfernt scheinen, gibt es inzwischen deutliche Entwicklungen dahin, dass
       die Kriege der Zukunft von eigenständigen Militärrobotern geführt werden
       könnten. „Autonome Waffensysteme“ werden die Roboter genannt, die ohne
       menschliches Eingreifen Ziele auswählen und bekämpfen können. Innerhalb von
       20 bis 30 Jahren könnte es solche Roboter bereits geben, schätzt [1][eine
       Studie] der Menschenrechtsorganisation Human Rights Watch (HRW) vom 19.
       November. Darin wird gefordert, solche Roboter schon jetzt vorsorglich zu
       verbieten. Obwohl der Appell früh kommt, scheint es bereits zu spät zu
       sein.
       
       Beispiel Drohnen: Breit diskutiert sind bereits die Kampfdrohnen der USA,
       die in Afghanistan und Pakistan wohl mehrere tausend Menschen getötet
       haben. Während sie keinen Piloten an Bord haben, sondern weit entfernt am
       Boden, wird die nächste Generation wohl gar keinen Piloten mehr haben.
       Anfang Dezember testete die französische Waffenfirma Dassault im Auftrag
       mehrerer europäischer Länder das [2][unbemannte Kampfflugzeug „Neuron“].
       
       Es fliegt eigenständig, ohne menschlichen Eingriff und muss das auch
       können, denn die Tarnkappendrohne soll Geheimeinsätze hinter feindlichen
       Linien fliegen – jede Funkkommunikation würde ihre Deckung zerstören. Und
       schießen? „Wir müssen den Menschen in jedem Fall in der Schleife behalten“,
       sagt ein Sprecher von Dassault. „Wir suchen aber die richtige Mischung von
       Automatisierung und menschlicher Kontrolle.“ Heißt: mehr Maschine, weniger
       Mensch.
       
       ## Im Zweifel mit dem Computer
       
       Beispiel Raketenabwehr: Brandneu ist das System „Mantis“ der Bundeswehr,
       das im September getestet wurde. Das Werbevideo zeigt vier beigefarbene
       Kanonen, die zackig von einer Seite zur andern schwenken, auf ihren Dächer
       rotiert das Radar. Mündungsfeuer blitzt auf. Treffer. „Mantis“ verfolgt
       seine Ziele automatisch und sortiert sie per Radar in „Freund“ und „Feind“.
       
       Dann haben die Soldaten maximal 20 Sekunden Zeit, auf den roten Knopf zu
       drücken, der den Abschuss freigibt. Wenn es mehrere Ziele gleichzeitig
       gibt, bleibt noch weniger Zeit. Danach entscheidet wieder der Computer. Die
       „sinnvollste“ Kanone wird berechnet. Abschuss.
       
       Computer könnten die Verhältnismäßigkeit von Einsätzen nicht ausreichend
       berücksichtigen, argumentiert die HRW-Studie, sie würden nur unzureichend
       zwischen Kämpfern und Zivilisten unterscheiden können – beide Abwägungen
       sind nach dem Völkerrecht notwendig – und bei ihren Entscheidungen werde
       eine zentrale Komponente fehlen: Empathie.
       
       Die Befürchtung der Menschenrechtsorganisation HRW ist, dass die Zahl der
       zivilen Kriegsopfer steigen könnte – und am Ende niemand dafür
       verantwortlich gemacht werden könnte. „Es werden Fehler passieren, und die
       Frage ist, wen wir dann zur Rechenschaft ziehen“, sagt HRW-Waffenexperte
       Steve Goose. „Ist es der Kommandeur, der die Maschine rausschickte, aber
       keinen Einfluss auf konkrete Schießbefehle hatte? Ist es der Programmierer,
       auf dessen Algorithmen diese Entscheidungen basieren? Der Hersteller? Klar
       ist nur: Die Maschine selbst kann nicht zur Verantwortung gezogen werden.“
       
       Wegen der völkerrechtlichen Bedenken bilden heute Menschen einen zentralen
       Teil von jedem Waffensystem. Doch die Grenze dessen, wie viel Mensch
       benötigt wird, wird ständig getestet. So bereiten Computer an vielen
       Stellen Entscheidungen für Menschen so weit vor, dass in dringenden
       Situationen wenig Zeit für eine eigenständige Entscheidung bleibt.
       
       Human Rights Watch geht davon aus, dass Bediener hierbei im Zweifel eher
       dem automatisierten System folgen und dem Angriff zustimmen werden. Die
       Gefahr besteht, dass die Entscheidung des Computers zur Regel werden
       könnte. Wenige Tage nach der HRW-Studie veröffentlichte das
       US-Verteidigungsministerium eine Direktive, die die Entwicklung solcher
       Waffen und ihre Einsätze regelt.
       
       ## „Kein Thema für Deutschland“
       
       Technisch sind Roboter, die eigenständig zwischen Zivilisten und Kämpfern
       ohne Uniform unterscheiden oder gar ganze Kampfszenarien bewerten könnten,
       wie es das Völkerrecht vorschreibt, noch längst nicht machbar. Bislang
       denken nur wenige über die nötigen Rahmenbedingungen nach. Aus dem
       deutschen Verteidigungsministerium heißt es zum Beispiel, autonome
       Waffensysteme seien „kein Thema“. Deshalb gebe es noch keinerlei rechtliche
       Beurteilung. Ganz anders die USA: [3][Eine „Roadmap“ des US-Militärs] sieht
       die Entwicklung autonomer Roboter vor, etwa für Minenräumung oder für
       Rettungseinsätze. Aber perspektivisch auch für den „Einsatz von Gewalt“.
       
       Die [4][kürzlich erschienene Direktive] des US-Verteidigungsministeriums
       definiert nun aber konkrete Rahmenbedingungen für die Produktion und den
       Einsatz autonomer Waffen. Sie gibt vor, dass autonome Waffensysteme nur zur
       Verteidigung bemannter Einrichtungen eingesetzt werden dürfen, aber auch
       dann nicht gegen menschliche Ziele – das Bundeswehr-System „Mantis“ ohne
       einen knopfdrückenden Soldaten wäre also zugelassen.
       
       Doch in einem Halbsatz eröffnet sich der Weg zu autonomen Waffen: Es heißt,
       wenn semiautonome Systeme, deren Ziele von Menschen vorgegeben werden, den
       Kontakt zu Bedienern verlieren, könnten sie dennoch bereits definierte
       Ziele angreifen. Eine veränderte Gefechtslage würde eine autonome Drohne,
       deren Kommunikation gestört wird, also nicht mehr berücksichtigen müssen.
       
       „Die Direktive zeigt, dass die US-Regierung auf Regulierung setzt und nicht
       auf ein Verbot“, sagt Steve Goose von Human Rights Watch. „Einfach davon
       auszugehen, dass militärische Kräfte diese Waffen ’ordnungsgemäß‘ oder
       ’verantwortungsvoll‘ verwenden werden, reicht nicht.“ Doch das ist der
       Knackpunkt, um den gestritten wird.
       
       ## Roboter gegen Roboter
       
       In einer Erwiderung an Kritiker von autonomen Waffen [5][schreibt etwa
       Jeffrey Thurnher], Major und Professor am Naval War College der USA, dass
       Kommandeure autonome Waffensysteme in Gegenden einsetzen könnten, wo das
       Risiko von Kollateralschäden besonders gering ist, etwa unter Wasser, oder
       in Situationen, in denen feindliche Soldaten einfach zu erkennen sind. Zur
       Aufstandsbekämpfung seien sie hingegen nicht geeignet. Allerdings könnten
       sich Roboter in solchen Situationen einem Angriff aussetzen, um Feinde
       zweifelsfrei zu identifizieren – Menschen wären da schon tot.
       
       Doch es drohen noch schwerwiegendere Konsequenzen. Was passiert, wenn eine
       Armee zu großen Teilen aus unbemannten Maschinen besteht? Steigt dann die
       Bereitschaft, Krieg zu führen, weil er weniger menschliche Opfer unter
       Militärs fordern würde? Wären empathielose Kriegsroboter nicht die Armee
       der Wahl eines Diktators im Falle einer Rebellion?
       
       Und was passiert, wenn sich autonome Waffen gegenseitig angreifen? „Im
       schlimmsten Fall könnten durch Missverständnisse in unübersichtlichen
       Situationen in Krisen sogar Kriege ausgelöst werden“, sagt Jürgen Altmann,
       Physiker an der TU Dortmund und Mitglied im Internationalen Komitee für die
       Kontrolle von Roboterwaffen. Er sieht außerdem die Gefahr, dass kleinere
       autonome Waffen leicht ihren Weg in die Hände von Terroristen finden
       könnten.
       
       Regulierung oder Verbot? Am Ende könnte ein ganz anderes Argument
       ausschlaggebend sein. „Der Gedanke, dass in Zukunft Maschinen über Leben
       und Tod von Menschen entscheiden könnten, ist für die meisten Menschen so
       abstoßend und abscheulich, dass wir uns gute Chancen ausrechnen“, sagt
       HRW-Experte Goose. Und die US-Regierung sieht auch Zeit für Diskussionen.
       „Es ist nicht so, dass wir denken würden, jemand entwickelt gerade einen
       Terminator“, [6][kommentierte ein Sprecher] die neue Direktive.
       
       19 Dec 2012
       
       ## LINKS
       
 (DIR) [1] http://www.hrw.org/reports/2012/11/19/losing-humanity-0
 (DIR) [2] http://www.dassault-aviation.com/en/aviation/press/press-kits/2012/the-neuron-makes-its-maiden-flight.html?L=1
 (DIR) [3] http://contracting.tacom.army.mil/future_buys/FY11/UGS%20Roadmap_Jul11.pdf
 (DIR) [4] http://www.hsdl.org/?view&did=726163
 (DIR) [5] http://www.ndu.edu/press/fully-autonomous-targeting.html
 (DIR) [6] http://www.defensenews.com/article/20121127/DEFREG02/311270005/U-S-DoD-8217-s-Autonomous-Weapons-Directive-Keeps-Man-Loop
       
       ## AUTOREN
       
 (DIR) Lalon Sander
       
       ## TAGS
       
 (DIR) Drohnenkrieg
 (DIR) Rüstungsindustrie
 (DIR) Rüstungspolitik
 (DIR) Autonome Waffen
 (DIR) Killerroboter
 (DIR) Autonome Waffen
 (DIR) Autonome Waffen
 (DIR) Autonome Waffen
 (DIR) Kundus
 (DIR) Roboter
 (DIR) Terminator
 (DIR) Digitalisierung
 (DIR) Roboter
 (DIR) Roboter
 (DIR) Drohnen
 (DIR) Killerroboter
 (DIR) Drohnen
 (DIR) USA
 (DIR) USA
 (DIR) Folter
 (DIR) Drohnenkrieg
 (DIR) Drohnen
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Petition der Woche – autonome Waffen: Freiwillig gegen Killerroboter
       
       Tausende Wissenschaftler sprechen sich gegen autonome Waffensysteme aus.
       Sie warnen vor der Selbstvernichtung der Menschheit.
       
 (DIR) UN-Gespräche über Killerroboter: Militärmächte verhindern ein Verbot
       
       Die UN hatten diese Woche Gespräche zu autonomen Waffensystemen
       organisiert. Ein Verbot ist aber nicht in Sicht, da sich Länder wie die USA
       und Russland sperren.
       
 (DIR) Künstliche Intelligenz und Moral: Guter Roboter, schlechter Roboter
       
       Jobverlust durch Automatisierung? Roboter, die über Recht und Unrecht
       entscheiden? Das sind keine Debatten der Zukunft. Wir sind mittendrin.
       
 (DIR) Schlagloch US-Kriegsführung: Komplizen des Abschlachtens
       
       Unter Obama begann ein großes Schweigen über Opfer im Anti-Terror-Krieg.
       Dafür sind besonders Drohnen verantwortlich.
       
 (DIR) Roboter muss USA-Reise beenden: Arme abgerissen, Kopf gestohlen
       
       Der trampende Roboter „hitchBOT“ sollte einmal quer durch die USA reisen.
       Doch nun wurde er von Vandalen zerstört.
       
 (DIR) Neuer „Terminator“-Film: Der Mann des Imperativs
       
       Alan Taylors „Terminator: Genisys“ hat nur einen Lichtblick: Ex-Gouverneur
       Arnold Schwarzenegger. Auch wenn er an den Kindergartencop erinnert.
       
 (DIR) Schlagloch Automation: Selbstlenkende Gesellschaft
       
       Dobrindts Vision der schönen neuen Automatenwelt ist alt – und unheimlich.
       Doch sie wird noch viel schneller kommen als wir es befürchten.
       
 (DIR) Gehirnforschung und Roboter: Wurm in der Maschine
       
       Ist es möglich, ein Gehirn komplett als Computerprogramm nachzubauen? Einem
       US-Forscher ist die Simulation für einen winzigen Wurm gelungen.
       
 (DIR) Autonome Roboter im Straßenverkehr: Der Fahrer in der Maschine
       
       Bald könnten selbststeuernde Fahrzeuge auf Straßen unterwegs sein. Doch
       dürfen sie in Unfallsituationen entscheiden, wer lebt und wer stirbt?
       
 (DIR) Rüstungsforscher über Kampfdrohnen: „Sind dann Programmierer schuld?“
       
       Künftig könnten Kampfdrohnen auch ohne menschliche Kontrolle agieren, sagt
       der Forscher Hilmar Linnenkamp. Aber wer ist dann für sie verantwortlich?
       
 (DIR) Autonome Waffen in Schwellenländern: China testet das „scharfe Schwert“
       
       Die USA und die EU entwickeln Waffen, die ohne menschliche Kontrolle
       auskommen könnten. Nun wollen auch Indien und China solche Systeme.
       
 (DIR) Drohnen-Testflug über Deutschland: Größer als ein Passagierflugzeug
       
       In Oberbayern startete der Testflug von Europas größter Drohne. Das
       unbemannte Flugzeug kann mittels Sensoren Radarstrahler und
       Kommunikationssender aufspüren.
       
 (DIR) Kommentar US-Außenpolitik: Die Abzieher
       
       Die Grundidee von Obamas Abzugsplänen: weniger Soldaten, mehr Drohnen.
       Militärische Mittel werden ein Instrument der US-Außenpolitik bleiben.
       
 (DIR) Video der Woche: God bless guns
       
       Todeszahlen, eine US-Flagge, Schüsse: Was nach dem Amoklauf in Newtown wie
       eine aktuelle Anti-Waffen-Kampagne anmutet, ist doch viel älter.
       
 (DIR) Film „Zero Dark Thirty“: So war das aber nicht!
       
       „Zero Dark Thirty“ zeigt die Tötung von Osama Bin Laden. US-Senatoren
       beklagen: zu viel Folter im Film. Was sagt uns das?
       
 (DIR) Kommentar Drohnenkrieg: Wenn Kriegführen zu einfach wird
       
       Krieg wird nicht grausamer, wenn Drohnen oder Roboter ihn führen. Aber die
       Welt wird unsicherer.
       
 (DIR) Debatte Tötung durch Drohnen: Perverse Waffen
       
       Drohnen haben in den vergangenen Jahren tausende Menschen getötet – auch
       viele Zivilisten. Die UNO muss die unbemannten Kampfmaschinen ächten.
       
 (DIR) Streit um Waffenbeschaffung: SPD: Drohnen frühestens 2020
       
       Die Bundeswehr soll bewaffnete Drohnen erst nach ausreichender Debatte über
       „Einsatzschwelle“ bekommen, sagt ein SPD-Verteidigungsexperte.
       
 (DIR) Debatte Kampfdrohnen: Waffen sind nicht ethisch neutral
       
       Um den Kauf von Kampfdrohnen zu verteidigen, tut Innenminister de Maizière
       so, als wären Waffen an sich neutral. Doch die Geschichte spricht gegen
       ihn.