# taz.de -- Philosoph über Digitalisierung: „Algorithmen sind gefährlich“
       
       > Der Philosoph Luciano Floridi warnt: Wir passen unser Leben zu sehr der
       > digitalen Welt an – und verlieren die Freiheit, die Gesellschaft zu
       > verändern.
       
 (IMG) Bild: Der digitale schaut auf den analogen Menschen herab
       
       taz: Herr Floridi, in Ihrem jüngsten Buch „Die 4. Revolution“ vergleichen
       Sie die Revolution, die die Computertechnologie ausgelöst hat, mit der von
       Kopernikus, Darwin und Freud. Warum halten Sie das für so wichtig? 
       
       Luciano Floridi: Vor 20 Jahren ist die digitale Revolution, die
       Computerrevolution, als rein technologische beschrieben worden. Es ging um
       die tollen Dinge, die wir tun können – schneller, besser, mehr, anders. Sie
       wurde verglichen mit der Revolution, die das Rad oder der Buchdruck
       ausgelöst haben. Das Internet wurde als Massenmedium missverstanden.
       
       Und worum geht es eigentlich? 
       
       Unser Selbstverständnis verändert sich. Wir verbringen den größten Teil
       unseres Lebens in einer Umwelt, die von Technologie erschaffen wurde – man
       lebt zwar nicht in Massenmedien, aber online. Wir müssen darüber reden, wie
       diese neue informationelle Gesellschaft gestaltet werden soll.
       
       Sie haben auf der re:publica am Montag mit Edward Snowden diskutiert. Ist
       er nicht das perfekte Beispiel für ein Leben, das untrennbar verknüpft ist
       mit Informationstechnologie? 
       
       Ganz sicher. Snowden hat den Übergang vom Analogen ins Digitale bereits
       komplett vollzogen. Er gehört zur neuen Stufe der Zivilisation: der
       digitalen.
       
       Was ist mit denen, die keinen Zugang zum Internet haben? 
       
       Es gibt diesen digitalen Graben – der die Menschen, die in dieser
       Infosphäre leben, von denen trennt, die draußen bleiben. Aber das Leben von
       denen außerhalb ist stark beeinflusst von dem auf der anderen Seite der
       Welt. Welche Rolle das spielen kann, sehen Sie zum Beispiel in Indien, wo
       Facebook das Internet halb gratis raushauen wollte – und die Regierung das
       abgelehnt hat, wegen mangelnder Netzneutralität. Hier geht es darum, wer
       Gatekeeper für Informationen in unseren Gesellschaften sein soll. Die, die
       drinnen sind, bestimmen über das Leben derer, die es nicht sind.
       
       In den letzten Jahren gab es im Bereich der künstlichen Intelligenz große
       Fortschritte – denken wir an die Google-Maschine AlphaGo. Sie bezweifeln
       trotzdem, dass es starke künstliche Intelligenz geben kann. 
       
       Wenn Sie mich fragen, ob ich das für unmöglich halte, ist die Antwort nein.
       Ich kann es nicht ausschließen. Aber glaube ich, dass es passiert? Nein.
       Denn es würde einen ganz dramatischen Wandel in der Technologie
       voraussetzen, den wir uns nicht einmal vorstellen können. Das ist reine
       Spekulation. Ganz ehrlich: Echte künstliche Intelligenz, so wie im Film
       „Terminator“ – das ist ein Witz. Ich verstehe nicht, warum Leute ernsthaft
       glauben, dass wir kurz davor stehen. Denn das letzte Mal, als ich
       nachgeschaut habe, da konnte mein Computer sich nicht einmal mit meinem
       Drucker verbinden, obwohl der direkt daneben stand.
       
       Den Einsatz von dummen Maschinen halten Sie auch für gefährlich? 
       
       Momentan sehe ich vor allem ein fundamentales Risiko: die große Verführung,
       an Maschinen zu delegieren. Und zwar Aufgaben, die nicht delegiert werden
       sollten. Nicht weil die Maschinen es nicht können – sondern weil man
       immense Fehler machen kann. Zum Beispiel wenn Algorithmen entscheiden, ob
       man einen Kredit bekommt und zu welchen Konditionen. Der Bankkaufmann, der
       vor ihnen sitzt und die Daten in eine Maske eintippt, kann weder ihnen noch
       sich selbst erklären, wie diese Entscheidung zustande gekommen ist. Es ist
       eine magische Box.
       
       Da ist die Frage natürlich: Wer hat hier die Handlungsmacht? 
       
       Ist die Maschine das Problem – oder der Idiot hinter der Maschine, der sie
       für diese Sachen verantwortlich gemacht hat und das alles zulässt. Man gibt
       Zahlen ein, dreht die Kurbel, und das ist, was man herausbekommt. Aber
       irgendjemand hat diesen Algorithmus ja erschaffen. Jemand hat ihn
       implementiert. Und jemand hat sich über all das nicht beschwert. Das waren
       alles Menschen. In den USA, aber auch in Großbritannien kommen zunehmend
       Predictive-Policing-Systeme zum Einsatz – eine Software, die Polizeiarbeit
       unterstützt, indem sie voraussagt, wo es Straftaten geben könnte.
       Unglücklicherweise arbeitet dieses System mit einem Algorithmus, der für
       die Vorhersage von Erdbeben programmiert wurde. Und nun sagt die Software
       eben nicht voraus, wo bald ein Erdbeben stattfinden wird, sondern das
       nächste Verbrechen. So dass die Polizei ihre Ressourcen dort konzentriert.
       Damit erzwingt man Wechselwirkungen.
       
       Was meinen Sie damit? 
       
       Soziale Interaktionen sind keine Erdbeben. Erdbeben passieren – und man
       kann nichts dagegen tun. Man kann damit umgehen, sie aber nicht vermeiden.
       Gegen soziale Muster kann man etwas tun. Darum geht es bei Freiheit: Man
       interveniert in der Gesellschaft. Man ändert ökonomische, soziale
       Bedingungen – und plötzlich gibt es kein Verbrechen. Aber wenn man soziale
       Muster wie Muster für Erdbeben behandelt – dann gibt man diese Freiheit,
       Dinge zu verändern, auf. Das ist furchtbar. Wollen wir wirklich in diese
       Richtung gehen? Unglücklicherweise ist es ziemlich wahrscheinlich, dass das
       passiert. Weil wir faul sind.
       
       Was ist die Lösung? 
       
       Zum einen brauchen wir sicherere Programmierung. Bei automatischen
       Waffensystemen wäre es zum Beispiel am besten, sie erst gar nicht zu bauen.
       Aber wo das nicht möglich oder einfach schon zu spät ist, müssen wir
       Menschen zwei, drei Kontrollinstanzen einbauen. Nicht weil ich glaube, dass
       Menschen intelligenter sind. Sondern weil sie Zweifel haben. Nachfragen.
       Ein dummes Beispiel: AlphaGo, dieser Algorithmus, der in den letzten Wochen
       in der Presse war, gewinnt Go. Jeden Tag. Er wird nicht aufhören. Würde ein
       Feuer in dem Raum ausbrechen, in dem das Spiel stattfindet – dann würde der
       Mensch, gegen den er spielt, aus dem Raum rennen. Der Computer spielt
       weiter – und wird mit dem gesamten Gebäude abbrennen. Herzlichen
       Glückwunsch. Ist das die Intelligenz, über die wir reden? Natürlich nicht.
       
       Also stehen Sie auf der Seite von Technikpessimisten, die es ohnehin für
       eine schlechte Idee halten, Computer so tief in unser Leben zu lassen? 
       
       Bis zu einem bestimmten Grad ja. Ich will zumindest sehen, dass jemand
       formuliert, das etwas eine schlechte Idee ist. Diese ganze Debatte über
       Maschinenethik in der Verteidigungsindustrie: Es gibt zahlreiche Programme
       – besonders eines in den USA, die Möglichkeiten untersuchen, wie man
       ethische Regeln in unbemannte Waffensysteme wie Drohnen implementieren
       kann. Das ist eine derartig schlechte Idee!
       
       Warum? Hört sich doch erst einmal besser an als eine Maschine ohne solche
       Regeln. 
       
       Das ist, als würde man der AlphaGo-Maschine beibringen, den Raum zu
       verlassen, wenn ein Feueralarm losgeht. Dann wäre sie auf einen Rohrbruch
       aber immer noch nicht vorbereitet. Wir sollten einfach vorsichtig sein, was
       wir bauen. Algorithmen sind und können gefährlich sein. Sie werden unser
       Leben bestimmen. Und wir passen uns an sie an. Nicht sie an uns.
       
       Ist also alles einfach nur schlimm? 
       
       Ich bin ziemlich optimistisch, was die Vorteile angeht: Wir können
       Maschinen bauen, die uns zu Diensten sind. Wir können sicherstellen, dass
       Dummheit für Intelligenz arbeitet – und zwar für unsere. Aber tun wir das
       auch? Da bin ich mir nicht so sicher. Ich fürchte, wir bewegen uns in die
       entgegengesetzte Richtung.
       
       3 May 2016
       
       ## AUTOREN
       
 (DIR) Meike Laaff
       
       ## TAGS
       
 (DIR) Digitalisierung
 (DIR) Algorithmen
 (DIR) Edward Snowden
 (DIR) Internet
 (DIR) Einbruch
 (DIR) AlphaGo
 (DIR) Schwerpunkt Überwachung
 (DIR) Marketing
 (DIR) Netzneutralität
 (DIR) Nick Bostrom
 (DIR) Bot
 (DIR) Medienkunst
 (DIR) Mark Zuckerberg
 (DIR) Drohnen
 (DIR) Sascha Lobo
 (DIR) Sascha Lobo
 (DIR) Grundschule
 (DIR) Drohnen
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Digitalisierung in der Kirche: Ausflug ins Neuland
       
       Zur Eröffnung einer Themenwoche zur digitalen Zeitenwende stand in der
       Hamburger Nikolai-Kirche ein Roboter … nein, nicht auf der Kanzel. Aber
       beinahe.
       
 (DIR) Verbrechens-Vorhersage mit Software: „Die Polizei ist skeptisch“
       
       Predictive Policing versucht zu prognostizieren, wo und wann Einbrüche
       begangen werden. Die Analyse kann auch auf andere Delikte ausgeweitet
       werden.
       
 (DIR) Google-Programm bringt sich selbst Go bei: Maschine braucht keinen Menschen
       
       Erst 2016 bezwang ein Google-Programm einen Meister des Brettspiels „Go“.
       Nun präsentiert das Google-Team einen noch besseren Nachfolger.
       
 (DIR) Snowden im NSA-Ausschuss: Entscheidung wird vertagt
       
       Nach dem Urteil des Bundesgerichtshofs schiebt der NSA-Ausschuss den
       Beschluss über eine Befragung Snowdens auf. Die Opposition kritisiert das
       scharf.
       
 (DIR) Werberoboter von IBM: „Watson“ weiß, was du brauchst
       
       Suppenhersteller Campbell’s wirbt jetzt mit künstlicher Intelligenz. Das
       klingt, als hätte die Zukunft endlich angefangen. Ist aber nicht so.
       
 (DIR) Gesetzentwurf zur Netzneutralität: Bußgeld bei Verstoß
       
       Eine Gesetzesänderung soll die EU-Netzneutralität in Deutschland umsetzen.
       Kritiker sehen aber weiterhin die Gefahr eines „Zwei-Klassen-Internets“.
       
 (DIR) Künstliche Intelligenz: Apocalypse soon
       
       Superschlaue Computer lernen immer selbstständiger. Das sei eine tickende
       Zeitbombe, sagt der Philosoph Nick Bostrom.
       
 (DIR) Debüt einer Drehbuchmaschine: Regieanweisung aus der Zukunft
       
       „Sunspring“ heißt der erste Film aus der Feder eines Algorithmus. Das
       Ergebnis ist ein krudes Spiegelkabinett der Science-Fiction-Welt.
       
 (DIR) Ausstellung über Whistleblower: Die Spione sind gerade nicht im Büro
       
       Der Medienkunstverein Hartware zeigt in Dortmund „Whistleblower &
       Vigilanten“. Eine Sammlung von „Figuren des digitalen Widerstands“.
       
 (DIR) Diskussion um Facebook-Algorithmus: Ein Berg voll Zucker
       
       Ex-Mitarbeiter werfen Facebook vor, konservative Nachrichten zu
       unterdrücken. Jetzt meldet sich Gründer Mark Zuckerberg zu Wort.
       
 (DIR) Streit um Flugobjekte: Der Himmel voller Drohnen
       
       Flugzeuge, Vögel, Drohnen: Es ist viel los in der Luft. Deshalb will der
       Verkehrsminister die Gesetze überarbeiten. Das sorgt für Ärger.
       
 (DIR) Sascha Lobo über die re:publica: Ganz schön erwachsen
       
       Am Monag startet in Berlin die zehnte re:publica. Aus dem Bloggertreffen
       ist eine professionelle Großkonferenz geworden.
       
 (DIR) Ironie erkennen ist echt schwierig: Wie lacht ein Paragraf?
       
       Sascha Lobo schlägt ein Emoticon vor, um zu kennzeichnen, wenn etwas
       wirklich ernstgemeint wird. Helfen wird es wohl nicht.
       
 (DIR) Computerspiele im Unterricht: Professor S. und die Zeitforscher
       
       Indem sie Professor S. helfen, lernen Grundschüler auch Stoff für Deutsch
       oder Geschichte. Und sie erfahren etwas über Datenschutz im Internet.
       
 (DIR) Autoren über Science-Fiction und NSA: „Wir schenken Google eine Rolex“
       
       In ihren Daten-Thrillern erzählen die Bestseller-Autoren Marc Elsberg und
       Tom Hillenbrand, was nach Facebook auf uns zukommt. Ein Gipfeltreffen.