# taz.de -- Philosophin Judith Simon über IT-Ethik: „Wer bestimmt, wie Dinge funktionieren?“
       
       > Entwickeln überwiegend weiße Männer neue Technologien, steigt die Gefahr
       > von Diskriminierung – ein Thema für die Hamburger Computerethikerin
       > Judith Simon.
       
 (IMG) Bild: Wenn Technik auf Diversität trifft: Automatischer Seifenspender, der dunkle Haut nicht als solche erkennt – und die Seife verweigert (M.).
       
       taz: Frau Simon, Sie bekleiden eine Professur für „Ethik in der
       Informationstechnologie“. Hat das mehr mit den [1][Gesetzen für Roboter] zu
       tun, die der SF-Autor Isaac Asimov einmal formulierte – oder mit dem
       [2][Datenschutz bei Facebook]? 
       
       Judith Simon: Tatsächlich eigentlich mit beidem. Im Moment arbeite ich mehr
       zu Big Data und Künstlicher Intelligenz und dementsprechend auch zu
       Datenschutz und Privatsphäre, aber auch zu Gleichheit und Schutz vor
       Diskriminierung und ähnlichen Fragen. Und da ist Facebook natürlich einer
       der Akteure, die da immer im Zentrum stehen. Zu Robotern arbeiten Kollegen
       von mir, das ist nicht mein eigener Schwerpunkt, aber auch ein großes Thema
       in der Computerethik.
       
       So etwas wie der – oder eigentlich: der jüngste – [3][Nutzerdaten-Skandal
       bei Facebook], erleichtert Ihnen das die Arbeit? 
       
       Für Leute, sie sich ein bisschen auskennen, war es keine Überraschung. Weil
       man ja wusste, wie das funktioniert, welches die ökonomischen Modelle
       hinter Facebook sind, wie die Apps funktionieren. Ein Skandal war es – aber
       das war es auch schon vorher. Was die Sache nun nochmal in die Medien
       gebracht hat, war wohl die schiere Menge der betroffenen Nutzer. Der
       eigentliche Skandal sind diese Geschäftsmodelle, nicht unbedingt, dass es
       jetzt raus gekommen ist. Aber wenn so etwas ein solches Ausmaß hat, rückt
       es Themen für Ethik und IT oder Ethik und Digitalisierung nochmal stärker
       ins Zentrum.
       
       Das heißt, Sie müssen in Zeiten der [4][Cambridge-Analytica-Enthüllungen]
       seltener erklären, was Ihr Job ist? 
       
       Genau. Es kommen aber auch viel mehr Anfragen an unsere Gruppe.
       
       Seit wann gibt es denn Ihre Professur eigentlich? 
       
       Die ist ziemlich neu. Die Professur habe ich im Februar 2017 übernommen,
       und die Mitarbeiter sind alle im Lauf des letzten Jahres dazu gestoßen.
       
       Und wie steht es um Menschen mit vergleichbaren Gebieten in der deutschen
       Hochschullandschaft insgesamt? 
       
       Da ist noch Luft nach oben. Meine Professur ist, so weit ich weiß, die
       erste und einzige für Ethik in der Informationstechnologie an einem
       Informatik-Institut. Es gibt natürlich noch mehr Institut und Orte, an den
       zu IT und Gesellschaft geforscht wird, unter anderem in Berlin und München,
       es gibt auch Institute für Medienethik, in Stuttgart etwa. In Holland gibt
       es gerade an den technischen Universitäten einige Philosophie-Professuren,
       die schon seit einigen Jahren stark interagieren mit Kollegen aus der
       Informatik, aber auch anderen Ingenieurswissenschaften; dann gibt es noch
       das Oxford Internet Institute, und in den USA gibt es eine doch schon 20
       Jahre alte Tradition der „Values in Design“, wo eben auch Philosophen mit
       Informatikern zusammenarbeiten.
       
       Kann – oder muss – es eigentlich eine neue Ethik geben fürs Digitale? Geht
       es da nicht im Kern um vertraute Zutaten, nämlich darum, wie der Mensch mit
       dem Menschen umgeht? 
       
       Das ist eine alte Debatte auch in der Computerethik: Ist es nur die
       Anwendung von hergebrachten Ethiken – der Tugendethik, der Pflichtethik,
       des Utilitarismus – auf neue Fragen? Oder muss eine neue Ethik her? Ich
       glaube, es ist eine Mischung aus beidem. Einerseits werden im Digitalen
       bestimmte Fragen nur verstärkt, es stellen sich gleiche Fragen unter
       anderen Vorzeichen: nach Gleichheit, nach Freiheit, nach Gerechtigkeit. Die
       sind insofern natürlich nicht neu.
       
       Aber? 
       
       Was sich verändert hat, ist, dass andere Akteure ins Spiel gekommen sind:
       Die klassischen Ethiken beziehen sich ja auf den menschlichen
       Individual-Akteur, auf das Individuum, das handelt und in seinem Handeln
       sich leiten lassen soll. Und nun hat man, bis zu einem gewissen Grad
       zumindest, auch nicht-menschliche Akteure, Künstliche Intelligenz; die ist
       natürlich nur in bedingtem Maße handlungsfähig oder intelligent. Aber
       trotzdem sind das neue Akteure, und man hat es etwa mit verteilten
       Entscheidungen in soziotechnischen Netzwerken zu tun. Und da braucht man
       vielleicht eine Ethik, die auch Handeln jenseits von Individuen in den
       Blick nimmt.
       
       Bei meinen Recherchen zu diesem Gespräch bin ich auf einen interessanten,
       wenn auch etwas nebulösen Satz gestoßen: [5][„Digitale Ethik gerät unter
       den generellen Verdacht der Zensur.“] 
       
       Mir ist nicht ganz klar, was damit gemeint sein soll.
       
       Mein Verdacht ist, dass es da um Redefreiheit und angebliche Sprechverbote
       geht. Wiederum ja eine Debatte, für die es des Internets nicht erst bedurft
       hätte. 
       
       Das sind natürlich heiße Debatten, aber es gibt da auch die Tendenz, die
       Mitte zu vergessen und sich sozusagen radikal zu positionieren: also
       entweder für totale Redefreiheit, als würde es die immer geben; bestimmte
       Dinge sind ja gesetzlich schon abgedeckt, nationalsozialistische
       Wiederbetätigung oder Hassrede etwa, und da gibt es ja auch gute Gründe
       dafür, dass man nicht alles überall äußern kann. Bestimmte Dinge sind
       tatsächlich nicht neu.
       
       Zum Beispiel? 
       
       Die Frage, zum Beispiel, wo die Freiheit des einen endet, wann sie einen
       anderen verletzt. Aber man muss die Dynamiken online mitdenken und im
       Detailfall entscheiden, was das heißt, wie es zu regulieren ist und von
       wem. Ich bin kein Freund von einfachen Antworten, und Begriffe wie Zensur
       werden da ja auch sehr schnell als Kampfbegriffe missbraucht. Sich auf die
       Seite derjenigen zu schlagen, die sagen: Jedes Löschen ist Zensur – das ist
       leicht, wenn man nicht betroffen ist von Hassrede.
       
       Oder Schlimmerem. 
       
       In Sri Lanka hat Facebook gerade erst [6][dazu beigetragen, dass Gewalt
       zwischen Buddhisten und Muslimen eskaliert ist] – nicht absichtsvoll
       natürlich, aber durch die Art, wie Menschen Dinge widergespiegelt werden,
       die sie gerne hören. Das hat zu Gewalt geführt, ohne dass das irgend jemand
       bewusst so gewünscht hätte – einfach weil Algorithmen oft das optimieren,
       den Leuten das zu zeigen, das sie in Bann hält. Und diese Dynamik ist
       differenzierter zu betrachten als durch so eine banale „Freie Rede versus
       Zensur“-Debatte.
       
       Sie nehmen in dieser Woche Platz auf einem Podium der Akademie der
       Nordkirche über das Thema „Gewinner und Verlierer im digitalen Zeitalter“ –
       wer ist denn heute wer, aus Ihrer Sicht? 
       
       Es ist wie so oft: Die, die schon viel haben, kriegen noch mehr, und die,
       die wenig haben, geht es möglicherweise schlechter. Das muss nicht, aber
       kann sich verstärken durch Digitalisierung.
       
       Hat das auch etwas zu tun mit den „jungen, reichen, weißen Männern“, die –
       [7][der Wissenschaftlerin Kate Crawford zufolge] – vorrangig die
       Digitalisierung betreiben? 
       
       Wer Software entwickelt, trifft bestimmte Entscheidungen darüber, wie sie
       funktioniert. Und da kann es zu bewussten oder unbewussten Verzerrungen
       kommen. Es gab dieses [8][Video, in dem ein automatischer Seifenspender
       einer schwarzen Hand, sozusagen, keine Seife gespendet hat] – weil die
       Sensoren nur auf weiße Haut reagieren. Das ist ein erhellendes Beispiel
       dafür, wie überhaupt nicht böse gemeinte oder einfach Design-Entscheidungen
       dazu führen, dass Menschen diskriminiert werden. Und je weniger divers
       Entwicklungsteams sind, umso eher passiert so etwas; je mehr weiße, reiche
       Mittelklassemänner Technologien entwickeln, umso eher besteht diese Gefahr.
       Andererseits ist das Problem selten die digitale Technologie selbst,
       sondern der ökonomische Kontext, in dem Technologien entwickelt werden.
       
       Was heißt das? 
       
       Wenn ich eine Art von Aufmerksamkeitsökonomie habe und versuche, Menschen
       so lange wie möglich auf den Plattformen zu halten, kann das Segregierung
       verstärken. Und die Frage ist immer: Wer bestimmt, wie Dinge funktionieren?
       Wer ist Leidtragender?
       
       29 May 2018
       
       ## LINKS
       
 (DIR) [1] https://de.wikipedia.org/wiki/Robotergesetze
 (DIR) [2] /!5502609/
 (DIR) [3] /!5489555/
 (DIR) [4] /!5494576/
 (DIR) [5] https://www.zukunftsinstitut.de/artikel/moral-im-netz-wir-brauchen-eine-digitalethik/
 (DIR) [6] http://fortune.com/2018/04/22/facebook-ignored-sri-lanka-hate-speech/
 (DIR) [7] https://www.nytimes.com/2016/06/26/opinion/sunday/artificial-intelligences-white-guy-problem.html
 (DIR) [8] https://gizmodo.com/why-cant-this-soap-dispenser-identify-dark-skin-1797931773
       
       ## AUTOREN
       
 (DIR) Alexander Diehl
       
       ## TAGS
       
 (DIR) Digitalisierung
 (DIR) Ethik
 (DIR) Informationstechnologie
 (DIR) Diskriminierung
 (DIR) Netzkultur
 (DIR) Big Data
 (DIR) Datenschutz
 (DIR) Geschichte
 (DIR) Internet
 (DIR) Mithulogie
 (DIR) Datenschutz
 (DIR) Datenschutzgrundverordnung
 (DIR) Schwerpunkt Meta
 (DIR) Datenschutzgrundverordnung
 (DIR) DSGVO
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Saalecker Werkstätten: Design für eine andere Zukunft
       
       In Saaleck in Sachsen-Anhalt ist eine neue Design Akademie entstanden. In
       dem alten Gebäudekomplex arbeitete früher ein nationalsozialistischer
       Thinktank.
       
 (DIR) Digitalisierung in der Kirche: Ausflug ins Neuland
       
       Zur Eröffnung einer Themenwoche zur digitalen Zeitenwende stand in der
       Hamburger Nikolai-Kirche ein Roboter … nein, nicht auf der Kanzel. Aber
       beinahe.
       
 (DIR) Kolumne Mithulogie: Sex ist nicht sexistisch!
       
       Immer mehr Webseiten blockieren sexuelle Inhalte, um uns vor Sexismus zu
       schützen. Doch das Gegenteil von gut ist gut zensiert.
       
 (DIR) Nicht notwendiger Zugriff auf Daten: „Das ist Erpressung“
       
       Facebook und Google verstoßen gegen die neue Datenschutzgrundverordnung,
       meint Netzaktivist Max Schrems. Er fordert Milliardenstrafen.
       
 (DIR) Kommentar Datenschutz und DSGVO: Ein Schwert zur rechten Zeit
       
       Schluss mit Hetze und Manipulation: Mit der Verordnung hat Europa ein
       Mittel gegen die Machtposition der Techkonzerne gefunden.
       
 (DIR) Facebook-Datenskandal: Nun doch keine Europäer betroffen?
       
       Facebook verwirrt mit der Nachricht, dass im Cambridge-Analytica-Fall
       womöglich doch keine Daten von europäischen Nutzern geteilt wurden.
       
 (DIR) taz-Serie Datenschutz in der EU: Vergiss mich, Internet!
       
       Firmen müssen künftig Daten löschen, wenn Kunden das möchten. Aber ob und
       wie das umgesetzt wird, entscheiden wohl Gerichte.
       
 (DIR) taz-Serie Datenschutz in der EU: Er hat's erfunden
       
       Jan Philipp Albrecht ist der Vordenker der neuen Datenschutzgesetze in
       Europa. Jetzt wird der grüne Überflieger Minister in Schleswig-Holstein.