# taz.de -- Twitter-KI diverser machen: Suche nach dem Superprogrammierer
       
       > Das US-Netzwerk Twitter lässt seine Algorithmen von Externen prüfen. Aber
       > reicht das am Ende, um die Diskriminierung zu stoppen?
       
 (IMG) Bild: Techkonzerne haben schon vor einigen Jahren angekündigt, ihre Entwicklerteams diverser zu machen
       
       Vor wenigen Tagen hat der Wissenschaftler Bogdan Kulynych nachgewiesen,
       dass Twitters Bildbeschneidungsalgorithmus jüngere und dünnere Gesichter
       mit heller Haut bevorzugt und dabei weibliche Gesichtszüge stereotypisiert.
       Die Ergebnisse seiner Analyse reichte er beim Bug-Bounty-Programm von
       Twitter ein, einem Wettbewerb, den der Konzern im Rahmen der
       Hackerkonferenz Defcon in Las Vegas veranstaltet hatte.
       
       Die Arbeit hat Twitter überzeugt: Kulynych, der als Doktorand am Security
       and Privacy Engineering Lab der École polytechnique fédérale de Lausanne
       (EPFL) forscht, erhielt ein Preisgeld in Höhe von 3.500 Dollar.
       
       Dass Twitters [1][Algorithmen verzerrt und strukturell rassistisch sind],
       ist freilich keine neue Erkenntnis. Im vergangenen Jahr war Twitter
       öffentlich in die Kritik geraten, nachdem mehrere Nutzer:innen
       berichteten, dass der Algorithmus beim automatischen Zuschnitt von Fotos
       schwarze Menschen ausschneidet. Im Mai dieses Jahres hat der Konzern nach
       einer internen Prüfung das Feature abgeschaltet. Gelöst ist das Problem
       damit nicht. Dass Twitter seiner diskriminierenden KI mit einem
       öffentlichen Wettbewerb zu Leibe rücken will, zeugt aber von einem hohen
       Maß an Transparenz und einer offenen Fehlerkultur im Unternehmen. Es ist
       der Versuch, die viel beschworene Schwarmintelligenz in kontrollierte
       Bahnen zu lenken.
       
       Normalerweise werden solche Bug-Bounty-Programme – ähnlich wie Hackathons –
       aufgelegt, um die Robustheit der Firmware zu überprüfen. So zahlt etwa
       Apple über eine Million Dollar „Kopfgeld“ an Sicherheitsforscher:innen,
       die Bugs in seinem Betriebssystem finden.
       
       ## Immer noch unterrepräsentiert
       
       Eine Sicherheitslücke tut keinem weh: Der ethische Hacker, der diese
       entdeckt, darf sich über ein nettes Preisgeld freuen, das Unternehmen
       bekommt einen Penetrationstest zum Spottpreis. Wenn aber die Algorithmen
       auf den Prüfstand gehoben werden, geht es nicht bloß um ein paar
       Stellschrauben im Maschinenraum, sondern um die Firmenphilosophie.
       
       Twitter und andere Techkonzerne haben zwar eigene Ethikabteilungen, deren
       Repräsentant:innen sich gerne mit hehren Worten an die Öffentlichkeit
       wenden, [2][die jedoch nicht mehr als ein Feigenblatt sind] – zumal das
       Management häufig selbst nicht den eigenen ethischen Standards genügt. So
       wurde die äthiopischstämmige Google-Ethikerin Timnit Gebru vor einigen
       Monaten gefeuert, nachdem sie in einer internen Mail offen die
       Unternehmenskultur und den Umgang mit Minderheiten kritisierte.
       
       Zwar haben Techkonzerne schon vor einigen Jahren angekündigt, ihre
       Entwicklerteams diverser zu machen. Doch in den Softwareschmieden des
       Silicon Valley sitzen noch immer mehrheitlich weiße junge Männer aus der
       Mittel- und Oberschicht, die – häufig unbewusst – ihre Werte und
       Weltanschauung im Programmcode formulieren. Frauen und Schwarze sind in
       Führungspositionen deutlich unterrepräsentiert. Wenn Twitter nun die
       Prüfung seiner diskriminierenden Werkzeuge crowdsourct, ist es ein wenig
       so, als hätte jemand die Fenster der muffigen Nerdbüros geöffnet.
       
       ## Ausbeutung der Jungen
       
       Die Ergebnisse, die Twitters Bug-Bounty-Programm zutage förderte, sind auch
       aus kultureller Perspektive interessant. So konnte die Drittplatzierte, die
       iranischstämmige Ingenieurin Roya Pakzad, aufzeigen, dass bei
       englischsprachigen und arabischen Memes meist der englische Text
       hervorgehoben wird. Vielleicht, weil diese Sprache mehr Menschen sprechen,
       vielleicht aber auch, weil den Modellen die Annahme zugrunde liegt, dass
       Englisch kulturell überlegen sei.
       
       Bleibt die Frage, wie Twitter mit den Befunden umgeht. Ist das Ganze nur
       ein technologisches Greenwashing, eine PR-Aktion, mit der man sich ein
       gutes Gewissen verschafft? Oder münden die Analysen tatsächlich in größeren
       Reparaturarbeiten? Bug-Bounty-Programme sind nicht unumstritten. Kritiker
       monieren, dass Unternehmen dadurch junge Programmierer:innen ausbeuten
       würden.
       
       Statt Hacker:innen mit einem Fingerlohn abzuspeisen, solle man ihnen
       lieber anständige Löhne mit einer Krankenversicherung bezahlen, heißt es.
       Wie Google und Facebook beschäftigt auch Twitter
       Vertragsarbeiter:innen auf den Philippinen, einen digitalen
       Putztrupp, der für ein paar Dollar am Tag den Müll aus dem Netz entfernen
       muss. Vielleicht wäre eine faire Bezahlung der erste Schritt zu mehr
       Verantwortung. Reparaturen kann man outsourcen. Ethik aber nicht.
       
       12 Aug 2021
       
       ## LINKS
       
 (DIR) [1] /Vorwuerfe-von-schwarzer-KI-Forscherin/!5730475
 (DIR) [2] /Hate-Speech-im-Netz/!5781835
       
       ## AUTOREN
       
 (DIR) Adrian Lobe
       
       ## TAGS
       
 (DIR) Diversität
 (DIR) Twitter / X
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Schwerpunkt Rassismus
 (DIR) Gender
 (DIR) TikTok
 (DIR) Soziale Medien
 (DIR) Diskriminierung
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Anonymität gegen Rassismus bei Airbnb: Namenlos in den Urlaub
       
       Airbnb verzichtet im US-Bundesstaat Oregon künftig auf den vollen Namen und
       das Gesichtsfoto von Gäst:innen. Das soll gegen Rassismus schützen.
       
 (DIR) Künstliche Intelligenz im Service: Die miauende Robo-Kellnerin
       
       Roboterdesign wirkt oft stereotyp, dabei steckt darin sogar utopisches
       Potenzial. Die Dienstleistungs-Zukunft könnte der KI gelten.
       
 (DIR) Algorithmen und Diskriminierung: Maschinelle Sittenwächter
       
       Plattformen wie Instagram und Tiktok löschen Fotos von dicken Menschen, die
       „zu viel“ nackte Haut zeigen. Das befeuert die Diskriminierung.
       
 (DIR) Hate Speech im Netz: Wenn Maschinen moderieren
       
       Hasskommentare sind in den sozialen Medien allgegenwärtig. Sie zu melden
       ist oft frustrierend – denn hinter den Entscheidungen stecken Algorithmen.
       
 (DIR) Diskriminierung in Videochats: Eine KI ist auch nur ein Mensch
       
       Die Klangfilter von „Zoom“ und Co lassen Stimmen von Frauen weniger
       ausdrucksstark erscheinen – und bewirken eine strukturelle Benachteiligung.