# taz.de -- die dritte meinung: Künstliche Intelligenz hat ein Sexismusproblem, sagt Alexandra Geese
       
       Können Algorithmen sexistisch sein? Eigentlich sind sie mathematische
       Regeln und als solche geschlechtsneutral. Aber: Algorithmen verknüpfen
       Informationen, die Entwickler*innen für sie auswählen. Einige Beispiele: 60
       Prozent der Medizinstudierenden und 46 Prozent der Ärzt*innen in
       Deutschland sind Frauen. Wer aber den neutralen Begriff „doctor“ in Google
       Translate eingibt, bekommt auf Deutsch einen männlichen „Arzt“ übersetzt.
       Gleiches gilt bei Journalisten, Psychologen und Geschäftsführern. Jahrelang
       diskriminierte auch das Karrierenetzwerk XING Frauen. Bei der Suche nach
       Journalisten oder Grafikern wurden nur Männer angezeigt – „mitgemeinte“
       Frauen blieben außen vor. In der Google-Bildersuche tauchen zum Stichwort
       „Mensch“ unter den Top-Suchergebnissen ausschließlich weiße Männer und
       geschlechtsneutrale Strichmännchen auf. Auch mit solchen Datensätzen wird
       künstliche Intelligenz trainiert.
       
       Diese Programme bilden bestehende Unterschiede nicht nur ab, sondern
       verschärfen sie. Angesichts der unzähligen gesellschaftlich sensiblen
       Einsatzbereiche solcher Programme in der Zukunft müssen wir sicherstellen,
       dass künstliche Intelligenz Diskriminierung nicht massiv verschärft. Wie
       lässt sich das Problem lösen?
       
       Erstens müssen Anbieter die aktuellen Missverhältnisse beim Design ihrer
       Programme mitdenken. Zweitens müssen Unternehmen den Frauenanteil in der
       Tech-Branche steigern – auch über eine Frauenquote. Drittens muss eine
       Sensibilisierung für Gender- und Rassismusfragen im Informatikstudium
       verankert werden. Viertens kann Forschung eine wichtige Rolle bei der
       Erarbeitung diskriminierungsfreier Datensätze und beim Testen von
       Programmen auf Diskriminierungsfreiheit spielen. Und fünftens muss eine
       paritätisch besetzte europäische Algorithmenaufsicht eingerichtet werden,
       die Algorithmen auf Diskriminierungsfreiheit prüft.
       
       Hier liegt Europas Chance. Diskriminierungsfreie künstliche Intelligenz
       kann unser Alleinstellungsmerkmal werden.
       
       21 Feb 2019
       
       ## AUTOREN
       
 (DIR) Alexandra Geese
       
       ## ARTIKEL ZUM THEMA