# taz.de -- Diskriminierung in Videochats: Eine KI ist auch nur ein Mensch
       
       > Die Klangfilter von „Zoom“ und Co lassen Stimmen von Frauen weniger
       > ausdrucksstark erscheinen – und bewirken eine strukturelle
       > Benachteiligung.
       
 (IMG) Bild: Bekommen nicht nur weniger Geld, sondern werden auch schlechter gehört: Frauen am Arbeitsplatz
       
       Die Stimmen von Frauen werden in Onlinegesprächen benachteiligt, haben
       Fortscher*innen herausgefunden. Meldungen wie diese bringen das Bild
       „nüchterner“ Technologie zum Bröckeln. Doch [1][wenn digitale Anwendungen
       diskriminieren], liegt das meist an den Menschen, die sie entwickeln.
       
       Das Arbeitsmeeting mit den Kolleg*innen via „Teams“, das
       Universitätsseminar via „Zoom“ oder die Vereinssitzung via „Skype“: In der
       Coronapandemie sind Videokonferenzen für viele Menschen alltäglich
       geworden. Umso gewichtiger sind die Erkenntnisse [2][einer kürzlich
       veröffentlichten Studie] der Universität Magdeburg.
       
       In Zusammenarbeit mit der dänischen Universität Sønderborg fanden
       Wissenschaftler*innen heraus, dass Frauen wegen der Stimmverarbeitung
       in Onlinegesprächen benachteiligt sind. Nicht alle Anteile der Sprache
       werden übertragen, gerade höhere Frequenzen werden ausgedünnt, heißt es
       dort. In der Konsequenz werden weibliche Redebeiträge als weniger
       ausdrucksstark, kompetent und charismatisch wahrgenommen.
       
       „An der Entwicklung von Informationstechnik sind nun mal vor allem Männer
       beteiligt. Im Jahr 2018 waren beispielsweise im deutschen IT-Bereich nur
       knapp 17 Prozent aller Angestellten Frauen“, erklärt Lisa Hanstein und
       bezieht sich dabei auf eine Untersuchung der auf Tech-Jobs spezialisierten
       Plattform „Honeypot“. Sie arbeitet zum Einfluss unbewusster Vorurteile
       (auch engl. „biases“) auf die Entwicklung digitaler Anwendungen an der
       Europäischen Akademie für Frauen in Politik und Wirtschaft Berlin (EAF
       Berlin), einer Forschungs- und Beratungsorganisation, die sich für mehr
       Vielfalt in Führungsebenen in Wirtschaft, Politik und Wissenschaft
       einsetzt.
       
       ## Der rassistische Seifenspender
       
       Hanstein war selbst mehrere Jahre als Softwareentwicklerin bei SAP
       beschäftigt und ist sich der Homogenität der Branche bewusst. Weil
       Diversität in der Belegschaft fehlt, werden die Belange zahlreicher
       gesellschaftlicher Gruppen bei der Entwicklung neuer Anwendungen schlicht
       nicht mitgedacht. Dabei sind die Videochat-Tools nur ein Beispiel für
       diskriminierende digitale Anwendungen von vielen.
       
       Besondere Aufmerksamkeit erlangten etwa automatische Seifenspender, deren
       Infrarot-Sensor nur die Hände von weißen Menschen erkennt, nicht aber die
       von Schwarzen. Ein [3][mehrere Millionen Mal geklicktes Video], in dem ein
       Schwarzer Mann demonstriert, dass besagte Technologie zwar nicht auf seine
       Hand, dafür aber ein weißes Papierhandtuch reagiert, führt die teils
       absurden Auswirkungen des Problems vor Augen.
       
       Hinzu komme, dass die Diskriminierung durch eine algorithmische
       Voreingenommenheit (auch engl. „Algorithmic Bias“) nicht selten
       intersektional wirke, wie Hanstein betont: „Wenn wir
       Gesichtserkennungsmodule nur mit Bildern von weißen Männern trainieren,
       sind diese Module nun mal sehr gut im Erkennen von weißen Männern,
       [4][nicht aber von Schwarzen Frauen], beispielsweise.“
       
       Auch wenn beides nicht voneinander zu trennen ist: Es spiele sowohl eine
       Rolle, welche Daten einer künstlichen Intelligenz für ihre Fortentwicklung
       zur Verfügung stehen als auch, wer mit welchen unbewussten Denkmustern an
       der Entwicklung digitaler Anwendungen mitarbeitet. „IT gilt als sehr
       rational. Dabei vergessen wir, dass sie von Menschen hergestellt wird und
       diese Menschen in Stereotypen denken, oft ohne böses Zutun oder Absicht.
       Technik ist wie ein Spiegel der Gesellschaft, der schlicht wiedergibt, was
       wir als Individuen mitbringen.“
       
       ## Diskriminierender Algorithmus
       
       Beispiele wie diese illustrieren die Problematik, bilden jedoch noch nicht
       ihre enorme gesellschaftliche Tragweite ab, die sensiblen Bereiche, die sie
       tangiert. Eine Studie der Antidiskriminierungsstelle des Bundes aus dem
       Jahr 2019 umfasst ähnliche Sachverhalte im Gesundheitsbereich, im
       Kreditwesen oder bei staatlichen Sozialleistungen. Österreich etwa streitet
       schon seit mehreren Jahren über einen Algorithmus, der die Jobchancen von
       Arbeitslosen vorhersagen und sie für entsprechende Schulungen den
       Mitarbeiter*innen des Arbeitsmarktservice (AMS) vorschlagen soll –
       oder eben nicht.
       
       Weil das System mit bestehenden Daten gefüttert wird, wird Frauen aufgrund
       schlechterer Jobchancen automatisch ein Punkt abgezogen, ein weiterer, wenn
       sie Kinder haben. Daraufhin folgt die Einteilung in hohe, mittlere oder
       niedrige Chancen auf Wiedereingliederung – blind für bereits bestehende
       Diskriminierung von Frauen am Arbeitsmarkt, die durch den Algorithmus
       verfestigt wird. Es scheint ein Grundproblem künstlicher Intelligenz zu
       sein: Ihr Wissen basiert auf dem Status quo der aktuellen Missstände, die
       sie reproduziert – oder potenziert.
       
       In Deutschland [5][könnte das Onlinezugangsgesetz], wonach ab Ende 2022 die
       Verwaltungsdienstleistungen von Bund und Ländern online angeboten werden
       sollen, zu einem ähnlichen Prüfstein werden. Dabei geht es um fast 600
       Leistungen, von Führerscheinbeantragung über Namensänderungen und
       Eheschließungen bis hin zur Einbürgerung, die digitalisiert werden sollen.
       
       „Es sind teilweise kritische Dinge, über die entschieden werden soll und
       die Tragweite ist ungleich größer: Bei einer diskriminierenden
       Einzelentscheidung einer Person gegenüber einer anderen, gibt es immerhin
       eine gewisse Transparenz. Die Entscheidung eines ganzen IT-Systems
       betrifft im Gegensatz dazu viel mehr Menschen – und sie ist wesentlich
       weniger sichtbar. Die betroffene Person kann den Vorgang nicht richtig
       nachvollziehen, weil die Funktionsweise der Anwendung undurchsichtig ist“,
       so Hanstein.
       
       ## Die Chancen von KI
       
       Die EU-Kommission hat Ende April einen KI-Gesetzesvorschlag vorgelegt, um
       derartig große Herausforderungen genauer zu regeln. Darin ist ein
       generelles Verbot von Massenüberwachung oder Manipulation der
       Bürger*innen vorgesehen, [6][womit einem „Social Scoring“] nach
       chinesischem Vorbild vorgebeugt werden soll, das bestimmtes Verhalten mit
       Vorteilen im Alltag belohnt oder mit zusätzlichen Hürden, etwa höheren
       Steuern oder Reisebeschränkungen, bestraft.
       
       „Hochrisiko“-Anwendungen, etwa im Bereich der Polizei und im juristischen
       Kontext, die sensible Infrastruktur betreffen und solche, die
       Bewerber*innen für einen Job auswählen, sollen in ihrer Entwicklung
       wiederum gemeinsam mit den verwendeten Daten und ihrer Nutzung
       dokumentiert, transparent gemacht und von Menschen überwacht werden.
       
       Das geplante System des AMS in Österreich fiele vermutlich in diese
       Kategorie. Der Gesetzgebungsprozess, in dem sowohl das EU-Parlament als
       auch die Mitgliedstaaten im Rat dem Entwurf zustimmen müssen, kann bis zu
       zwei Jahre dauern Bei aller Dringlichkeit, ein Bewusstsein für das
       Diskriminierungspotenzial von Algorithmen zu schaffen und an den
       menschlichen Stellschrauben zu drehen, die letztlich dafür verantwortlich
       sind, betont Hanstein die Bedeutung von künstlicher Intelligenz, die
       Chancen, die sie im Alltag und der Arbeitswelt eröffnet.
       
       „Sie kann Zusammenhänge erkennen, die wir gar nicht wahrnehmen würden. Der
       sehr große Vorteil ist: IT-Systeme werden nicht müde, sie haben keinen
       sinkenden Blutzuckerspiegel und keine Launen. Wir können sie genauso gut
       dafür einsetzen, bestehende Diskriminierung sichtbar zu machen und fairere
       Prozesse zu ermöglichen.“
       
       ## Hassrede identifizieren
       
       Als Beispiel für eine KI, die gesellschaftlichen Problemen ausdrücklich
       entgegenwirken könnte, nennt sie das Projekt „Decoding Antisemitism“. Die
       Alfred Landecker Foundation arbeitet unter anderem mit der Technischen
       Universität Berlin und dem King’s College London an einer
       Open-Source-Lösung, die implizite Hassrede, beispielsweise in Form von
       verunglimpfenden Stereotypen oder Verschwörungsmythen in den sozialen
       Medien, ausfindig machen soll.
       
       Großes Potenzial bergen auch Anwendungen, die die Sprache in
       Stellenausschreibungen glätten, um sie für Frauen, die ihre eigenen
       Kompetenzen oftmals unterschätzten und von einer Bewerbung
       zurückschreckten, attraktiver zu machen, und so einem „Gender Bias“
       entgegenwirken. Ob progressive, aber vergleichsweise kleine Initiativen wie
       diese gegenüber dem Einfluss der „Big Player“ wie der KI in der
       Google-Suche und dem undurchsichtigen Facebook-Algorithmus etwas
       entgegensetzen können, ist fraglich.
       
       Doch Hanstein ist sich sicher, dass in der Branche allmählich ein
       Problembewusstsein einkehrt. Eine Übersetzung in gute Standards und
       Prozesse gebe es in der Arbeitsrealität derer, die an der Entwicklung
       digitaler Anwendungen beteiligt sind, allerdings noch nicht.
       
       29 May 2021
       
       ## LINKS
       
 (DIR) [1] /Gender-Bias-bei-Uebersetzungsoftware/!5766373
 (DIR) [2] http://www.essv.de/essv2021/pdfs/06_siegert_v2.pdf
 (DIR) [3] https://twitter.com/nke_ise/status/897756900753891328
 (DIR) [4] /Dokumentarfilm-Coded-Bias/!5770648
 (DIR) [5] /Regierung-plant-Identitaetsnummer/!5737871
 (DIR) [6] /Machtkampf-zwischen-USA-und-China/!5645065
       
       ## AUTOREN
       
 (DIR) Arabella Wintermayr
       
       ## TAGS
       
 (DIR) Diskriminierung
 (DIR) Sexismus
 (DIR) Podcast „Vorgelesen“
 (DIR) GNS
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Diversität
 (DIR) Schwerpunkt Rassismus
 (DIR) Schwerpunkt Rassismus
 (DIR) Datenschutz
 (DIR) Datenschutz
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Twitter-KI diverser machen: Suche nach dem Superprogrammierer
       
       Das US-Netzwerk Twitter lässt seine Algorithmen von Externen prüfen. Aber
       reicht das am Ende, um die Diskriminierung zu stoppen?
       
 (DIR) KI statt Parlamentarier*nnen: Wunsch nach automatisierter Politik
       
       Laut einer Studie würde eine Mehrheit Politiker*innen durch KI
       ersetzen. Doch das wäre keine Chance, sondern eine Gefahr für Demokratie.
       
 (DIR) Gender Bias bei Übersetzungsoftware: Treffen sich zwei Ärztinnen
       
       Maschinelle Übersetzungen sind nicht neutral, sondern geprägt von
       männlicher Norm. Sie reproduzieren real existierende Zuschreibungen.
       
 (DIR) Dokumentarfilm „Coded Bias“: Einäugige Maschinen
       
       Menschen können rassistisch und sexistisch sein – so wie die Algorithmen,
       die uns das Leben erleichtern: Die Hamburger W3 zeigt die Doku „Coded
       Bias“.
       
 (DIR) Regierung plant Identitätsnummer: Eine Ziffer fürs Leben
       
       Die Bundesregierung plant eine einheitliche Identitätsnummer für jeden
       Bürger. Datenschützer sind skeptisch.