# taz.de -- Konferenz gegen Tech-Konzerne: „Muss es wirklich künstliche Intelligenz sein?“
> Julia Kloiber ist Mitgründerin des feministischen Tech-Kollektivs Superrr
> Lab. Hier spricht sie über Macht, Mythen und Missverständnisse rund um
> KI.
(IMG) Bild: Bunt und kritisch: das Kollektiv Superrr
taz: Frau Kloiber, Ihr Kollektiv Superrr versucht mit der
Veranstaltungsreihe in Berliner Bibliotheken mit KI-Mythen aufzuräumen.
Warum?
Julia Kloiber: Es braucht grundsätzlich einen breiteren gesellschaftlichen
Diskurs zu neuen Technologien. Wir sehen in vielen Bereichen, welchen
Einfluss Technologien wie KI auf die Gesellschaft nehmen können. Wir finden
es wichtig, Menschen zu ermutigen, sich damit auseinanderzusetzen. Um zum
Beispiel zu sagen: Wir wollen keine biometrische Massenüberwachung in
unserer Nachbarschaft. Die schadet uns als Gesellschaft mehr, als sie uns
bringt.
taz: Warum ausgerechnet so analoge Orte wie Bibliotheken?
Kloiber: Bibliotheken sind Orte des Wissens und der Begegnung. Sie
erreichen Menschen jeden Alters, von technikaffin bis unerfahren. Für uns
war es besonders wichtig, mit einer möglichst vielfältigen Gruppe ins
Gespräch zu kommen und gemeinsam hinter populäre Erzählungen rund um KI zu
blicken.
taz: Was ist der größte Mythos um künstliche Intelligenz für Sie?
Kloiber: Dass KI unvermeidlich ist. Die Erzählung dazu lautet: Wir müssen
im Wettrennen zwischen USA und China Schritt halten. Und: Wenn wir den
technologischen Fortschritt hinterfragen, bleiben wir zurück, dann werden
wir abgehängt.
taz: KI entwickelt sich rasant. Haben wir überhaupt eine Atempause, um da
gegenzusteuern?
Kloiber: Die Unternehmen hinter den KI-Tools, hinter Sprachmodellen wie
ChatGPT, Claude, Gemini schreiben keine schwarzen Zahlen. Deshalb bringen
sie immer neue Marketing-Narrative heraus, neue Tools, neue Verbesserungen.
Das führt dazu, dass wir das Gefühl bekommen, alles entwickelt sich rasant
weiter, und wir kommen nicht mehr hinterher. Dabei ist es gerade jetzt
wichtig, KI gut zu regulieren.
taz: In Berlin gibt es eine Debatte über den Einsatz von KI-gestützter
Videoüberwachung an „kriminalitätsbelasteten“ Orten wie dem Görlitzer Park
und als Objektschutz. Bringen diese Technologien Sicherheit oder ist das
auch nur ein Mythos?
Kloiber: Die Studienlage ist extrem dünn, es gibt keine Belege dafür, dass
der Einsatz solcher Technologien zu mehr Sicherheit führt. Ich finde das
äußerst bedenklich. Die Argumentation ist am Anfang immer, dass diese
Systeme nur an bestimmten Orten in abgesteckten Bereichen eingesetzt werden
sollen. Die Gefahr ist, dass sie dadurch normalisiert werden und der
Einsatz ausgeweitet wird. Außerdem: Muss es wirklich die überkandidelte KI
sein, oder gibt es andere Stellschrauben wie Präventions- und Sozialarbeit,
bevor wir in solch sensible Bereiche vordringen?
taz: Wie demokratisch sind die neuen KI-Technologien?
Kloiber: Wir beobachten eine Machtkonzentration in den Händen weniger
Konzerne. Mit demokratischen Prinzipien ist das schwer vereinbar. Die CEOs
hinter den US-Tech-Konzernen waren bei Trumps Inauguration anwesend. Einige
von ihnen haben sich nun als Antidemokraten herausgestellt. Zum Beispiel
Peter Thiel, einer der Gründer des Unternehmens Palantir. Er glaubt nicht,
dass Freiheit und Demokratie miteinander vereinbar sind und hat großen
Einfluss auf die Tech-Elite in den USA.
taz: Inwiefern kann das Auswirkungen auf die Repräsentation von bestimmte
Gruppen und Minderheiten haben?
Kloiber: Wenn Strukturen hinter der KI demokratie- und
minderheitenverachtend sind, hat das Auswirkungen auf die KI-Tools. Solange
Gesellschaften rassistisch, sexistisch, homophob sind, werden Sprachmodelle
auch mit solchen Daten trainiert. Wichtig ist es zu verstehen, dass man
diese Probleme nur bedingt auf der technischen Ebene mit Debiasing lösen
kann, denn es sind strukturelle gesellschaftliche Herausforderungen.
taz: Debiasing?
Kloiber: Debiasing ist der Versuch, Verzerrungen und Diskriminierungen in
KI-Modellen gegenzusteuern. KI-Modelle werden zu stark mit Datensätzen aus
bestimmten Regionen wie den USA trainiert. Dadurch gibt es Lücken und
Verzerrungen in den Daten. Bei Bildgeneratoren etwa hat man versucht
gegenzusteuern, dass KI immer nur weiße männliche Ärzteteams erstellt. Das
ist ein plakatives Beispiel für Debiasing.
taz: Was kann ich als User gegen die gefühlte Unvermeidlichkeit der KI tun?
Kloiber: Ich bin immer skeptisch, wenn der Fokus zu sehr auf den
Nutzer:innen liegt. Ich finde es wichtig, sich zu informieren, sich
politisch einzubringen, gegen bestimmte Dinge zu protestieren und von der
Politik zu fordern, dass der Einsatz von KI in Hochrisikobereichen streng
reglementiert wird. Wie zum Beispiel beim Recruiting, wo algorithmische
Verzerrung zu Diskriminierung führen kann und Entscheidungen oft
intransparent sind.
8 Apr 2026
## AUTOREN
(DIR) Sirko Salka
## TAGS
(DIR) Big Tech
(DIR) Elon Musk
(DIR) Soziale Bewegungen
(DIR) Social-Auswahl
(DIR) Schwerpunkt Künstliche Intelligenz
(DIR) Schwerpunkt Künstliche Intelligenz
(DIR) Amazon
(DIR) Urbanität
## ARTIKEL ZUM THEMA
(DIR) Künstliche Inteligenz: Die Schattenseiten der Technik
KI ist überall: Sogar in Dating, Kunst und Musik. Big Tech treibt ihre
Entwicklung voran. Doch auf Mensch und Umwelt wirkt sie sich oft negativ
aus.
(DIR) Kampagne Fairness Jetzt: Bürgerräte sollen KI bändigen
ChatGPT und Co haben massive gesellschaftliche Auswirkungen, sind aber kaum
reguliert. Eine neue Protestbewegung gegen Big-Tech möchte das ändern.
(DIR) Einzug in den Amazon-Tower: Die Amazonisierung der Stadt
Der Tech-Konzern ist in das Hochhaus an der Warschauer Straße gezogen.
Initiativen konnten das nicht verhindern, setzen ihren Protest jedoch fort.
(DIR) Sammelband „Technopolis“: Geplünderte Urbanität
Wie verändern sich Kapitalismus und Städte? Das kann man gut im Silicon
Valley rund um IT-Giganten wie Apple, Facebook und Google beobachten.