# taz.de -- Künstliche Intelligenz: Macht in falschen Händen
> Die Aufholjagd bei Künstlicher Intelligenz in Europa droht, die Fehler
> des Silicon Valleys zu wiederholen. Es braucht eine Alternative zu
> privaten Akteuren.
Künstliche Intelligenz galt zunächst als bloßer Hoffnungsträger für
ökonomischen Fortschritt. Inzwischen avanciert die KI zum universalen
Heilsbringer, dem man ohne Zögern auch soziale Herausforderungen
anvertraut, von steigenden Depressionszahlen bis zur Bekämpfung der
Klimakrise. [1][Laut Studien] könne KI in den kommenden 15 Jahren das
Wirtschaftswachstum jährlich um 0,8 Prozent steigern – bis zu 4,5 Billionen
zusätzliche Wertschöpfung. Verständlich, dass Deutschland hier nicht den
Anschluss verlieren möchte.
Wäre da nicht eine gewaltige Gewitterfront, die dunkel am Horizont aufzieht
und droht, den Hoffnungen und Heilsversprechen das Licht zu nehmen: die
Macht autoritärer, anti-demokratischer Kräfte in Person von Elon Musk,
Peter Thiel und anderen. Dass nicht wenige der Tech-Eliten wegen ihres
antidemokratischen Wirkens wirklich gefährlich sind, ist spätestens seit
[2][Musks offener Unterstützung für die AfD] im vergangenen
Bundestagswahlkampf weitgehend geteilter Konsens in Deutschland.
Vom Musk’schen DOGE-Feldzug, ausgeführt im Geist der Sillicon-Valley-Devise
„move fast and break things“ über Peter Thiels großzügige Förderung des
Vizepräsidenten J. D. Vance bis hin zu ihren offenen Sympathien für Curtis
Yarvin. Problem erkannt, Problem gelöst? Wohl kaum. Die eigentliche Gefahr
liegt im reflexhaften Nachahmen. Nachgeahmt werden dabei nicht nur digitale
Infrastrukturen, sondern eine Geisteshaltung, die längst auch diesseits des
Atlantiks Fuß gefasst hat.
Tempo wird zum Wert an sich, Macht wandert in technische Systeme und damit
in die Hände privater Akteure. Zugleich verliert Rechtsstaatlichkeit im
Namen eines verschlankten Staats an Gewicht. Man erinnere sich nur an die
Aussage von Telekom-Chef Timotheus Höttges, Europa brauche ein „[3][DOGE]“.
## Schießübungen und Hühnerschlachten
Ex-Silicon Valley Coderin Aya Jaff reflektiert in ihrem Buch
„[4][Broligarchie]“ selbstkritisch ihre eigene Zeit als ‚Tech-Bro‘ im
Silicon Valley und warnt heute vor den Ideologien in der Tech-Welt. Als
junge Studentin mit einem Stipendium des Milliardärs Tim Draper ins Silicon
Valley eingeladen fand sie sich in einer Art Survival-Kult wieder:
Waffenübungen, Hühnerschlachten, ritualisierte Härtetests gehörten zum
Start-up-Habitus. „[5][Mehr maskuline Energie]“, fordert Mark Zuckerberg.
Regulierungsdrang dürfte bei Tech-Bros wohl als Ausdruck blanker Impotenz
gelten, als regelrechte Kastration möglicher Innovationsergüsse. Wer diese
Szenen nur als schrillen Exzess überdrehter Tech-Machos abtut, übersieht
ideologische Tendenzen, die weit tiefer reichen. So zeigt der Philosoph
Rainer Mühlhoff in seinem Buch „[6][Künstliche Intelligenz und der neue
Faschismus]“, wie sich in Tech-Ideologien schon länger faschistoide
Potenziale und Haltungen herausbilden: eine Mischung aus antidemokratischer
Härte, sozialdarwinistischem Leistungsfetisch und technologischem
Solutionismus.
Dass die Tech-Ideologien mit dieser Vermengung besonders anschlussfähig für
autoritäre, faschistoide Politik geworden sind, zeigt sich nach Mühlhoff an
drei Merkmalen: Erstens an einem dezidiert antidemokratischen Wirken, das
rechtsstaatliche Verfahren, Verwaltungsabläufe und parlamentarische
Streitkultur gezielt untergräbt. Zweitens an einer Gewaltförmigkeit, die
aus einer Lust an Zerstörung und einem hierarchischen und
entmenschlichenden Menschenbild erwächst.
## Fatale Schicksalsergebenheit
Das zeigt sich in politisch administrativen und physischen Übergriffen
ebenso wie in Form von [7][Doxxing], Trollkampagnen, Hassreden sowie
[8][Deepfakes]. Und drittens in der gezielten Indienstnahme neuester
Technologien, die von ihren Befürworter:innen als unvermeidliche
Naturkräfte dargestellt werden. All dies ist nicht als historische
Gleichsetzung zu verstehen, sondern als Weckruf für die Gegenwart.
Auf den ersten Blick scheint Europa gut gewappnet zu sein: Deutschland- und
[9][EuroStacks], der [10][AI Act], die DSGVO, der Digital Market Act und
[11][Digital Services Act] und nicht zuletzt die omnipräsente digitale
Souveränität. Speziell die Dimensionen des EuroStack sind enorm: eine
industriepolitische Initiative, die auf den Aufbau eigenständiger
europäischer Infrastruktur für Chips, Cloud und Daten – und damit auch für
KI – zielt.
Doch allein neueste Initiativen wie der [12][digitale Omnibus], das
Reformpaket der EU-Kommission, das nicht nur Digitalgesetzgebung
vereinheitlicht, sondern wichtige Datenschutz- und Sicherheitsstandards
abschwächt, ist Ausdruck des neuen Kurses hin zu einem weit geteilten
Fortschritts- und Technikoptimismus. Nach der Isolierung der vermeintlichen
US-amerikanischen Gefahr – Alt-Right-Politik und wahnsinnige Tech-Bros,
wogegen hier europäische Werte und verlässliche Regulierung gelten – geht
es jetzt darum, sich unbesorgt der eigenen technologischen KI-Aufholjagd zu
widmen.
So hören wir, man komme an der Implementierung von künstlicher Intelligenz
ohnehin nicht vorbei, Europa brauche mehr Start-up-Mentalität, könne sich
mehr Regulierung schlicht nicht leisten, da man sonst im globalen
Wettbewerb mit den USA und China zurückfalle. Kurzum, es brauche eine
[13][„Innovationsführerschaft“, wie Kanzler Friedrich Merz] die Richtung
vorgab.
## KI beschleunigt antidemokratische Politik
Was als nüchterne Notwendigkeit präsentiert wird, ordnet politische
Entscheidungen den vermeintlichen Sachzwängen des Wettbewerbs unter,
erklärt technologische Entwicklungen für unvermeidlich und vertieft so
bestehende staatliche Abhängigkeiten von unternehmerischer Macht. Auch in
Deutschland ist KI Beschleuniger antidemokratischer Politik. Wie rasch
staatliche Handlungsfähigkeit in Abhängigkeiten von privaten
Infrastrukturen gerät, lässt sich am Einsatz der polizeilichen
Analysesoftware [14][Gotham der US-Firma Palantir] in mehreren
Bundesländern beobachten.
Zum Einsatz kommen prädiktive Analysesysteme zur automatisierten
Zusammenführung großer Datenbestände, die Gegenstand von
Verfassungsbeschwerden sind. Alternativlosigkeit als Argument – und das bei
einer Überwachungssoftware für die Polizei. Damit dehnt sich nur der
Datenhunger privater Tech-Unternehmen auf staatliche Institutionen aus,
zugleich wird auch seit Jahrzehnten vorliegende Forschung zur prädiktiven
Polizeiarbeit ignoriert, die zeigt, dass die strukturelle Diskriminierung
marginalisierter Gruppen in solchen Systemen kein Bug ist.
[15][Der Schweiz war die Gier nach Daten zu gefährlich.] Für deutsche
Sicherheitsbehörden ist es das offenbar nicht. Der verbreitete
Investor:innensprech, der Maschinen Intelligenz, Autonomie oder gar
Kreativität zuschreibt und KI als kommende Superintelligenz imaginiert,
verdeckt, womit wir es tatsächlich zu tun haben.
Demgegenüber eröffnet eine Betrachtung von KI als soziotechnisches
Machtgefüge die Möglichkeit, ihre tiefe Verstrickung in bestehende soziale
Praktiken, institutionelle Arrangements, ökonomische Interessen und
politische Narrative sichtbar zu machen. Diese Perspektive reicht weiter
als die im kapitalistischen Rausch produzierten Science-Fiction-Erzählungen
der Big-Tech-Konzerne. KI erscheint hier weniger als quasi göttliche
Naturgewalt denn als politisches Projekt.
## Verführerischer Tech-Solutionismus
Darin wird durch Machine-Learning-Verfahren erzeugtes prädiktives Wissen
eingesetzt, um gesellschaftliche Ungewissheit in Scores und Risikoprofile
zu übersetzen. Als „[16][Menschensortiermaschine]“, wie es Mühlhoff nennt,
extrahiert KI aus kontextunabhängig angehäuften Daten korrelative Muster,
um Wahrscheinlichkeitsaussagen zur Anwendung scharfzustellen. Auf Einzelne
bezogen sind dies Bewertungen darüber, wer Kredit erhält, wer als zu
risikoreich gilt oder wie über den Zugang zu Jobs und Sozialleistungen
mitentschieden wird.
Zugleich rücken die materiellen Bedingungen in den Blick: massive
Datenextraktion, ausbeuterische Klick- und Labelarbeit im Globalen Süden,
energiehungrige Rechenzentren, globale Lieferketten, ein enormer Verbrauch
von Wasser, der Abbau seltener Erden sowie die fortlaufende Einbindung
unserer eigenen kognitiven Leistungen über unsere Endgeräte. In den Händen
weniger Tech-Konzerne reicht es daher nicht, wenn diese künftig europäisch
statt US-amerikanisch firmieren.
Solange regulatorische Schutzmechanismen aufgeweicht und politische
Gestaltungsspielräume zugunsten privatwirtschaftlicher Akteure verschoben
werden, bleibt das Kräfteverhältnis unverändert – und nährt den bereits
jetzt drohenden privatwirtschaftlichen Leviathan weiter. Wo KI als
politisches Projekt in bestehende Macht- und Marktlogiken eingebettet ist,
geht ihre Ausweitung häufig mit einer Verschiebung von Entscheidungsmacht
hin zu privatwirtschaftlichen Akteuren einher, getragen von einer
Tech-Kultur, die Geschwindigkeit, Skalierung und technische Machbarkeit
über demokratische Aushandlung stellt.
Am gravierendsten zeigt sich dies dort, wo KI für soziale Probleme in
Stellung gebracht wird: als vermeintlich neutrale Lösung, der man
reflexhaft folgt, sobald man sich vom Tech-Solutionismus verführen lässt.
Gerade deswegen braucht es eine grundlegende Skepsis gegenüber Tech-Lösung
für soziale Probleme. Wem nützt es, wenn komplexe politische Konflikte in
schnelle Maßnahmen übersetzt werden, die reduzieren, vereinfachen,
pauschalisieren?
Wo Ressourcenknappheit, Ungleichheit oder institutionelle Schieflagen als
Rechenprobleme erscheinen, stabilisieren Prognosen und Scores bestehende
Verhältnisse, statt sie zu verändern. Anstelle einer überstürzten
KI-Aufholjagd lohnt sich daher die Erinnerung an ein Prinzip des
Datenschutzpioniers Wilhelm Steinmüller: Technik muss sozial beherrschbar
sein, demnach gestaltbar, begrenzbar und demokratisch verantwortet.
In einer Zeit, in der autoritäre und faschistische Tendenzen erstarken und
technokratische Lösungen für soziale Probleme an Attraktivität gewinnen,
liegt die historische Chance darin, einen eigenständigen Weg zu wählen: KI
nicht entlang bestehender Macht- und Marktlogiken und jener dominanten
Tech-Kultur zu imitieren, sondern als gesellschaftliches Projekt zu
begreifen, über deren Zwecke, Grenzen, Einsatz – oder auch Abschaffung –
demokratisch verfügt werden muss.
21 Apr 2026
## LINKS
(DIR) [1] https://iab.de/presseinfo/kuenstliche-intelligenz-koennte-das-bip-wachstum-in-den-naechsten-15-jahren-um-jaehrlich-08-prozentpunkte-erhoehen/
(DIR) [2] /Elon-Musk-und-die-AfD/!6055388
(DIR) [3] /Nach-den-US-Wahlen/!6048702
(DIR) [4] https://www.ullstein.de/werke/aya-jaff-broligarchie/hardcover/9783430212120
(DIR) [5] /Mark-Zuckerbergs-Maennlichkeitsbild/!6062092
(DIR) [6] https://www.perlentaucher.de/buch/rainer-muehlhoff/kuenstliche-intelligenz-und-der-neue-faschismus.html
(DIR) [7] https://hateaid.org/doxxing/
(DIR) [8] /Deepfake/!t5618591
(DIR) [9] /Initiative-zur-IT-Unabhaengigkeit/!6110769
(DIR) [10] /Europaeische-KI-Verordnung/!6100435
(DIR) [11] /Digital-Services-Act/!t6045977
(DIR) [12] /Kritik-an-Digital-Reformen/!6154276
(DIR) [13] /Ergebnis-des-Digitalgipfels/!6126351
(DIR) [14] /Software-Palantir/!6170143
(DIR) [15] https://www.itmagazine.ch/artikel/86156/Zu_heikel_Palantir_blitzte_beim_Bund_jahrelang_ab.html
(DIR) [16] https://rainermuehlhoff.de/KI-und-der-neue-Faschismus-Reclam-Buch/
## AUTOREN
(DIR) Jan-Philipp Siebold
(DIR) Yannic Vitz
## TAGS
(DIR) Schwerpunkt Künstliche Intelligenz
(DIR) Krise der Demokratie
(DIR) Big Tech
(DIR) Reden wir darüber
(DIR) Technischer Fortschritt
(DIR) GNS
(DIR) Sexualisierte Gewalt
(DIR) Schwerpunkt Emmanuel Macron
(DIR) Schwerpunkt Künstliche Intelligenz
## ARTIKEL ZUM THEMA
(DIR) EU-Parlament: KI-Anwendungen für Porno-Deepfakes sollen verboten werden
EU-Parlament beschließt Verbot von KI-Porno-Deepfakes ohne Einwilligung.
Neue Regeln sollen Opfer besser schützen und Täter künftig härter
bestrafen.
(DIR) Künstliche Intelligenz: Wie viel Regulierung ist sinnvoll?
Die Welt ringt um ihren Umgang mit KI-Technologien. Auf einem Gipfel in
Paris, zeigte sich, wo es in Europa damit hingeht.
(DIR) Künstliche Intelligenz: EU-Regeln für KI kommen
Europa beschließt Regeln für den Einsatz von künstlicher Intelligenz. Die
Vorgaben zu Chatbots wie ChatGPT gelten Kritikern als zu lasch.