# taz.de -- KI unter Faschismusverdacht: Die Papageien, die wir riefen
       
       > Übles wird nachgeplappert: KI hat nicht nur ein Kreativitäts-, sondern
       > auch ein potenzielles Faschismusproblem, analysiert Rainer Mühlhoff in
       > einem Buch der Reclam-Reihe „Was bedeutet das alles?“.
       
 (IMG) Bild: Flüche, Sexismen, Rassismus: Der stochastische Papagei wiederholt, was er am häufigsten gehört hat
       
       Ein britischer Tierpark hat ein Problem: Die Papageien fluchen. Sie
       beleidigen. Sie verwenden verletzende Sprache. Kurzum: Sie geben von sich,
       was sie oft gehört haben, und das ist viel Übles. Der Lincolnshire Wildlife
       Park ist eine nationale Auffangstation. Die Menschen geben dort Vögel ab,
       weil sie die Rufe nicht mehr ertragen können, die ihre gefiederten
       Mitbewohner von ihnen gelernt haben.
       
       „Stochastische Papageien“ – diesen Ausdruck prägte die Computerlinguistin
       Emily Bender gemeinsam mit drei Kolleginnen, um große Sprachmodelle zu
       beschreiben. Wiederholung nach Wahrscheinlichkeit ist das Geheimnis
       „künstlicher Intelligenz“. Und auch ihr Problem: Large Language Models
       erzeugen Gleichklang. Sie bilden nicht den klügsten Satz, sondern
       reproduzieren die Muster, die oft genug wiederholt wurden.
       
       Der so entstehende Mangel an sprachlicher Kreativität ist nicht das
       Schlimmste. Sprachmodelle werden zu groß, lautet die These von Bender und
       ihren Kolleginnen. Nicht nur die ökologischen Kosten sind enorm. Das
       Training der KI etwa verbraucht Unmengen an Strom. „Too big“ und damit
       unkontrollierbar sind auch die Daten, von denen die stochastischen
       Papageien sich ernähren. Ihr „Futter“ enthält außerdem hohe Anteile von
       Rassismus, Sexismus und Antisemitismus.
       
       Bei diesen Gefahren von KI setzt das neue Buch von Rainer Mühlhoff an, das
       bei Reclam in der Reihe „Was bedeutet das alles?“ erschienen ist. Die KI
       als solche ist nicht faschistisch, schreibt Mühlhoff. Aber sie habe
       strukturelle Eigenschaften, die „den Rechtsstaat und die freiheitliche
       demokratische Ordnung“ schwächten. Denn für die Verbreitung von
       Desinformation und [1][Propaganda] ist sie perfekt geeignet.
       
       Was es heißt, wenn KI-Systeme zum Einsatz kommen, um gesellschaftliche
       Prozesse zu strukturieren und zu verbessern, demonstriert Mühlhoff in einem
       Gedankenexperiment, der Fiktion einer erfahrungsbasierten Arbeitsweise nach
       dem Muster einer KI: An die Stelle der üblichen Einzelfallprüfungen nach
       definierten Verfahren träte im Behördenalltag dann das Bauchgefühl der
       Bearbeiterinnen und Bearbeiter – ein im Job erarbeitetes Gespür für
       richtige Angaben, aber auch für Tricks oder Schummeleien. Auch die
       Bauchgefühle würden in diesem Szenario evaluiert. Doch das geschähe weder
       durch umfängliche Prüfungen noch durch ausgewählte Stichproben. Maßstab
       wäre vielmehr das Ausbleiben von Kritik: Wer sich nicht beschwert, hat auch
       keine Einwände gegen eine behördliche Entscheidung – so die Hypothese. Das
       Problem: Wer geringe Ressourcen hat, wird sich seltener wehren. So wird die
       „beste Wette auf einzelne Fälle“, als die sich das Bauchgefühl verstehen
       lässt, schnell zum Albtraum.
       
       Mühlhoff ist Philosoph und Mathematiker. Neben seiner Auseinandersetzung
       mit den gesellschaftlichen Auswirkungen des Einsatzes von KI analysiert er
       die Vorstellungen, die sich die Gesellschaft über KI macht. Damit steht er
       in der Tradition philosophischer Ideologiekritik. Ihn interessieren die
       populären Bilder, die Elemente einer sich lange abzeichnenden
       „Tech-Ideologie“. Laut Mühlhoff befinden wir uns schon seit 20 Jahren in
       einer dritten Phase der [2][KI-Euphorie] – mit Vorgeschichten in den 1960er
       und 1980er Jahren.
       
       In solchen „KI-Sommern“ ist die Stimmung überhitzt. Technologiekonzerne
       hoffen auf die „Artificial General Intelligence“, kurz: AGI. In spätestens
       20 Jahren, so die Prophezeiung, sei es so weit. Mühlhoff ist da
       skeptischer. Denn auch solche Prognosen sind nicht neu. Eine Studie des
       Machine Intelligence Research Institute legt nahe: Wer innerhalb der
       letzten 60 Jahre an die Machbarkeit einer AGI glaubte, nahm jeweils an,
       dass sie in 15 bis 25 Jahren Realität werde.
       
       ## Ein Gefühl der Hilflosigkeit
       
       Wenn Mühlhoffs Essay trotzdem warnende Töne anschlägt, dann aus politischen
       Gründen. Daten, so schreibt er, seien heute „die knappste und strategisch
       wichtigste Ressource der KI-Industrie“. Sie sollen in großen Mengen zur
       Verfügung stehen und die KI-Konzerne möglichst wenig kosten. Den Preis
       bezahlen andere: etwa die [3][Künstlerinnen und Künstler], deren Arbeiten
       entwertet werden, wenn sie an eine KI verfüttert werden, die mit
       massenhafter Produktion die Märkte zuschütten kann.
       
       In den Tech-Ideologien, die im Buch profiliert werden, spielen solche
       Erwägungen kaum eine Rolle. Nicht weil „Moral“ insgesamt nicht hoch im Kurs
       stünde. Im Gegenteil: Nur sind die „moralischen“ Überlegungen der
       Technophilen anders ausgerichtet. Wenn die künstliche Superintelligenz
       demnächst komme, so lautet ein Argument, dann müssen wir unser Handeln
       jetzt schon darauf einstellen: Statt auf die Bedürfnisse der Menschen, die
       Gefahren des Klimawandels oder der sozialen Ungleichheit zu reagieren,
       gelte es vielmehr, die bestmöglichen Startbedingungen für die erhoffte neue
       Intelligenzform bereitzustellen.
       
       Der ideologische Mix hinter den Staats- und Gesellschaftsvorstellungen der
       Tech-Eliten reicht vom Cyberlibertarismus über rassistische und sexistische
       Troll-Subkulturen bis zur intellektuellen Strömung der „Dunklen
       Aufklärung“. Faschismus setzt Mühlhoff als Kategorie ein, um das
       Zusammenwirken dieser Bewegungen zu erläutern: Diese verbinde eine
       antidemokratische Stoßrichtung und Gewaltbereitschaft.
       
       Was tun? Das Gefühl der Hilflosigkeit ist Teil des Problems. Wir alle
       liefern der KI unsere Daten, betont Mühlhoff. Es ist wie im Lincolnshire
       Wildlife Park: Wer von den Papageien weniger Flüche hören will, muss selbst
       weniger fluchen. Aber damit ist es nicht getan. Mühlhoff fordert, die KI zu
       thematisieren, anstatt sich von ihr thematisieren zu lassen. „Anders über
       KI-Technologie sprechen“ ist eine von zwei Handlungsempfehlungen, mit denen
       das Buch schließt. Antidemokratische Kräfte zu isolieren, ist die andere.
       
       Was auf den 160 Seiten hingegen nur angedeutet wird, sind die ökonomischen
       Strukturen, die solche Kräfte erst ermöglichen und die hart gegen
       Kritikerinnen vorgehen. Timnit Gebru und Margaret Mitchell, zwei
       Autorinnen, die mit Emily Bender an dem Aufsatz über „stochastische
       Papageien“ gearbeitet haben, wurden von Google entlassen. Unerkannt zu
       bleiben, ist ihnen nicht gelungen. Margaret Mitchell weist darauf hin,
       indem sie nun unter subversivem Pseudonym schreibt: Shmargaret Shmitchell.
       
       28 Sep 2025
       
       ## LINKS
       
 (DIR) [1] /Parlament-in-Albanien/!6114522
 (DIR) [2] /Bluehendes-Geschaeft-mit-KI-Musik/!6111209
 (DIR) [3] /Wie-Cloudflare-KI-Bots-aufhalten-will/!6111259
       
       ## AUTOREN
       
 (DIR) Hendrikje Schauer
       
       ## TAGS
       
 (DIR) Politisches Buch
 (DIR) Sachbuch
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Faschismus
 (DIR) Big Tech
 (DIR) Reden wir darüber
 (DIR) Social-Auswahl
 (DIR) EU-Kommission
 (DIR) Kolumne Feed Interrupted
 (DIR) Kulturpolitik
 (DIR) Ideologiekritik
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Neue KI-Strategie: EU will bei Künstlicher Intelligenz aufs Tempo drücken
       
       Mehr KI und vor allem mehr europäische KI will die EU-Kommission in
       Unternehmen sehen. Der Branchenverband begrüßt das, erwartet aber mehr als
       Worte.
       
 (DIR) Künstliche Intelligenz: Schreiben unter Verdacht
       
       Seht her, hier wird noch geschrieben! Wo Texte zunehmend hybrid entstehen,
       muss die Geschichte vom „reinen“ Schreiben besonders laut erzählt werden.
       
 (DIR) Polykrisen: Die Kultur im Zeitalter der goldenen Toilette
       
       Wie steht es um Kunst und Kultur in einer Welt der Polykrise und nach dem
       internationalen Aufstieg einer karnevalesken Rechten? Eine
       Bestandsaufnahme.
       
 (DIR) Neurowissenschaftlerin: „Hirnprozesse führen dazu, dass wir entmenschlichen“
       
       Leor Zmigrod hat ideologisches Denken untersucht. Sie erklärt, was
       Hirnscans zeigen, wie Dschihadisten ticken und warum Social Media extremes
       Denken befeuert.