# taz.de -- KI-Schlamm im Netz: Wenn Jesus als Shrimp das Internet verstopft
> Inhaltslose KI-Bilder und -Videos fluten das Internet. Kein Wunder: Der
> Matsch treibt die Ökonomisierungslogik der Plattformen auf die Spitze.
(IMG) Bild: Dreck, Schlamm oder einfach Slop verstopft das Internetz und säuft unser Wasser
Würde das Internet ein Geräusch machen, wäre es gerade so etwas wie
Qschwapp. Ein Klang, als hätte jemand auf einmal sehr viel dickflüssigen
Schlamm in den Schuhen und würde nun mit ziemlicher Mühe versuchen, die
eigenen Füße da rauszubekommen. Ursache für die Soundkulisse: KI-Slop.
KI-Slop – Matsch, Brühe, Schlick – sind belanglose bis aufreibende Inhalte,
erzeugt mit [1][künstlicher Intelligenz] (KI): ein Bild, das einen Hai in
Sneakers zeigt. Ein Video mit einer Frau, deren Leiter bei Außenarbeiten am
Haus von einer Kuh umgekippt wird und die dann kurz an der
Satellitenschüssel baumelt, bevor sie herunterfällt. Playlists mit Titeln à
la Relax Caribbean Summer Mood. Aber auch: ein Video, in dem eine
vermeintliche Nachrichtenmoderatorin den Tod eines Sport-Promis meldet –
ohne weitere Details und nicht von Fakten gedeckt.
Der KI-Matsch ist quasi die logische Fortsetzung der Ökonomisierungslogik
großer Onlineplattformen. Nach dem Datensammeln und -verwerten wissen sie
nun ziemlich genau, was ihre Nutzer:innen so sehen oder hören wollen.
Und mit KI, da werden endlich diese unpraktischen Menschen, die man bislang
brauchte, um Musik, Bilder oder Videos erstellen, nicht mehr so wichtig.
Denn Menschen – die brauchen einfach irrsinnig lange. Bis die mal ein
Videokonzept geschrieben haben, die Bilder gedreht und geschnitten, den Ton
ordentlich gemacht und das dann hochgeladen – das kann ein paar Stunden bis
Tage dauern.
KI hingegen – kapitalistisch fix. In ein paar Minuten, bei Bildern sogar
Sekunden, kann ein neuer Inhalt fertig sein. Optimalerweise gleich in
mehreren, leicht voneinander abweichenden Varianten, da lässt sich testen,
was gut ankommt und die weiteren Inhalte des Kanals lassen sich
entsprechend optimieren. Und, noch besser: Die Menschen können sich dann
einfach auf das konzentrieren, was sie eh am besten können: vor dem
Bildschirm sitzen, die Inhalte konsumieren und so den Plattformen noch mehr
von dem geben, was diese gerne haben wollen: Aufmerksamkeit und damit
Daten.
Jetzt gibt es allerdings noch einen Haken. Denn KI muss trainiert werden.
Dazu braucht sie Texte, Bilder, Videos, Musik. Und zwar von echten
Menschen. Studien haben schon gezeigt, dass KI, die mit KI-Inhalten
trainiert wird, irgendwann nur noch Datenmüll liefert. Ouroboros-Effekt
wird das manchmal genannt, nach dem passenden Bild der Schlange, die sich
in den eigenen Schwanz beißt. Oder, wissenschaftlich nüchterner: model
collapse. Wie schön wäre es also, wenn sich der KI-Slop selbst ausradierte.
Vorerst allerdings müssen Nutzer:innen aufpassen, dass sie nicht selbst
im Matsch zwischen einer zentaurmäßigen Jesus-Shrimp-Figur, radfahrenden
Katzen und Schock-Videos kollabieren.
17 Apr 2026
## LINKS
(DIR) [1] /Schwerpunkt-Kuenstliche-Intelligenz/!t5924174
## AUTOREN
(DIR) Svenja Bergt
## TAGS
(DIR) Kolumne Digitalozän
(DIR) Schwerpunkt Künstliche Intelligenz
(DIR) Digitalisierung
(DIR) Plattformökonomie
(DIR) wochentaz
(DIR) Digitale Gewalt
(DIR) Kolumne Digitalozän
## ARTIKEL ZUM THEMA
(DIR) Forscher zu KI-Chatbots: „Man lagert das Denken aus“
Wird dümmer, wer KI-Chatbots verwendet? Nicht unbedingt, sagt der Forscher
Michael Gerlich. Zwar sei die Gefahr da – aber es gibt eine Gegenstrategie.
(DIR) FAQ zu Deepfake-Pornografie: Warum sind Deepfakes problematisch?
Deepfakes sind kaum noch von echten Inhalten zu unterscheiden. Vor allem
die Erstellung pornografischer Inhalte wird zum Problem für Betroffene.
(DIR) Aufregung um Plakatmotiv: Mit dem Kaleidoskop aufs Oktoberfest
Das Gewinnerplakat für die Wiesn-Werbung hat für Aufregung gesorgt. War da
etwa KI im Spiel? Der Fall zeigt ein grundlegendes Problem.