# taz.de -- KI-Schlamm im Netz: Wenn Jesus als Shrimp das Internet verstopft
       
       > Inhaltslose KI-Bilder und -Videos fluten das Internet. Kein Wunder: Der
       > Matsch treibt die Ökonomisierungslogik der Plattformen auf die Spitze.
       
 (IMG) Bild: Dreck, Schlamm oder einfach Slop verstopft das Internetz und säuft unser Wasser
       
       Würde das Internet ein Geräusch machen, wäre es gerade so etwas wie
       Qschwapp. Ein Klang, als hätte jemand auf einmal sehr viel dickflüssigen
       Schlamm in den Schuhen und würde nun mit ziemlicher Mühe versuchen, die
       eigenen Füße da rauszubekommen. Ursache für die Soundkulisse: KI-Slop.
       
       KI-Slop – Matsch, Brühe, Schlick – sind belanglose bis aufreibende Inhalte,
       erzeugt mit [1][künstlicher Intelligenz] (KI): ein Bild, das einen Hai in
       Sneakers zeigt. Ein Video mit einer Frau, deren Leiter bei Außenarbeiten am
       Haus von einer Kuh umgekippt wird und die dann kurz an der
       Satellitenschüssel baumelt, bevor sie herunterfällt. Playlists mit Titeln à
       la Relax Caribbean Summer Mood. Aber auch: ein Video, in dem eine
       vermeintliche Nachrichtenmoderatorin den Tod eines Sport-Promis meldet –
       ohne weitere Details und nicht von Fakten gedeckt.
       
       Der KI-Matsch ist quasi die logische Fortsetzung der Ökonomisierungslogik
       großer Onlineplattformen. Nach dem Datensammeln und -verwerten wissen sie
       nun ziemlich genau, was ihre Nutzer:innen so sehen oder hören wollen.
       Und mit KI, da werden endlich diese unpraktischen Menschen, die man bislang
       brauchte, um Musik, Bilder oder Videos erstellen, nicht mehr so wichtig.
       Denn Menschen – die brauchen einfach irrsinnig lange. Bis die mal ein
       Videokonzept geschrieben haben, die Bilder gedreht und geschnitten, den Ton
       ordentlich gemacht und das dann hochgeladen – das kann ein paar Stunden bis
       Tage dauern.
       
       KI hingegen – kapitalistisch fix. In ein paar Minuten, bei Bildern sogar
       Sekunden, kann ein neuer Inhalt fertig sein. Optimalerweise gleich in
       mehreren, leicht voneinander abweichenden Varianten, da lässt sich testen,
       was gut ankommt und die weiteren Inhalte des Kanals lassen sich
       entsprechend optimieren. Und, noch besser: Die Menschen können sich dann
       einfach auf das konzentrieren, was sie eh am besten können: vor dem
       Bildschirm sitzen, die Inhalte konsumieren und so den Plattformen noch mehr
       von dem geben, was diese gerne haben wollen: Aufmerksamkeit und damit
       Daten.
       
       Jetzt gibt es allerdings noch einen Haken. Denn KI muss trainiert werden.
       Dazu braucht sie Texte, Bilder, Videos, Musik. Und zwar von echten
       Menschen. Studien haben schon gezeigt, dass KI, die mit KI-Inhalten
       trainiert wird, irgendwann nur noch Datenmüll liefert. Ouroboros-Effekt
       wird das manchmal genannt, nach dem passenden Bild der Schlange, die sich
       in den eigenen Schwanz beißt. Oder, wissenschaftlich nüchterner: model
       collapse. Wie schön wäre es also, wenn sich der KI-Slop selbst ausradierte.
       Vorerst allerdings müssen Nutzer:innen aufpassen, dass sie nicht selbst
       im Matsch zwischen einer zentaurmäßigen Jesus-Shrimp-Figur, radfahrenden
       Katzen und Schock-Videos kollabieren.
       
       17 Apr 2026
       
       ## LINKS
       
 (DIR) [1] /Schwerpunkt-Kuenstliche-Intelligenz/!t5924174
       
       ## AUTOREN
       
 (DIR) Svenja Bergt
       
       ## TAGS
       
 (DIR) Kolumne Digitalozän
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Digitalisierung
 (DIR) Plattformökonomie
 (DIR) wochentaz
 (DIR) Digitale Gewalt
 (DIR) Kolumne Digitalozän
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Forscher zu KI-Chatbots: „Man lagert das Denken aus“
       
       Wird dümmer, wer KI-Chatbots verwendet? Nicht unbedingt, sagt der Forscher
       Michael Gerlich. Zwar sei die Gefahr da – aber es gibt eine Gegenstrategie.
       
 (DIR) FAQ zu Deepfake-Pornografie: Warum sind Deepfakes problematisch?
       
       Deepfakes sind kaum noch von echten Inhalten zu unterscheiden. Vor allem
       die Erstellung pornografischer Inhalte wird zum Problem für Betroffene.
       
 (DIR) Aufregung um Plakatmotiv: Mit dem Kaleidoskop aufs Oktoberfest
       
       Das Gewinnerplakat für die Wiesn-Werbung hat für Aufregung gesorgt. War da
       etwa KI im Spiel? Der Fall zeigt ein grundlegendes Problem.