# taz.de -- ZDF heute journal und KI: Tröpfchentechnik bringt nichts
       
       > Was lernen wir aus dem KI-Gate des „heute journals“ im ZDF? Betrachtungen
       > zur eigenen Rolle in der Journalismus-Branche sind jedenfalls angebracht.
       
 (IMG) Bild: Vom „heute journal“ verwendete Szene mit dem Wasserzeichen von OpenAIs KI Sora
       
       Manchmal wünsche ich mir als Journalistin Belege für etwas, das ich längst
       zu wissen glaube. Zum Beispiel, dass der Manager einer Künstlerin sich wie
       ein Arschloch verhält. Ich weiß, dass er viel Unsinn redet und Menschen
       schlecht behandelt – aber nichts davon ist konkret, justiziabel,
       zitierfähig. Es reicht nicht für eine Geschichte. Und da sind wir schon bei
       meinem Punkt: Es tut weh, aber Journalismus lebt nicht von persönlichen
       Gewissheiten, sondern von Beweisen.
       
       Diese Spannung begleitet unseren Beruf. Hatte eine Tat ein queerfeindliches
       Motiv? Vielleicht. Ist jemand mit an Sicherheit grenzender
       Wahrscheinlichkeit ungeeignet für seinen Job? Möglich. Doch veröffentlichen
       darf man nur, was sich belegen lässt. Wer – wie ich – potenziell jeden Tag
       Zehntausende Menschen erreicht, beeinflusst Diskurse. Das verpflichtet zur
       Sorgfalt.
       
       Wie schmerzhaft es ist, wenn die nicht gewährleistet ist, zeigte am
       vergangenen Sonntag [1][ein Beitrag im „heute journal“ des ZDF], moderiert
       von [2][Dunja Hayali]. In einem Bericht über Einsätze der
       US-Migrationsbehörde ICE wurden zwei gravierende Fehler gemacht: Ein
       KI-generiertes Video wurde überhaupt und noch dazu ohne Kennzeichnung
       verwendet; und zudem zeigte man reale Aufnahmen aus dem Jahr 2022, die
       allerdings nicht eine Verhaftung durch ICE-Beamten zeigten und noch dazu
       fälschlich als aktuell eingeordnet wurden.
       
       Die stellvertretende ZDF-Chefredakteurin Anne Gellinek wandte sich zwei
       Tage nach der Sendung, [3][in der Dienstagsausgabe des „heute journals]“,
       direkt an die Zuschauer:innen. Sie sprach von „handwerklichen Fehlern“: Das
       schmerze sehr, weil das ZDF viel Kraft investiere, um geprüfte
       Informationen zu liefern. „Das ist uns diesmal nicht gelungen. Dafür bitte
       ich Sie ausdrücklich um Entschuldigung. Dieser Beitrag entsprach nicht
       unseren hohen Standards.“ Solche klaren Worte hört man selten in der
       Branche. Und doch kamen sie spät.
       
       ## Verbesserungswürdige Fehlerkultur
       
       Warum, dafür muss man sich auch noch mal die Chronologie der Entschuldigung
       anschauen. Zunächst hatte der Sender von einem „technischen Versehen“
       gesprochen, später erklärte er dann der Agentur epd, der Beitrag zeige,
       „dass sowohl mit echten als auch mit KI-generierten Bildern ein Klima der
       Angst erzeugt wird“, und man bedauere, das dabei nicht deutlich genug
       wurde, welche Bilder echt waren und welche nicht.
       
       Noch später dann, in der Entschuldigungssendung von Dienstag, ein anderer
       Ton: KI-generierte Inhalte hätten in einem Nachrichtenbeitrag grundsätzlich
       nichts verloren – auch eine Kennzeichnung hätte es nicht besser gemacht.
       Eine Ausnahme bestehe nur, wenn es explizit um KI-Fälschungen gehe. Eine
       Entschuldigung also im Tröpfchenverfahren.
       
       Abgesehen von der verbesserungswürdigen Fehlerkultur hatte die Sache selbst
       gravierende Auswirkungen auf den Diskurs: [4][Nicht alle müssen KI-Fakes
       erkennen können.] Mit fortschreitender Technik wird das für Laien immer
       schwieriger. Wer sich über Menschen lustig macht, die darauf hereinfallen,
       greift an der falschen Stelle an. Aber: Ein Leitmedium wie das „heute
       journal“ mit durchschnittlich rund 3,7 Millionen Zuschauer:innen muss es
       können. Es ist meinungsprägend – und trägt Verantwortung.
       
       Der Kern des Problems liegt tiefer. Recherche darf nicht bedeuten: Ich habe
       eine These – jetzt suche ich Material, das sie stützt. Sondern: Das
       Material liegt vor, und man muss es einordnen in [5][KI-Slop], echt oder
       nicht belegbar. Alles andere untergräbt Vertrauen. Ein Nachrichtenbeitrag
       sagt implizit: Hier sehen Sie Wirklichkeit, jedenfalls einen überprüften
       Ausschnitt davon. Wenn ein KI-Video als vermeintlicher Beleg für brutales
       Vorgehen dient, wird diese implizite Zusage nicht eingehalten.
       
       ## Verspieltes Vertrauen
       
       Natürlich stürzten sich rechte Akteur:innen wie etwa Plattformen wie Nius
       und Apollo News auf den Fehler. Öffentlich-rechtliche Medien stehen bei
       ihnen ohnehin unter Dauerbeschuss. Doch das eigentliche Problem ist größer:
       Auch Menschen, die nicht rechts sind, verlieren Vertrauen. Fehler verzeiht
       das Publikum. Was es nicht verzeiht, ist der Eindruck von Manipulation oder
       bewusster Irreführung.
       
       Das Phänomen ist kein Einzelfall. Das Magazin Übermedien wies darauf hin,
       dass ein mutmaßlich KI-generiertes Bild im Kontext der Entführung des
       venezolanischen Präsidenten Nicolas Maduro sowohl vom ZDF als auch von der
       Funke-Mediengruppe verwendet wurde. [6][Die Funke-Gruppe reagierte
       transparent, das ZDF zunächst zögerlicher.] Auch wurden zahlreiche,
       [7][höchstwahrscheinlich KI-generierte Bilder zum Schneesturm in
       Kamtschatka] von verschiedenen Redaktionen weiterverbreitet.
       
       [8][Übermedien formulierte es treffend]: „Ein Partner verlässt sich auf den
       anderen, doch den enormen Aufwand, potenzielle KI-Fälschungen
       nachzurecherchieren, kann derzeit anscheinend kaum jemand leisten –
       jedenfalls nicht vor der Veröffentlichung.“ Zu groß die Bilderflut, zu
       täuschend echt die Ergebnisse, zu unausgereift die technischen Lösungen.
       
       ## Transparenz bedeutet: Schnell reagieren
       
       Damit sind wir beim strukturellen Problem: Arbeitsbelastung, Zeitdruck,
       Unterbezahlung, Quotendruck und eine explodierende Nachrichtenflut. Fehler
       passieren selten aus bösem Willen. Sie entstehen in Systemen, die
       Geschwindigkeit belohnen und Zweifel bestrafen. Doch gerade in Zeiten, in
       denen in den USA, in Russland und anderswo Desinformation strategisch
       eingesetzt wird, muss Journalismus der sichere Ort sein, an dem man sich
       festhalten kann.
       
       Wir schreiben gern über die Fehler anderer. Über unsere eigenen sprechen
       wir zu selten. Vielleicht ist die richtige Dosis Transparenz das
       Entscheidende: schnell reagieren, erklären, wie es passieren konnte,
       Verantwortung übernehmen – ohne einzelne Mitarbeitende vorzuführen. Nicht
       Häme, sondern Aufarbeitung.
       
       Denn am Ende bleibt eine einfache Wahrheit: Wir dürfen vieles vermuten.
       Aber veröffentlichen dürfen wir nur, was wir belegen können. Alles andere
       ist gefährlich, gerade in diesen Zeiten. Daher möchte ich mich nur nun
       schon mal im Vorhinein entschuldigen: Dieser Text ist am Ende des Tages
       unter großem Zeitdruck entstanden. Ich habe alle Zitate doppelt und
       dreifach gecheckt und Links angegeben, aber passieren kann ein Fehler
       immer. Bitte verzeiht ihn mir.
       
       20 Feb 2026
       
       ## LINKS
       
 (DIR) [1] /heute-journal-zu-ICE/!6155436
 (DIR) [2] /Nach-Social-Media-Shitstorm/!6113897
 (DIR) [3] https://www.zdfheute.de/video/heute-journal/fehlerhafter-beitrag-berichtigt-100.html
 (DIR) [4] /Debatte-um-Social-Media-Verbot/!6155970
 (DIR) [5] https://www.heise.de/news/AI-Slop-Die-Schattenseite-der-KI-Revolution-10459480.html
 (DIR) [6] https://uebermedien.de/112690/maduro-verhaftung-wenn-redaktionen-der-ki-flut-nicht-gewachsen-sind/
 (DIR) [7] /Russischer-KI-Schneesturm/!6147443
 (DIR) [8] https://uebermedien.de/112690/maduro-verhaftung-wenn-redaktionen-der-ki-flut-nicht-gewachsen-sind/
       
       ## AUTOREN
       
 (DIR) Ann-Kathrin Leclere
       
       ## TAGS
       
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) ZDF
 (DIR) Nachrichten
 (DIR) Desinformation
 (DIR) Öffentlich-Rechtlicher Rundfunk
 (DIR) Dunja Hayali 
 (DIR) Fake News
 (DIR) Fact-Checking
 (DIR) Social-Auswahl
 (DIR) Reden wir darüber
 (DIR) Reden wir darüber
 (DIR) Medien
 (DIR) Social Media
 (DIR) Fake News
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Merkel-Klatscher an falscher Stelle: Das kann die ARD besser
       
       Jetzt also auch noch das Erste. Es sendete zwar einen echten
       Fernsehausschnitt, aber an einer zeitlich falschen Stelle. Das ist
       unverantwortlich.
       
 (DIR) Strafrechts-Professorin über Fake News: „Wahrheit als Kategorie steht auf dem Spiel“
       
       Die Grenze zwischen Fakt und Fiktion wird in den sozialen Medien immer
       verschwommener. Und das veraltete Strafrecht hinkt hinterher, sagt Elisa
       Hoven.
       
 (DIR) Digital-Krise: Social Media muss in Therapie
       
       Haben wir den Peak des Mülls im Internet erreicht? Bei all den
       KI-generierten Inhalten ist Müdigkeit nachvollziehbar, aufgeben aber auch
       keine Option.
       
 (DIR) KI im Spiegel, Wildschweine in Kroatien: Wer vertraut hier noch wem?
       
       Nicht nur der Spiegel vertraut auf KI. Auch die Meldung über eine
       „Wildschwein-Invasion“ zeigt: Medien verlassen sich blind auf die
       künstliche Unintelligenz.