# taz.de -- ZDF heute journal und KI: Tröpfchentechnik bringt nichts
> Was lernen wir aus dem KI-Gate des „heute journals“ im ZDF? Betrachtungen
> zur eigenen Rolle in der Journalismus-Branche sind jedenfalls angebracht.
(IMG) Bild: Vom „heute journal“ verwendete Szene mit dem Wasserzeichen von OpenAIs KI Sora
Manchmal wünsche ich mir als Journalistin Belege für etwas, das ich längst
zu wissen glaube. Zum Beispiel, dass der Manager einer Künstlerin sich wie
ein Arschloch verhält. Ich weiß, dass er viel Unsinn redet und Menschen
schlecht behandelt – aber nichts davon ist konkret, justiziabel,
zitierfähig. Es reicht nicht für eine Geschichte. Und da sind wir schon bei
meinem Punkt: Es tut weh, aber Journalismus lebt nicht von persönlichen
Gewissheiten, sondern von Beweisen.
Diese Spannung begleitet unseren Beruf. Hatte eine Tat ein queerfeindliches
Motiv? Vielleicht. Ist jemand mit an Sicherheit grenzender
Wahrscheinlichkeit ungeeignet für seinen Job? Möglich. Doch veröffentlichen
darf man nur, was sich belegen lässt. Wer – wie ich – potenziell jeden Tag
Zehntausende Menschen erreicht, beeinflusst Diskurse. Das verpflichtet zur
Sorgfalt.
Wie schmerzhaft es ist, wenn die nicht gewährleistet ist, zeigte am
vergangenen Sonntag [1][ein Beitrag im „heute journal“ des ZDF], moderiert
von [2][Dunja Hayali]. In einem Bericht über Einsätze der
US-Migrationsbehörde ICE wurden zwei gravierende Fehler gemacht: Ein
KI-generiertes Video wurde überhaupt und noch dazu ohne Kennzeichnung
verwendet; und zudem zeigte man reale Aufnahmen aus dem Jahr 2022, die
allerdings nicht eine Verhaftung durch ICE-Beamten zeigten und noch dazu
fälschlich als aktuell eingeordnet wurden.
Die stellvertretende ZDF-Chefredakteurin Anne Gellinek wandte sich zwei
Tage nach der Sendung, [3][in der Dienstagsausgabe des „heute journals]“,
direkt an die Zuschauer:innen. Sie sprach von „handwerklichen Fehlern“: Das
schmerze sehr, weil das ZDF viel Kraft investiere, um geprüfte
Informationen zu liefern. „Das ist uns diesmal nicht gelungen. Dafür bitte
ich Sie ausdrücklich um Entschuldigung. Dieser Beitrag entsprach nicht
unseren hohen Standards.“ Solche klaren Worte hört man selten in der
Branche. Und doch kamen sie spät.
## Verbesserungswürdige Fehlerkultur
Warum, dafür muss man sich auch noch mal die Chronologie der Entschuldigung
anschauen. Zunächst hatte der Sender von einem „technischen Versehen“
gesprochen, später erklärte er dann der Agentur epd, der Beitrag zeige,
„dass sowohl mit echten als auch mit KI-generierten Bildern ein Klima der
Angst erzeugt wird“, und man bedauere, das dabei nicht deutlich genug
wurde, welche Bilder echt waren und welche nicht.
Noch später dann, in der Entschuldigungssendung von Dienstag, ein anderer
Ton: KI-generierte Inhalte hätten in einem Nachrichtenbeitrag grundsätzlich
nichts verloren – auch eine Kennzeichnung hätte es nicht besser gemacht.
Eine Ausnahme bestehe nur, wenn es explizit um KI-Fälschungen gehe. Eine
Entschuldigung also im Tröpfchenverfahren.
Abgesehen von der verbesserungswürdigen Fehlerkultur hatte die Sache selbst
gravierende Auswirkungen auf den Diskurs: [4][Nicht alle müssen KI-Fakes
erkennen können.] Mit fortschreitender Technik wird das für Laien immer
schwieriger. Wer sich über Menschen lustig macht, die darauf hereinfallen,
greift an der falschen Stelle an. Aber: Ein Leitmedium wie das „heute
journal“ mit durchschnittlich rund 3,7 Millionen Zuschauer:innen muss es
können. Es ist meinungsprägend – und trägt Verantwortung.
Der Kern des Problems liegt tiefer. Recherche darf nicht bedeuten: Ich habe
eine These – jetzt suche ich Material, das sie stützt. Sondern: Das
Material liegt vor, und man muss es einordnen in [5][KI-Slop], echt oder
nicht belegbar. Alles andere untergräbt Vertrauen. Ein Nachrichtenbeitrag
sagt implizit: Hier sehen Sie Wirklichkeit, jedenfalls einen überprüften
Ausschnitt davon. Wenn ein KI-Video als vermeintlicher Beleg für brutales
Vorgehen dient, wird diese implizite Zusage nicht eingehalten.
## Verspieltes Vertrauen
Natürlich stürzten sich rechte Akteur:innen wie etwa Plattformen wie Nius
und Apollo News auf den Fehler. Öffentlich-rechtliche Medien stehen bei
ihnen ohnehin unter Dauerbeschuss. Doch das eigentliche Problem ist größer:
Auch Menschen, die nicht rechts sind, verlieren Vertrauen. Fehler verzeiht
das Publikum. Was es nicht verzeiht, ist der Eindruck von Manipulation oder
bewusster Irreführung.
Das Phänomen ist kein Einzelfall. Das Magazin Übermedien wies darauf hin,
dass ein mutmaßlich KI-generiertes Bild im Kontext der Entführung des
venezolanischen Präsidenten Nicolas Maduro sowohl vom ZDF als auch von der
Funke-Mediengruppe verwendet wurde. [6][Die Funke-Gruppe reagierte
transparent, das ZDF zunächst zögerlicher.] Auch wurden zahlreiche,
[7][höchstwahrscheinlich KI-generierte Bilder zum Schneesturm in
Kamtschatka] von verschiedenen Redaktionen weiterverbreitet.
[8][Übermedien formulierte es treffend]: „Ein Partner verlässt sich auf den
anderen, doch den enormen Aufwand, potenzielle KI-Fälschungen
nachzurecherchieren, kann derzeit anscheinend kaum jemand leisten –
jedenfalls nicht vor der Veröffentlichung.“ Zu groß die Bilderflut, zu
täuschend echt die Ergebnisse, zu unausgereift die technischen Lösungen.
## Transparenz bedeutet: Schnell reagieren
Damit sind wir beim strukturellen Problem: Arbeitsbelastung, Zeitdruck,
Unterbezahlung, Quotendruck und eine explodierende Nachrichtenflut. Fehler
passieren selten aus bösem Willen. Sie entstehen in Systemen, die
Geschwindigkeit belohnen und Zweifel bestrafen. Doch gerade in Zeiten, in
denen in den USA, in Russland und anderswo Desinformation strategisch
eingesetzt wird, muss Journalismus der sichere Ort sein, an dem man sich
festhalten kann.
Wir schreiben gern über die Fehler anderer. Über unsere eigenen sprechen
wir zu selten. Vielleicht ist die richtige Dosis Transparenz das
Entscheidende: schnell reagieren, erklären, wie es passieren konnte,
Verantwortung übernehmen – ohne einzelne Mitarbeitende vorzuführen. Nicht
Häme, sondern Aufarbeitung.
Denn am Ende bleibt eine einfache Wahrheit: Wir dürfen vieles vermuten.
Aber veröffentlichen dürfen wir nur, was wir belegen können. Alles andere
ist gefährlich, gerade in diesen Zeiten. Daher möchte ich mich nur nun
schon mal im Vorhinein entschuldigen: Dieser Text ist am Ende des Tages
unter großem Zeitdruck entstanden. Ich habe alle Zitate doppelt und
dreifach gecheckt und Links angegeben, aber passieren kann ein Fehler
immer. Bitte verzeiht ihn mir.
20 Feb 2026
## LINKS
(DIR) [1] /heute-journal-zu-ICE/!6155436
(DIR) [2] /Nach-Social-Media-Shitstorm/!6113897
(DIR) [3] https://www.zdfheute.de/video/heute-journal/fehlerhafter-beitrag-berichtigt-100.html
(DIR) [4] /Debatte-um-Social-Media-Verbot/!6155970
(DIR) [5] https://www.heise.de/news/AI-Slop-Die-Schattenseite-der-KI-Revolution-10459480.html
(DIR) [6] https://uebermedien.de/112690/maduro-verhaftung-wenn-redaktionen-der-ki-flut-nicht-gewachsen-sind/
(DIR) [7] /Russischer-KI-Schneesturm/!6147443
(DIR) [8] https://uebermedien.de/112690/maduro-verhaftung-wenn-redaktionen-der-ki-flut-nicht-gewachsen-sind/
## AUTOREN
(DIR) Ann-Kathrin Leclere
## TAGS
(DIR) Schwerpunkt Künstliche Intelligenz
(DIR) ZDF
(DIR) Nachrichten
(DIR) Desinformation
(DIR) Öffentlich-Rechtlicher Rundfunk
(DIR) Dunja Hayali
(DIR) Fake News
(DIR) Fact-Checking
(DIR) Social-Auswahl
(DIR) Reden wir darüber
(DIR) Reden wir darüber
(DIR) Medien
(DIR) Social Media
(DIR) Fake News
## ARTIKEL ZUM THEMA
(DIR) Merkel-Klatscher an falscher Stelle: Das kann die ARD besser
Jetzt also auch noch das Erste. Es sendete zwar einen echten
Fernsehausschnitt, aber an einer zeitlich falschen Stelle. Das ist
unverantwortlich.
(DIR) Strafrechts-Professorin über Fake News: „Wahrheit als Kategorie steht auf dem Spiel“
Die Grenze zwischen Fakt und Fiktion wird in den sozialen Medien immer
verschwommener. Und das veraltete Strafrecht hinkt hinterher, sagt Elisa
Hoven.
(DIR) Digital-Krise: Social Media muss in Therapie
Haben wir den Peak des Mülls im Internet erreicht? Bei all den
KI-generierten Inhalten ist Müdigkeit nachvollziehbar, aufgeben aber auch
keine Option.
(DIR) KI im Spiegel, Wildschweine in Kroatien: Wer vertraut hier noch wem?
Nicht nur der Spiegel vertraut auf KI. Auch die Meldung über eine
„Wildschwein-Invasion“ zeigt: Medien verlassen sich blind auf die
künstliche Unintelligenz.