# taz.de -- Journalismus im Wandel: Führt die KI zum K.o. der Pressefreiheit?
       
       > Künstliche Intelligenz wird im Journalismus zum Hilfsmittel. Gleichzeitig
       > erhöht sie den wirtschaftlichen Druck und verändert, wie wir die Realität
       > wahrnehmen.
       
 (IMG) Bild: Denn KI kann vieles nicht: Nicht menschlich bewerten, nicht wirklich recherchieren, nicht mit Menschen sprechen, keine langfristig tiefgehenden Texte entwickeln
       
       Künstliche Intelligenz ist für die einen der Heilsbringer, für die anderen
       die größte Katastrophe. Dabei wissen wir nicht konkret, worüber wir
       eigentlich reden. Denn wenn wir über KI sprechen, tun wir so, als wäre KI
       nur ein Ding. Doch es ist mehr als das. Der Begriff KI, die übrigens auch
       nicht wirklich intelligent ist, ist ein Sammelbegriff für viele
       unterschiedliche Systeme. Sprechen wir von KI, meinen wir etwa Chatbots wie
       ChatGPT. Aber KI sind auch Bildgeneratoren, Algorithmen, kognitive oder
       generell autonome Unterstützungssysteme, Robotiksysteme.
       
       Wir sind überfordert mit dem, was KI ist, was sie kann und vor allem, wie
       schnell sie sich entwickelt. Die Arbeitsweise, auch die Geschwindigkeit,
       mit der KI arbeitet, und die Ergebnisse, die dabei entstehen, seien es
       Deepfakes oder Bilder, können uns auch überfahren. Und wir können zum Teil
       gar nicht richtig mit dem umgehen, was KI uns liefert.
       
       Technisch ist KI in einzelnen Bereichen komplett verschieden. Es sind
       unterschiedliche Systeme, und wir selbst können nicht genau einschätzen,
       was KI alles ist. Deswegen verstehen wir KI oft nicht nur falsch, sondern
       systematisch falsch. Wir übertragen oft falsche Erwartungen auf KI, oder
       auf die falschen Systeme innerhalb von KI. Das, was wir sehen, ist nur das
       Ergebnis. Der KI-Prozess selbst, also das, was zur Verarbeitung passiert,
       bleibt uns verborgen. Das nennt man Blackbox-KI.
       
       ## Der Blackbox-Effekt
       
       Und diesen Blackbox-Effekt können selbst Expertinnen und Experten oft nicht
       im Detail erklären, weil er schlicht nicht einsehbar ist. Verstehe ich
       nicht, wie etwas funktioniert, verliere ich die Kontrolle. Daraus entsteht
       die Angst davor, wie KI arbeitet, warum sie so arbeitet, welche Ergebnisse
       sie liefert und was diese mit uns machen können. Und welche
       gesellschaftlichen Probleme unbemerkt entstehen können.
       
       KI selbst kann im klassischen Sinn keine Zensur ausüben. Zensur geht im
       bisherigen Verständnis von Menschen oder Organisationen aus, die Systeme
       gestalten und steuern. Lange Zeit war sie vor allem ein Instrument von
       Staaten, doch heute wird sie auf parastaatlicher Ebene auch durch
       Plattformen, Konzerne oder andere Machtstrukturen umgesetzt. KI übernimmt
       dabei nicht die Entscheidung, sondern die Umsetzung. Und dabei geht es um
       schnelle, menschenlose Umsetzung. Sie filtert, gewichtet und sortiert
       Inhalte entlang von Vorgaben, die von Menschen definiert wurden.
       
       Wenn ich auf Social Media etwas poste oder Inhalte veröffentliche, wird KI
       diese filtern. KI kann Inhalte nach Kriterien sortieren. Taucht ein
       bestimmter Begriff auf, bekommt ein Inhalt mehr oder weniger Reichweite. KI
       kann Inhalte verstärken, indem sie sie häufiger verbreitet und sie dadurch
       für andere Systeme als relevant erscheinen lässt. Und so können künstliche
       Intelligenzen in Form von Algorithmen die öffentliche Meinung beeinflussen.
       Wir wissen, dass Social Media und große Tech-Konzerne genau das tun.
       
       Bestimmte Themen und Emotionen bekommen mehr Reichweite als andere. Vor
       allem aggressive Emotionen werden stärker verbreitet, weil Plattformen
       darauf ausgelegt sind, dass wir möglichst lange und intensiv mit ihnen
       interagieren. Moderate, sachliche und informationsbasierte Inhalte gehen
       dabei häufig unter. Das wird gezielt ausgenutzt.
       
       ## Maschinell erzeugte Massenproduktion
       
       Das ist keine klassische Zensur, wie sie ein Staat ausübt, aber eine Form
       stiller Steuerung. Und diese kann dazu führen, dass sich unser Bild von der
       Realität verschiebt, weil wir omnipräsent Krawall wahrnehmen. Das ist eines
       der zentralen Probleme: KI kann unser Verständnis von Öffentlichkeit
       verändern.
       
       Doch was passiert, wenn KI im Journalismus ankommt? Ist KI ein Jobkiller
       oder eine Chance für bessere Qualität im Journalismus? Die große Angst ist,
       dass KI Texte schreibt und diese direkt veröffentlicht werden. Ja, das ist
       möglich. Standardisierte Inhalte können automatisiert erzeugt werden.
       Agenturmeldungen, Zusammenfassungen oder einfache Analysen lassen sich
       problemlos generieren.
       
       Das erhöht den Druck auf Journalistinnen und Journalisten, die plötzlich in
       Konkurrenz zu maschinell erzeugter Massenproduktion stehen. Das kann dazu
       führen, dass Journalismus wirtschaftlich stärker unter Druck gerät und
       langfristig ausgehöhlt wird.
       
       Doch genau hier liegt auch eine Chance. Denn KI kann vieles nicht: Nicht
       menschlich bewerten, nicht wirklich recherchieren, nicht mit Menschen
       sprechen, keine langfristig tiefgehenden Texte entwickeln. Sie kann nur
       punktuell Inhalte erzeugen. Vor allem kann sie keine Verantwortung
       übernehmen.
       
       ## Verzerrte Wahrnehmung der Realität
       
       Sie kann nicht reflektieren, was sie schreibt. Sie versteht keine
       gesellschaftlichen Konsequenzen. Sie kann nicht beraten, nicht einordnen
       und nicht bewerten. Genau das ist die Aufgabe des Journalismus. Denn
       Journalismus ist mehr als Textproduktion, bedeutet Einordnung, Kontext und
       Verantwortung. Genau dort muss Journalismus wieder stärker ansetzen.
       
       KI kann als Werkzeug genutzt werden. Als Hilfsmittel beim Schreiben, als
       Korrekturinstanz. Aber sie darf nicht Aufgaben übernehmen, die sie ohnehin
       nicht leisten kann. Bewertung, Haltung, Einordnung, auch subjektive Formate
       wie Kolumnen oder Satire. All das bleibt menschlich. Und hier kann und muss
       der Journalismus punkten!
       
       Die größte Gefahr ist nicht, dass KI uns ersetzt, sondern dass KI die
       Strukturen verändert, in denen wir Realität wahrnehmen. Durch Algorithmen,
       durch (gezielt?) falsche Gewichtung, durch eine beeinflusste
       Informationsökologie auf Social Media entsteht ein verzerrtes System, das
       unsere Wahrnehmung der Realität verformt. Wir bemerken diese Veränderung
       oft erst, wenn sie bereits voll wirksam ist.
       
       30 Apr 2026
       
       ## AUTOREN
       
 (DIR) Andre Wolf
       
       ## TAGS
       
 (DIR) Schwerpunkt Pressefreiheit
 (DIR) Journalismus
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) taz Panter Stiftung
 (DIR) Schwerpunkt Pressefreiheit
 (DIR) Schwerpunkt Pressefreiheit
 (DIR) Schwerpunkt Pressefreiheit
 (DIR) Reporter ohne Grenzen
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Schwerpunkt Künstliche Intelligenz
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Fake News und Manipulation: Mit KI-Pornografie gegen journalistische Integrität
       
       Kritische Journalist*innen werden mit sexualisierten Deepfakes mundtot
       gemacht. Betroffen sind vor allem Frauen.
       
 (DIR) Plattformmacht und Regulierung: Transparenz gegen Werbemanipulation
       
       Kein Verweis auf den Schutz der Pressefreiheit beim Entwurf für das
       Politische-Werbung-Transparenz-Gesetz (PWTG) der Europäischen Union (EU).
       
 (DIR) Fake News und Manipulation: Effektive Meme-Warfare
       
       Im Krieg macht jetzt auch KI staatliche Propaganda, wobei Memes ihn als
       kalkulierte Kommunikationsinstrumente zu einer scheinbar harmlosen
       Unterhaltung machen.
       
 (DIR) Lage der Pressefreiheit: Deutschland fällt um drei Plätze ab
       
       Die Pressefreiheit steht unter Druck. Laut Rangliste von Reporter ohne
       Grenzen fallen mehr als die Hälfte aller Länder in die beiden schlechtesten
       Kategorien.
       
 (DIR) Befragung zu psychischen Belastungen: Zwei von drei jungen Menschen vertrauen sich der KI an
       
       Mit ChatGPT und Co über Liebeskummer und Depression sprechen: Chatbots
       werden für viele zum Gesprächspartner bei seelischen Problemen.
       
 (DIR) Künstliche Intelligenz: Macht in falschen Händen
       
       Die Aufholjagd bei Künstlicher Intelligenz in Europa droht, die Fehler des
       Silicon Valleys zu wiederholen. Es braucht eine Alternative zu privaten
       Akteuren.