# taz.de -- Europäische KI-Verordnung: KI-Kängurus nur mit Wasserzeichen
       
       > Ein Teil der KI-Verordnung tritt in Kraft, Anbieter müssen künstliche
       > Intelligenz ab August transparent machen. Die Industrie will andere
       > Regeln aufweichen.
       
 (IMG) Bild: Ein garantiert echtes Känguru – 1961 fotografiert
       
       Am Flughafen, kurz vor dem Boarding. Eine Passagierin diskutiert
       verzweifelt gestikulierend mit einer Airline-Angestellten. Dann schwenkt
       die Kamera von den beiden weg zu einem Känguru mit vermeintlicher Bordkarte
       in der Hand.
       
       Wird hier etwa einem Menschen samt „emotional support animal“ – ein Tier,
       das etwa bei psychischen Erkrankungen Halt geben soll – der Zugang
       verwehrt?
       
       Ende Mai ging dieses [1][Video] viral, und wie aus den Kommentarspalten zu
       entnehmen ist, hielten viele Menschen diesen Fake für authentisch.
       
       Hergestellt wurde der Schnipsel mit künstlicher Intelligenz (KI). Nicht nur
       durch kurzes Nachdenken wäre man womöglich darauf gekommen – auch das Motto
       des Instagram-Accounts, „Your Daily Dose of Unreality“ (etwa: Deine
       tägliche Portion Unrealistisches) ist vielsagend. Das Logo des Kanals ist
       sogar im Video zu sehen. Doch derartige Checks sind es eben, die beim
       schnellen Scrollen durch Social Media zu kurz kommen.
       
       ## Strenge Regeln bei Deepfakes
       
       Nun hat es in der Regel keine schlimmen Folgen, auf einen Fake-Känguru-Clip
       hereinzufallen. Im Gegenteil: Es kann sogar hilfreich sein, wenn dem
       nächsten Video dann mit größerer Vorsicht begegnet wird. Doch es gibt
       andere mit KI erstellte Inhalte, bei denen die Folgen gravierend sein
       können.
       
       Videos, die angebliche Kriegshandlungen oder andere relevante Geschehnisse
       zeigen sollen – wie das von Trump geteilte Ergebnis künstlicher
       Intelligenz, das die angebliche Festnahme Barack Obamas zeigt. Oder
       Deepfakes, bei denen einer Person mit ihrer eigenen, aber KI-generierten
       Stimme lippensynchron Worte in den Mund gelegt werden. Oder KI-Pornos, in
       denen Bilder von Frauen, meist Prominenten, auf die Körper von
       Darstellerinnen montiert werden, ohne dass die Montage ersichtlich ist.
       
       Ab August soll sich das ändern. Dann werden einige Meilensteine des [2][AI
       Acts], der EU-KI-Verordnung, wirksam. Zentral dabei: Anbieter von
       KI-Systemen müssen Transparenzpflichten von nun an erfüllen. Chatte ich
       gerade mit einem Menschen oder einem Bot? Wurde ein Bild, Video oder
       Audio-Inhalt von einer KI erzeugt? Die Kennzeichnungspflicht gilt auch und
       noch strenger für Deepfakes.
       
       „Die Neuerungen des AI-Acts tragen maßgeblich zum Schutz von Verbrauchern
       bei“, sagt der auf Verbraucherfragen spezialisierte Rechtsanwalt Christian
       Solmecke. In der Pflicht sind vor allem die Anbieter von KI-Systemen, also
       zum Beispiel ChatGPT oder Gemini. Sie müssen KI-Inhalte kennzeichnen,
       zunächst „maschinenlesbar“.
       
       Das kann zum Beispiel ein digitales Wasserzeichen sein, das Plattformen wie
       Instagram oder Tiktok auslesen und den Inhalt entsprechend als KI-generiert
       markieren können. Bei Verstößen kann es teuer werden: Bußgelder dürfen bis
       zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes des
       Unternehmens betragen.
       
       Auch die Nutzer:innen sind gefragt: „Bei Deepfakes, also realistisch
       manipulierten Bildern, Audio- oder Videoinhalten, bei denen eine Person
       irreführend dargestellt wird, trifft die Pflicht zur Kennzeichnung nicht
       nur den Anbieter des KI-Systems, sondern auch explizit den ‚Bereitsteller‘,
       also die Person, die das Deepfake erstellt oder veröffentlicht“, erklärt
       Solmecke. Diese Kennzeichnung muss auch für Menschen erkennbar sein.
       
       Transparenter sollen auch die Trainingsdaten werden – zumindest ein
       bisschen. Aus diesen Daten erkennen die Algorithmen Muster, die sie später
       anwenden. Wenn die Trainingsdaten nicht sorgfältig ausgewählt wurden,
       können sie zu Verzerrungen führen. Denn eine KI, die beispielsweise nur mit
       Fotos von weißen, männlichen Ärzten gefüttert wurde, wird wahrscheinlich
       keine Abbildungen von PoC-Ärztinnen erzeugen.
       
       Hersteller besonders mächtiger KI-Modelle, wie etwa ChatGPT, müssen den
       neuen Regeln zufolge zumindest zusammenfassend offenlegen, welche
       Trainingsdaten verwendet wurden. Ob das tatsächlich dafür sorgt, dass
       Verzerrungen oder problematische Inhalte frühzeitig erkannt werden, muss
       sich noch zeigen.
       
       Derweil versuchen Akteure aus der Industrie zunehmend, die KI-Regeln zu
       schwächen. Für die USA hat Trump am Mittwoch angekündigt, die ohnehin
       rudimentären Vorgaben abzuschaffen. Und auch in Europa sehen Unternehmen
       anscheinend Chancen, die Vorgaben zu verwässern.
       
       So forderten Anfang Juli rund 50 Topmanager:innen europäischer
       Unternehmen, ihre Umsetzung aufzuschieben. Die Regeln „gefährden nicht nur
       die Entwicklung von europäischen Champions, sondern auch die Möglichkeiten
       aller Industrien, KI so einzusetzen, wie es der globale Wettbewerb
       erfordert“, heißt es in dem [3][Schreiben]. Unterzeichnet haben unter
       anderem Verantwortliche von Mercedes-Benz, Siemens Energy, Lufthansa,
       Südzucker und Ravensburger.
       
       ## Ein Kodex, der sich langsam wandelt
       
       Da dürfte es die Industrie freuen, dass sich ein wichtiges Verfahren gerade
       verzögert: nämlich die Erstellung eines Verhaltenskodex für Hersteller von
       KI-Systemen. Ursprünglich sollte der seit Mai vorliegen. Doch Anfang Juli
       teilte die EU-Kommission mit, dass es wohl eher bis Ende des Jahres dauern
       werde.
       
       Felix Duffy von [4][LobbyControl] glaubt nicht, dass hinter der
       Verschiebung Lobbydruck steht – wohl aber hinter den sich verändernden
       Inhalten des Kodex. Diese hätten sich mittlerweile in eine deutlich
       industriefreundlichere Richtung entwickelt. Etwa wenn es darum geht,
       welche Maßnahmen Hersteller ergreifen müssen, um die Risiken für Demokratie
       und Gesellschaft möglichst gering zu halten.
       
       „Was die Schutzmaßnahmen angeht, haben die Konzerne einen viel größeren
       Handlungsspielraum als ursprünglich vorgesehen“, kritisiert Duffy. Im
       Ergebnis könnten sich die Hersteller so attestieren, ausreichend präventiv
       zu arbeiten. Der Experte kritisiert: „Die großen Tech-Konzerne und
       Betreiber von KI-Modellen hatten privilegierten Zugang zu dem Prozess, in
       dem der Verhaltenskodex erstellt wurde.“ Derweil hätten
       zivilgesellschaftliche Akteure nur am Rande mitreden dürfen.
       
       Das sorgte für breiten Protest: Reporter ohne Grenzen etwa gab im April
       bekannt, die [5][Mitarbeit an dem Kodex zu beenden] – unter anderem
       aufgrund des „überwältigenden Einflusses der Industrie“.
       
       26 Jul 2025
       
       ## LINKS
       
 (DIR) [1] https://www.instagram.com/infiniteunreality/reel/DKFkqenMph3/?hl=de
 (DIR) [2] /Neue-Regeln-fuer-KI/!5994919
 (DIR) [3] https://docs.google.com/document/d/16570SgWppeeeYINe4WydTbG2ioBTPdOW_fmfMbmg6sY/edit?tab=t.nwpblityhtt3
 (DIR) [4] https://www.lobbycontrol.de/
 (DIR) [5] https://rsf.org/en/rsf-withdraws-negotiations-european-ai-act-s-code-practice
       
       ## AUTOREN
       
 (DIR) Svenja Bergt
       
       ## TAGS
       
 (DIR) wochentaz
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Verbraucherschutz
 (DIR) GNS
 (DIR) Reden wir darüber
 (DIR) Social-Auswahl
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Kolumne Digitalozän
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Datenschutz
 (DIR) Schwerpunkt Künstliche Intelligenz
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Deepfake-Scam auf Meta-Plattformen: Wenn Merz und Trump Ihnen Geld schenken wollen
       
       Eine Recherche des Tech Transparency Project zeigt, dass Meta
       Deepfakevideos als Werbung zulässt. Den Scammern, aber auch Meta bringt das
       viel Geld.
       
 (DIR) Unterhaltungen mit ChatGPT: Löschen verboten
       
       Nach einer US-Gerichtsentscheidung muss der Chatbot alle Eingaben von
       Nutzenden speichern. Die EU-Aufsichtsbehörde reagiert verhalten.
       
 (DIR) Musikhören in Zeiten von KI: Algorithmen, die Ohrwürmer schreiben
       
       Musik, die mit Hilfe von Künstlicher Intelligenz produziert wurde – das
       geht heute schon in Sekunden. Unsere Autorin hat deshalb Vorurteile.
       
 (DIR) KI-Experte über AI-Gesetz der EU: „Deutliche Verbesserungen“
       
       Die EU hat Regeln für künstliche Intelligenz beschlossen. Wann
       Verbraucher:innen etwas davon mitkriegen werden, erklärt Experte Miika
       Blinn.
       
 (DIR) AI-Verordnung der EU: Streit um KI-Training mit Artikeln
       
       Der neue AI-Act der EU lässt Fragen nach dem Verhältnis von Medien und KI
       offen. Zum Beispiel: Darf man KIs mit journalistischen Texten füttern?
       
 (DIR) FAQ zum neuen AI Act der EU: KI bekommt Regeln
       
       Künstliche Intelligenz hilft bei der Überwachung, aber auch bei der
       Verbreitung von Hass und Fake News. Die EU schafft nun weltweit einmalig
       Recht.