# taz.de -- FAQ zu Deepfake-Pornografie: Warum sind Deepfakes problematisch?
> Deepfakes sind kaum noch von echten Inhalten zu unterscheiden. Vor allem
> die Erstellung pornografischer Inhalte wird zum Problem für Betroffene.
(IMG) Bild: Deepfakes sind nicht mehr nur ein technisches Problem, sondern längst auch ein gesellschaftliches
Ein Video, das echt wirkt, aber zeigt, was nie passiert ist. Ein Foto, das
eine Person zeigt, die dort nie war. Möglich macht das künstliche
Intelligenz – sogenannte Deepfakes. Die Technik entwickelt sich rasant und
wird immer leichter zugänglich. Was früher aufwendig war, lässt sich heute
oft mit wenigen Klicks erstellen. Besonders problematisch ist die
Erstellung von Deepfake-Pornografie. Wer betroffen ist, wie man sich
schützen kann und was rechtlich gilt.
Was ist Deepfake-Pornografie?
[1][Die KI-Verordnung der EU] definiert Deepfakes als „einen durch KI
erzeugten oder manipulierten Bild-, Ton- oder Videoinhalt, der wirklichen
Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen ähnelt und
einer Person fälschlicherweise als echt erscheinen kann“.
Kurz gesagt sind es manipulierte Aufnahmen, bei denen zum Beispiel der Kopf
einer Person auf den Körper einer anderen gesetzt wird. Das taucht
besonders häufig in der sogenannten Deepfake-Pornografie auf. Dabei werden
sexualisierte oder pornografische Inhalte mit echten Personen erstellt,
meist ohne deren Wissen oder Zustimmung.
Da viele KI-Tools solche Funktionen inzwischen anbieten, ist die Erstellung
von Deepfakes grundsätzlich für fast alle zugänglich. Gleichzeitig ist die
Technik so weit fortgeschritten, dass die Ergebnisse täuschend echt wirken.
Die Zeiten, in denen man KI-Bilder noch an merkwürdigen Details wie zu
vielen Fingern erkennen konnte, sind weitgehend vorbei.
Kann ich Deepfakes trotzdem erkennen?
Ganz ausschließen lässt sich das nicht, aber es wird immer schwieriger. Ein
genauer Blick auf Details kann helfen: Wirkt ein Gesicht unscharf im
Vergleich zum Hintergrund? Sitzen markante Merkmale wie Muttermale an der
falschen Stelle? Blinzelt die Person?
In vielen Fällen reicht das allerdings nicht mehr aus. Deshalb arbeiten
Forschungseinrichtungen wie [2][das Fraunhofer-Institut für Angewandte und
Integrierte Sicherheit] daran, mit KI erstellte Aufnahmen zu erkennen, und
zwar mithilfe von KI selbst.
Wer ist von Deepfake-Pornografie betroffen?
Studien zeigen ein deutliches Bild: Betroffen sind vor allem Frauen, die
Täter meistens Männer. Deepfake-Pornografie ist damit nicht nur ein
technisches, sondern auch ein gesellschaftliches Problem.
Für Aufmerksamkeit sorgte Anfang des Jahres etwa [3][der Chatbot Grok auf
der Plattform X]. Nutzer:innen konnten damit relativ einfach
sexualisierte Bilder von realen Frauen erstellen. Eine Untersuchung von AI
Forensics ergab, dass mehr als die Hälfte der mit Grok generierten Bilder
Personen in freizügiger Kleidung zeigten, rund 80 Prozent davon waren
Frauen.
Das Problem [4][betrifft längst nicht mehr nur Prominente]. Auch
Privatpersonen geraten zunehmend ins Visier, etwa durch manipulierte Bilder
aus sozialen Netzwerken. Für Betroffene kann das schwerwiegende Folgen
haben von Rufschädigung bis hin zu psychischer Belastung.
Wie ist die rechtliche Lage in Deutschland?
Spezielle Gesetze nur für Deepfakes gibt es in Deutschland bisher nicht.
[5][Allerdings plant Bundesjustizministerin Stefanie Hubig ein „digitales
Gewaltschutzgesetz“], das hier nachschärfen soll. Ziel ist unter anderem,
Betroffenen bessere Möglichkeiten zu geben, sich gegen die Verbreitung
gefälschter pornografischer Inhalte zu wehren.
Aktuell müssen Betroffene oft auf bestehende Regelungen zurückgreifen wie
die zum Schutz des höchstpersönlichen Lebensbereichs (Paragraf 201a StGB)
oder das Recht am eigenen Bild (Paragraf 22 KunstUrhG). Diese greifen aber
nur in bestimmten Fällen und sind nicht speziell auf Deepfakes
zugeschnitten.
Gibt es Regelungen auf EU-Ebene?
Ja. Die KI-Verordnung der EU, die im Juni 2024 in Kraft getreten ist,
enthält auch Vorgaben zu Deepfakes. Anbieter von KI-Systemen müssen demnach
sicherstellen, dass Inhalte als künstlich erzeugt oder manipuliert
gekennzeichnet sind – allerdings in einem maschinenlesbaren Format, also
nicht unbedingt sichtbar für Menschen. Für Privatpersonen gilt diese
Pflicht nicht.
Außerdem verpflichtet der Digital Services Act Plattformen dazu, illegale
Inhalte – etwa Deepfake-Pornografie – möglichst schnell zu entfernen. In
der Praxis funktioniert das bislang aber nicht immer zuverlässig.
Was kann ich tun, wenn ich selbst betroffen bin?
Ein erster Schritt kann sein, Anzeige zu erstatten. Auch wenn die
rechtliche Lage noch lückenhaft ist, können bestehende Gesetze in
bestimmten Fällen greifen.
Zudem gibt es praktische Möglichkeiten, gegen die Verbreitung vorzugehen:
Bei Google können Betroffene über ein spezielles Formular beantragen, dass
entsprechende Bilder oder Videos aus den Suchergebnissen entfernt werden.
Wichtig dabei ist, dass die Inhalte nicht automatisch von den Plattformen
selbst verschwinden, auf denen sie hochgeladen wurden. Deshalb kann es
sinnvoll sein, sich direkt an die jeweiligen Plattformen zu wenden und dort
eine Löschung zu verlangen.
Unterstützung bieten zudem [6][Beratungsstellen wie HateAid] oder das
[7][Hilfetelefon „Gewalt gegen Frauen“]. Sie helfen dabei, rechtliche
Schritte zu prüfen und mit den Folgen umzugehen.
21 Mar 2026
## LINKS
(DIR) [1] https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=OJ:L_202401689
(DIR) [2] https://www.aisec.fraunhofer.de/de/spotlights/Deepfakes.html
(DIR) [3] /KI-Deepfakes-von-Frauen-auf-X/!6144230
(DIR) [4] /Pornografische-Deep-Fakes/!6164415
(DIR) [5] /KI-Deepfakes-Justizministerin-Hubig-will-haertere-Strafen/!6145592
(DIR) [6] https://hateaid.org/spezialisierte-beratungsstellen/
(DIR) [7] https://www.hilfetelefon.de/das-hilfetelefon/
## AUTOREN
(DIR) Amélie Richter
## TAGS
(DIR) Digitale Gewalt
(DIR) Deepfake
(DIR) Pornografie
(DIR) Digital Services Act
(DIR) Sexualisierte Gewalt
(DIR) HateAid
(DIR) Gewalt gegen Frauen
(DIR) Schwerpunkt Künstliche Intelligenz
(DIR) Social-Auswahl
(DIR) Frauenhass
(DIR) Schwerpunkt Künstliche Intelligenz
(DIR) Sexualisierte Gewalt
## ARTIKEL ZUM THEMA
(DIR) Pornografische Deep-Fakes: Collien Fernandes erhebt schwere Vorwürfe gegen Ex-Mann
Die Schauspielerin behauptet, ihr Ex-Mann Christian Ulmen habe ihr
jahrelang digitale Gewalt angetan. Ulmens Anwalt kündigt rechtliche
Schritte an.
(DIR) KI-Deepfakes von Frauen auf X: Sexualisierte Gewalt als Feature
Elon Musks Chatbot Grok erstellt auf X sexualisierte Bilder realer Frauen –
und von Kindern. Dahinter steckt ein neues System digitaler Gewalt.
(DIR) Digitale Gewalt: Hass im Netz nimmt zu
Besonders Frauen und Personen mit Migrationshintergrund sind von Gewalt im
Netz betroffen. Die Meinungsvielfalt leide, warnen die Studienherausgeber.