# taz.de -- FAQ zu Deepfake-Pornografie: Warum sind Deepfakes problematisch?
       
       > Deepfakes sind kaum noch von echten Inhalten zu unterscheiden. Vor allem
       > die Erstellung pornografischer Inhalte wird zum Problem für Betroffene.
       
 (IMG) Bild: Deepfakes sind nicht mehr nur ein technisches Problem, sondern längst auch ein gesellschaftliches
       
       Ein Video, das echt wirkt, aber zeigt, was nie passiert ist. Ein Foto, das
       eine Person zeigt, die dort nie war. Möglich macht das künstliche
       Intelligenz – sogenannte Deepfakes. Die Technik entwickelt sich rasant und
       wird immer leichter zugänglich. Was früher aufwendig war, lässt sich heute
       oft mit wenigen Klicks erstellen. Besonders problematisch ist die
       Erstellung von Deepfake-Pornografie. Wer betroffen ist, wie man sich
       schützen kann und was rechtlich gilt.
       
       Was ist Deepfake-Pornografie? 
       
       [1][Die KI-Verordnung der EU] definiert Deepfakes als „einen durch KI
       erzeugten oder manipulierten Bild-, Ton- oder Videoinhalt, der wirklichen
       Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen ähnelt und
       einer Person fälschlicherweise als echt erscheinen kann“.
       
       Kurz gesagt sind es manipulierte Aufnahmen, bei denen zum Beispiel der Kopf
       einer Person auf den Körper einer anderen gesetzt wird. Das taucht
       besonders häufig in der sogenannten Deepfake-Pornografie auf. Dabei werden
       sexualisierte oder pornografische Inhalte mit echten Personen erstellt,
       meist ohne deren Wissen oder Zustimmung.
       
       Da viele KI-Tools solche Funktionen inzwischen anbieten, ist die Erstellung
       von Deepfakes grundsätzlich für fast alle zugänglich. Gleichzeitig ist die
       Technik so weit fortgeschritten, dass die Ergebnisse täuschend echt wirken.
       Die Zeiten, in denen man KI-Bilder noch an merkwürdigen Details wie zu
       vielen Fingern erkennen konnte, sind weitgehend vorbei.
       
       Kann ich Deepfakes trotzdem erkennen? 
       
       Ganz ausschließen lässt sich das nicht, aber es wird immer schwieriger. Ein
       genauer Blick auf Details kann helfen: Wirkt ein Gesicht unscharf im
       Vergleich zum Hintergrund? Sitzen markante Merkmale wie Muttermale an der
       falschen Stelle? Blinzelt die Person?
       
       In vielen Fällen reicht das allerdings nicht mehr aus. Deshalb arbeiten
       Forschungseinrichtungen wie [2][das Fraunhofer-Institut für Angewandte und
       Integrierte Sicherheit] daran, mit KI erstellte Aufnahmen zu erkennen, und
       zwar mithilfe von KI selbst.
       
       Wer ist von Deepfake-Pornografie betroffen? 
       
       Studien zeigen ein deutliches Bild: Betroffen sind vor allem Frauen, die
       Täter meistens Männer. Deepfake-Pornografie ist damit nicht nur ein
       technisches, sondern auch ein gesellschaftliches Problem.
       
       Für Aufmerksamkeit sorgte Anfang des Jahres etwa [3][der Chatbot Grok auf
       der Plattform X]. Nutzer:innen konnten damit relativ einfach
       sexualisierte Bilder von realen Frauen erstellen. Eine Untersuchung von AI
       Forensics ergab, dass mehr als die Hälfte der mit Grok generierten Bilder
       Personen in freizügiger Kleidung zeigten, rund 80 Prozent davon waren
       Frauen.
       
       Das Problem [4][betrifft längst nicht mehr nur Prominente]. Auch
       Privatpersonen geraten zunehmend ins Visier, etwa durch manipulierte Bilder
       aus sozialen Netzwerken. Für Betroffene kann das schwerwiegende Folgen
       haben von Rufschädigung bis hin zu psychischer Belastung.
       
       Wie ist die rechtliche Lage in Deutschland? 
       
       Spezielle Gesetze nur für Deepfakes gibt es in Deutschland bisher nicht.
       [5][Allerdings plant Bundesjustizministerin Stefanie Hubig ein „digitales
       Gewaltschutzgesetz“], das hier nachschärfen soll. Ziel ist unter anderem,
       Betroffenen bessere Möglichkeiten zu geben, sich gegen die Verbreitung
       gefälschter pornografischer Inhalte zu wehren.
       
       Aktuell müssen Betroffene oft auf bestehende Regelungen zurückgreifen wie
       die zum Schutz des höchstpersönlichen Lebensbereichs (Paragraf 201a StGB)
       oder das Recht am eigenen Bild (Paragraf 22 KunstUrhG). Diese greifen aber
       nur in bestimmten Fällen und sind nicht speziell auf Deepfakes
       zugeschnitten.
       
       Gibt es Regelungen auf EU-Ebene? 
       
       Ja. Die KI-Verordnung der EU, die im Juni 2024 in Kraft getreten ist,
       enthält auch Vorgaben zu Deepfakes. Anbieter von KI-Systemen müssen demnach
       sicherstellen, dass Inhalte als künstlich erzeugt oder manipuliert
       gekennzeichnet sind – allerdings in einem maschinenlesbaren Format, also
       nicht unbedingt sichtbar für Menschen. Für Privatpersonen gilt diese
       Pflicht nicht.
       
       Außerdem verpflichtet der Digital Services Act Plattformen dazu, illegale
       Inhalte – etwa Deepfake-Pornografie – möglichst schnell zu entfernen. In
       der Praxis funktioniert das bislang aber nicht immer zuverlässig.
       
       Was kann ich tun, wenn ich selbst betroffen bin? 
       
       Ein erster Schritt kann sein, Anzeige zu erstatten. Auch wenn die
       rechtliche Lage noch lückenhaft ist, können bestehende Gesetze in
       bestimmten Fällen greifen.
       
       Zudem gibt es praktische Möglichkeiten, gegen die Verbreitung vorzugehen:
       Bei Google können Betroffene über ein spezielles Formular beantragen, dass
       entsprechende Bilder oder Videos aus den Suchergebnissen entfernt werden.
       Wichtig dabei ist, dass die Inhalte nicht automatisch von den Plattformen
       selbst verschwinden, auf denen sie hochgeladen wurden. Deshalb kann es
       sinnvoll sein, sich direkt an die jeweiligen Plattformen zu wenden und dort
       eine Löschung zu verlangen.
       
       Unterstützung bieten zudem [6][Beratungsstellen wie HateAid] oder das
       [7][Hilfetelefon „Gewalt gegen Frauen“]. Sie helfen dabei, rechtliche
       Schritte zu prüfen und mit den Folgen umzugehen.
       
       21 Mar 2026
       
       ## LINKS
       
 (DIR) [1] https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=OJ:L_202401689
 (DIR) [2] https://www.aisec.fraunhofer.de/de/spotlights/Deepfakes.html
 (DIR) [3] /KI-Deepfakes-von-Frauen-auf-X/!6144230
 (DIR) [4] /Pornografische-Deep-Fakes/!6164415
 (DIR) [5] /KI-Deepfakes-Justizministerin-Hubig-will-haertere-Strafen/!6145592
 (DIR) [6] https://hateaid.org/spezialisierte-beratungsstellen/
 (DIR) [7] https://www.hilfetelefon.de/das-hilfetelefon/
       
       ## AUTOREN
       
 (DIR) Amélie Richter
       
       ## TAGS
       
 (DIR) Digitale Gewalt
 (DIR) Deepfake
 (DIR) Pornografie
 (DIR) Digital Services Act
 (DIR) Sexualisierte Gewalt
 (DIR) HateAid
 (DIR) Gewalt gegen Frauen
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Social-Auswahl
 (DIR) Frauenhass
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Sexualisierte Gewalt
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Pornografische Deep-Fakes: Collien Fernandes erhebt schwere Vorwürfe gegen Ex-Mann
       
       Die Schauspielerin behauptet, ihr Ex-Mann Christian Ulmen habe ihr
       jahrelang digitale Gewalt angetan. Ulmens Anwalt kündigt rechtliche
       Schritte an.
       
 (DIR) KI-Deepfakes von Frauen auf X: Sexualisierte Gewalt als Feature
       
       Elon Musks Chatbot Grok erstellt auf X sexualisierte Bilder realer Frauen –
       und von Kindern. Dahinter steckt ein neues System digitaler Gewalt.
       
 (DIR) Digitale Gewalt: Hass im Netz nimmt zu
       
       Besonders Frauen und Personen mit Migrationshintergrund sind von Gewalt im
       Netz betroffen. Die Meinungsvielfalt leide, warnen die Studienherausgeber.