Sexualisierte KI-Bilder: Wenn Opfern der Schutz vor digitaler Gewalt fehlt
IMAGO/Hanno Bode
Sexualisierte Deepfakes von Frauen und Mädchen kursieren seit Wochen auf X.
Gewalt gegen Frauen nimmt weiter zu. Nach Angaben der Vereinten Nationen erfährt fast jede dritte Frau ab dem Alter von 15 Jahren im Laufe ihres Lebens körperliche oder sexuelle Gewalt. Doch nicht nur im analogen Leben, auch online werden Frauen seit vielen Jahren zunehmend Opfer von Hassrede und Cybermobbing, erhalten ungefragt sexualisierte Nachrichten oder Fotos und werden offen bedroht. Laut UN Women Deutschland ist digitale Gewalt durch den schnellen technologischen Wandel die sich am schnellsten wachsende Gewaltform. Das zeigt nicht zuletzt der Skandal um den KI-Chatbot Grok auf X, über den sexualisiertene Deepfakes, also KI-generierte Fotos, erstellt und verbreitet werden. Die EU-Kommission hat deswegen ein Verfahren gegen X eingeleitet.
Organisationen wie HateAid unterstützen Betroffene von digitaler Gewalt dabei, sich zu wehren. Franziska Benning, Leiterin der Rechtsabteilung von HateAid, erklärt im Interview mit dem „vorwärts“, wo genau die Lücken beim Schutz gegen digitale Gewalt liegen.
Frau Benning, ganz grundsätzlich: Werden Betroffene digitaler Gewalt heute ernst genommen?
Das ist leider oft Glückssache. Es gibt inzwischen mehr Sensibilität, aber es hängt stark davon ab, auf welche Polizeidienststelle man trifft und wie gut diese für digitale Gewalt sensibilisiert ist.
Volksverhetzung, Cyber-Stalking, Verleumdung
Was ist digitale Gewalt überhaupt?
Digitale Gewalt ist für unsere Betroffenenberatung alles, was sich für die Betroffenen im digitalen Raum wie eine Gewalterfahrung anfühlt. Davon zu unterscheiden sind die Straftatbestände, die auch im digitalen Raum stattfinden: unter anderem sind das die Beleidigung, Verleumdung, üble Nachrede, Bedrohung, Volksverhetzung, Nachstellung beziehungsweise Cyber‑Stalking oder die Veröffentlichung von Bildmaterial ohne Einwilligung nach dem Kunsturhebergesetz.
Wo sehen Sie aktuell die größten Lücken im Strafrecht mit Blick auf digitale Gewalt?
Die drängendste Lücke betrifft nicht einvernehmlich erstellte sexualisierte Deepfakes, also KI-generiertes Video- und Bildmaterial. Ihre Herstellung ist derzeit strafrechtlich nicht eindeutig erfasst. Wir sehen in unserer Betroffenenberatung, dass die Fälle zunehmen. Überdeutlich wird das aktuell an den massenweise verbreiteten KI-Bildern von real existierenden Personen durch Grok – ohne deren Wissen, und in sexualisierten Darstellungen.
Betroffene müssen einen Strafantrag stellen
Welche Folgen hat es konkret, dass die Herstellung solcher KI-Bilder nicht strafrechtlich erfasst ist?
Nehmen wir ein Beispiel: Eine Person erstellt ein sexualisiertes Deepfake einer Bekannten, speichert es auf dem eigenen Rechner oder in der Cloud, verbreitet es aber nicht. Allein diese Herstellung ist nicht eindeutig erfasst vom Strafrecht. Erst wenn das Bildmaterial verbreitet wird, kann es unter bestehende Straftatbestände fallen – etwa Beleidigung oder Verleumdung.
Das Problem: Das sind häufig absolute Antragsdelikte. Das heißt, die Strafverfolgung setzt voraus, dass die betroffene Person neben der Strafanzeige auch noch einen Strafantrag stellt. Das ist eine hohe Hürde für Betroffene. Dass es momentan keinen eigenständigen Straftatbestand gibt, bedeutet auch, dass die Apps und Anwendungen, mit denen so ein Material hergestellt wird, heute ein offiziell legales Geschäftsmodell betreiben, das auf der Basis der Verletzung des Rechts auf sexuelle Selbstbestimmung funktioniert. Daraus hat sich eine ganze Industrie entwickelt, die damit viel Geld verdient, unter anderem durch Werbeeinnahmen.
Was bedeutet das für Betroffene?
Betroffene von sexualisierten Deepfakes finden sich nirgendwo im Strafgesetzbuch wieder. Dabei ist die psychische Belastung für sie sehr groß, für viele fühlt es sich wie ein körperlicher Übergriff an, sie leiden unter Traumatisierung, sozialer Isolation. Das hat gravierende Auswirkungen auf das ganze Leben.
Franziska
Benning
Für viele fühlt es sich wie ein körperlicher Übergriff an, sie leiden unter Traumatisierung, sozialer Isolation.
Selbst wenn es zu einer Anzeige kommt: Inhalte auf Social Media verbreiten sich rasant, während Ermittlungen Zeit brauchen. Gibt es überhaupt Möglichkeiten, eine Verbreitung zu stoppen?
Sehr begrenzt. Betroffene können Inhalte auf Plattformen melden. Wenn die Tatperson bekannt ist, können auch zivilrechtliche Schritte eingeleitet werden, etwa eine einstweilige Verfügung auf Unterlassung. Das ist das schnellste Instrument, das das Zivilrecht bietet. Aber auch das dauert – und setzt eben voraus, dass klar ist, wer für die Verbreitung verantwortlich ist. Außerdem liegt die Beweislast dann oft, je nach Verfahren, anders als im Strafrecht beim Betroffenen, sie müssen also Screenshots sammeln und auch das kann für viele Betroffene sehr traumatisierend sein.
Inhalte dokumentieren und als rechtswidrig melden
Bundesjustizministerin Stefanie Hubig (SPD) hat ein digitales Gewaltschutzgesetz angekündigt, das das Problem der KI-generierten Bildmanipulationen auffangen soll. Was sind Ihre Forderungen an ein neues Gesetz?
Zwei Punkte sind entscheidend: Erstens braucht es einen eigenen Straftatbestand für die nicht einvernehmliche Herstellung von sexualisierten Deepfakes. Erst wenn die Herstellung eindeutig illegal ist, gibt es auch eine Handhabe gegen Anwendungen wie Grok, die dann auf strafrechtlich relevanten Handlungen beruhen. Zweitens muss die zivilrechtliche Rechtsdurchsetzung für Betroffene einfacher, schneller und bezahlbarer werden. Das Internet ist kein rechtsfreier Raum, aber oft ein rechtsdurchsetzungsfreier Raum. Betroffene müssen die Möglichkeit haben, die Identität von Rechtsverletzer*innen festzustellen und ihre Rechte effektiv durchzusetzen.
Und was raten Sie Betroffenen konkret?
Wenn es psychisch möglich ist: anzeigen. Inhalte dokumentieren, melden, sich Unterstützung holen. Ganz wichtig: Nicht nur einen Verstoß gegen die AGB der Plattform melden, sondern einen rechtswidrigen Inhalt. Nur dann ist die Plattform gemäß dem EU-weiten Digital Services Act – derzeit nach Auslegung der Plattformen – verpflichtet, eine Rückmeldung zu geben, ob der Beitrag gelöscht wurde und warum. Wenn die Plattform nichts unternimmt, obwohl sie Kenntnis von der Rechtsverletzung hat, sind zivilrechtliche Schritte gegen die Plattform selbst möglich. Niemand muss allein bleiben – und die Betroffenen tragen nicht die Schuld an dieser Gewalt. Organisationen wie wir oder der Weiße Ring können helfen und begleiten.