KI-generierte Pornobilder stellen ein ernsthaftes Problem dar, das weit über Prominente wie Taylor Swift hinausgeht. Studien zeigen, dass 90 bis 95% aller Deepfakes nicht-einvernehmliche Pornografie betreffen, wobei Frauen zu 90% die Zielscheibe dieser Angriffe sind.
Die Hilflosigkeit der Opfer
Vor vier Jahren begannen Frauen, die manipulierte Bilder von sich auf sozialen und pornografischen Plattformen fanden, sich an HateAid zu wenden. Ein großes Problem war die Abwesenheit effektiver Meldewege für diese Plattformen. Selbst wenn Bilder gemeldet und entfernt wurden, tauchten sie oft kurz darauf wieder auf, was zu tiefgreifenden emotionalen und psychischen Folgen für die Betroffenen führte.
Technologische Entwicklung verschärft das Problem
Die Verbreitung generativer KI-Technologien hat das Problem auf eine neue Ebene gehoben. Face-Swap-Apps ermöglichen es nun, mit wenigen Klicks das Gesicht einer Frau in pornografische Videos einzufügen. Besonders beunruhigend ist, dass solche Deepfakes sogar von Minderjährigen leicht erstellt werden können, oft zum Schaden von Klassenkameradinnen.
Notwendigkeit strengerer gesetzlicher Maßnahmen
HateAid setzt sich für strengere gesetzliche Vorgaben und Designänderungen in Produkten ein, um die Erstellung solcher Bilder zu verhindern. Von Hodenberg schlägt Maßnahmen wie das Generieren von Wasserzeichen und das Verbot bestimmter Bilder vor. Sie betont auch die Verantwortung von App-Stores, solche Anwendungen zu blockieren, und warnt vor den demokratiegefährdenden Auswirkungen von Deepfakes, die die Grenzen zwischen Wahrheit und Lüge verwischen.