⛅ Guten Morgen,
derzeit wird viel über Deepfakes und digitale Gewalt gesprochen.
👤 Deepfake-Pornografie
Deepfake-Pornografie ist eine Form der digitalen Gewalt. Dabei werden reale Gesichter und Körper mithilfe von Künstlicher Intelligenz (KI) ohne Einverständnis der Betroffenen in pornografische Fotos oder Videos verwandelt, die häufig täuschend echt wirken.
2023 gab es schätzungsweise 100.000 KI-generierte Videos im Netz, 96 % davon pornografisch - manche mit Millionen Klicks.
Hauptsächlich betroffen von pornografischen Deepfakes sind Frauen, daher wird von geschlechtsspezifischer digitaler Gewalt gesprochen. Neben Prominenten werden vermehrt Jugendliche und Kinder Opfer.
Folgen
Betroffene fühlen sich oft erniedrigt und bloßgestellt. Sie haben Angst, dass Bilder oder Videos im Freundes-, Bekannten- oder Arbeitskreis gesehen und sie deswegen ausgeschlossen oder beleidigt werden.
Dies kann zu tiefgreifenden psychischen sowie physischen Schäden führen, insb. durch die Herabstufung zum Sexualobjekt.
Manche Betroffene erleben sog. „Victim Blaming“, ihnen wird also selbst die Schuld für das Geschehene gegeben. Bisweilen ziehen sich Menschen dann aus Angst vor negativen Konsequenzen aus Online-Diskussionen zurück. Ihre Stimmen fehlen dann im demokratischen Diskurs.
📱👮 Was tun?
In Deutschland existiert kein Straftatbestand für gefälschte Sexbilder und -videos. Trotzdem kann man Anzeige stellen. Zudem wird gerade über ein digitales Gewaltschutzgesetz diskutiert, das Betroffene besser schützen soll.
Werden strafbare Inhalte über ein soziales Netzwerk geteilt, kann man das dem Anbieter melden. Außerdem sollte man Beweismaterial wie E-Mails oder Screenshots sichern.
Hilfe finden Betroffene bei Beratungsstellen für digitale Gewalt, die auf Hass und Gewalt im Netz spezialisiert sind.
➡️ Mehr dazu: Externer Link: https://kurz.bpb.de/dtdp3069
Viele Grüße
Deine bpb Social Media Redaktion