Nach einem unbekannten Facetime-Anruf wird Markus erpresst – mit einem durch KI manipulierten Video, das ihn beim Masturbieren zeigt. Seine Geschichte ist kein Einzelfall. Was kann man dagegen tun?
Gefälschte Videoaufnahmen, sogenannte Deepfakes, sind keine Seltenheit mehr: Sie zeigen zum Beispiel Donald Trump in der Papstrobe oder Mona Vetsch, die für zweifelhafte Finanzseiten wirbt. Doch jetzt erreichen sie eine neue Dimension.
Deepfakes sehen immer echter aus und die Maschen der Betrüger werden immer perfider. So auch im Fall von Markus. Kurz nachdem er einen unbekannten Facetime-Anruf annimmt, erhält er ein Video zugeschickt. Es zeigt ihn beim Masturbieren. Die Betrüger hatten das Video mit KI so manipuliert, dass die Szene echt wirkte. Dann drohen sie ihm, es zu verschicken, wenn er nicht zahlt.
Auch an einer Schweizer Schule wurde kürzlich ein Fall bekannt, in dem Oberstufenschüler KI-generierte Nacktbilder von Mitschülerinnen über Snapchat verbreiteten.
Wie funktionieren Deepfakes? Was bedeuten solche Aufnahmen für die Betroffenen? Und was können Behörden dagegen tun? Das erklärt Oliver Zihlmann, Leiter des Tamedia Recherchedesks in einer neuen Folge des täglichen Podcasts «Apropos».
Host: Alexandra Aregger
Produzentin: Valeria Mazzeo
Mehr zu Deepfakes