Einschätzung: Bei den Videos handelt es sich um KI-generierte Deepfakes. Je nach Absicht, die dahintersteckt, variieren sie in Qualität und Ausspielkanälen.
Überprüfung: Wenn sich das Gesicht von bekannten italienischen Politikerinnen unter pornografische Inhalte mischt, wie erst kürzlich den internationalen Medien zu vernehmen war, dann ist ziemlich klar: Hier stimmt etwas nicht. Aber nicht immer stellt sich die Lage so eindeutig dar.
Auch im deutschsprachigen Raum finden sich vermehrt Gesichter und Stimmen bekannter Persönlichkeiten in dubiosen Videos im Netz. Laut einer Studie von KMPG hat sich die Menge an Deepfakes in Österreich von 2023 auf 2024 verdoppelt.
Die deutsche Journalistin Gabriele Krone-Schmalz war schon wiederholt mit Deepfakes ihrer Person konfrontiert. "In letzter Zeit sind eine ganze Reihe KI generierter Fake-Videos von mir im Netz aufgetaucht (u.a. mache ich irgendwo Werbung für Kryptowährung, was natürlich völliger Blödsinn ist)", äußert sie sich in einem schriftlichen Statement.
Aber auch der deutsche Philosoph Richard David Precht wurde erst kürzlich zum Deepfake-Opfer. Eine Sprecherin des Verlags von Precht verneinte die Frage, ob der Philosoph etwas mit dem Video zu tun hat, das gerade in den sozialen Medien kursiert. Krone-Schmalz und Precht werden rechtlich gegen die Beiträge vorgehen.
Der Erfahrung Krone-Schmalz nach seien einige Videos "so schlecht gemacht, dass man von selbst drauf kommen könnte, dass es sich nicht um reale Aufnahmen handeln kann, andere sind ziemlich perfekt". Ein Hinweis, ob es sich um eine Fälschung handelt, kann zum Beispiel die Häufigkeit der Wimpernschläge darstellen. Menschen zwinkern in der Regel etwa 15 Mal in der Minute. Richard David-Precht zwinkert in der Fälschung gar nicht, Krone-Schmalz zwölf Mal zu ungewöhnlichen Zeitpunkten.
Zudem wirken die Stimmen und Mimik verglichen mit offiziellen Videos der beiden Prominenten irritierend. Zu weiteren Merkmalen von Deepfakes gehören laut saferinternet.at ein "unnatürliches Gesicht, unscharfe Übergänge", "uneinheitliche Qualität und ein unlogischer Hintergrund". Laut dem Bundesministerium für Inneres wirken Merkmale wie "unnatürliche Übergänge im Gesicht oder verschwommene Konturen" oder ein "metallischer Klang" der Stimme, "monotone Sprechweise oder falsche Betonungen" verdächtig.
Kriminelle nutzen oft "cheap fakes"
Ein weiteres Einsatzgebiet für mittels KI erstelltes oder verändertes Material ist das große Feld der Cyberkriminalität. Diese befindet sich nicht nur in Österreich seit Jahren konstant im Aufwind. In diesen Fällen steht aber selten die Qualität der Täuschung im Vordergrund. Die billige Machart ist oft sogar beabsichtigt.
Der oberösterreichische Geschäftsmann Florian Gschwandtner, selbst Opfer von KI-manipuliertem Material, erklärte in einer Episode seines Podcasts "BTM", warum bei betrügerischer Täuschung üblicherweise billige Fälschungen, sogenannte "cheap fakes", zum Einsatz kommen. Scammer würden es gezielt auf Menschen absehen, die selbst plumpe Fälschungen für echt hielten. Diese seien sehr wahrscheinlich auch leichter anfällig dafür, Geld in die beworbenen, vermeintlich lukrativen Anlageformen zu stecken.
Gschwandtner, der für seine Investitionen in gewinnbringende Firmen einer breiteren Öffentlichkeit bekannt ist, sah gegenüber der APA nicht nur sein eigenes Image gefährdet, sondern wolle in erster Linie Menschen vor solchen Betrugsversuchen schützen. Er habe mit den manipulierten Inhalten nichts zu tun und rechtliche Schritte eingeleitet.
Betrugsversuche über verschiedene Kanäle
Nicht nur Personen aus der Privatwirtschaft sind als unfreiwillige Testimonials beliebt - und nicht immer beschränken sich die Betrugsversuche auf das Internet. Das Bundeskriminalamt verwies jüngst auf einen Fall, in dem mittels "Call-ID-Spoofing" die offizielle Telefonnummer des Innenministeriums missbraucht wurde, um einen vermeintlichen Videoanruf von Innenminister Gerhard Karner (ÖVP) höchstpersönlich zu starten. Den darin gestellten Geldforderungen "für Lösegeldzahlungen im Zusammenhang mit Geiselnahmen" solle keinesfalls nachgekommen werden.
Ob per Telefon, über unseriöse Werbung oder aus politischen Motiven in sozialen Medien: Zur besseren Auswertung der immer häufiger auftretenden Straftaten mittels Deepfakes - etwa zum Zweck des Betrugs, der Erpressung, gefährlichen Drohung oder des Kindesmissbrauchs - wurde laut BK mit Jahresbeginn 2024 der interne Code "Deepfake" etabliert. Damit könne man "ein umfassendes Lagebild" erstellen und Ermittlungen gezielter führen.