BANGKOK: Das Central Investigation Bureau (CIB) warnt die Öffentlichkeit vor einer neuen Betrugsmasche, bei der Callcenter-Banden fortschrittliche Technologien nutzen, um Opfer durch das Klonen von Stimmen und Gesichtern zu täuschen. Diese sogenannten „Deepfake“-Techniken erlauben es den Betrügern, die Identität von Freunden oder Bekannten der Opfer anzunehmen.
Laut einer Mitteilung des CIB am Montag (6. Mai 2024) verwenden die Betrüger generative künstliche Intelligenz (KI), um täuschend echte Videos und gefälschte Nachrichtenbeiträge zu produzieren. Diese Technologie ermöglicht es ihnen sogar, ihre Stimmen und Gesichter während Telefon- oder Videoanrufen zu verändern. Das Ziel ist es, das Vertrauen der Opfer zu gewinnen, um sie zur Überweisung von Geld zu bewegen.
Die Banden nutzen ebenfalls generative KI, um Videoclips und Artikel über nicht existierende Unternehmen zu erstellen. Diese gefälschten Inhalte sollen ihre betrügerischen Angebote glaubwürdig erscheinen lassen und die Opfer zu riskanten Investitionen verleiten.
Das CIB rät zur Vorsicht bei Telefon- oder Videoanrufen. Empfänger solcher Anrufe sollten besonders auf den Tonfall und den Sprachrhythmus achten. Verzerrungen oder ein unnatürlich gleichmäßiger Rhythmus könnten Indizien für eine durch KI erzeugte Stimme sein. Bei Videoanrufen sollte man zudem auf die Lippenbewegungen des Gesprächspartners achten. Um die Identität des Anrufers zu überprüfen, empfiehlt das CIB, Fragen zu stellen, die nur ein echter Freund oder Familienmitglied beantworten könnte.
Zusätzlich sollten Menschen, die in Produkte investieren oder Geldanlagen tätigen möchten, ihre Bankkonten genau überprüfen, bevor sie Transaktionen durchführen. Die neue Warnung des CIB unterstreicht die wachsende Bedeutung der Wachsamkeit im digitalen Zeitalter, in dem Technologien sowohl genutzt als auch missbraucht werden können.