AI-Stimmenklon-Betrug auf dem Vormarsch
Laut dem IdentityIQ-Betrugsbericht 2022 des IDIQ hat die Zahl der durch KI-Stimmtechnologie ermöglichten Betrügereien zugenommen. Betrüger sind jetzt in der Lage, erstaunlich realistische Stimmen zu erzeugen und sich nahtlos als Familienmitglieder, Freunde und sogar vertrauenswürdige Personen auszugeben.
Scott Hermann, CEO von IDIQ und bekannter Spezialist für Cybersicherheit und Finanzen, ist sehr besorgt über diese Entwicklung. Er führt weiter aus, dass bei KI-Stimmenklonprogrammen Betrüger fortschrittliche Technologie einsetzen, um die Stimmen von Menschen zu duplizieren, die häufig über soziale Medien aufgenommen werden. Sie kontaktieren dann ahnungslose Opfer und geben sich als jemand aus, den sie kennen und dem sie vertrauen. Die Betrüger überzeugen ihre Opfer davon, dass ihre Angehörigen in Gefahr sind, und bringen sie durch Irreführung und Manipulation dazu, Geld zu zahlen, persönliche Informationen preiszugeben oder sich an anderen riskanten Verhaltensweisen zu beteiligen.
Diese Gauner gaukeln ihren Opfern vor, dass sie mit einem Familienmitglied sprechen, das aus den unterschiedlichsten Gründen Geld benötigt, z. B. um einen Unfallschaden zu begleichen oder Lösegeld für eine Entführung zu zahlen. Um einen verblüffend identischen Stimmenklon zu erstellen, benötigen die Gauner lediglich einen 20-sekündigen Sprachclip, der häufig über soziale Medien beschafft wird.
Hermann fügt hinzu, dass diese Betrüger in hochentwickelten Organisationen arbeiten, die in der Regel in Übersee angesiedelt sind und von Bürogebäuden aus operieren. Voice-Cloning-Betrug ist relativ neu, wobei IdentityIQ einen Anstieg der Fälle im letzten Jahr meldet.
Die Federal Trade Commission warnte auch vor dem Einsatz von künstlicher Intelligenz bei diesen Betrügereien und erklärte, die Technologie sei inzwischen so ausgereift, dass selbst eine Mutter die Stimme ihres eigenen Kindes nicht mehr von einer maschinell erzeugten Stimme unterscheiden könne, was Betrüger für ihre kriminellen Aktivitäten ausnutzten.
Um sich vor Betrügereien mit geklonten KI-Stimmen zu schützen, wird die Öffentlichkeit dazu angehalten, vorsichtig zu sein, wenn sie unaufgeforderte Angebote, Anfragen oder Kontakte erhält. Es wird dringend empfohlen, die Identität zu überprüfen, einschließlich der Verwendung eines "Passworts" für die Familie. Darüber hinaus sind der Schutz und die Überwachung persönlicher Daten sowie die ständige Information über die neuesten Betrugsversuche und sich entwickelnde Trends wichtige Elemente der Selbstverteidigung.
Abschließend bekräftigt Hermann, dass der Bericht darauf abzielt, die Öffentlichkeit zu informieren und vor den vorherrschenden Betrügereien zu schützen.
Zu den Quellen für diesen Beitrag gehört ein Artikel in HelpNetSecurity.


