ClickCease AI-Stimmenklon-Betrug auf dem Vormarsch

Abonnieren Sie unseren beliebten Newsletter

Schließen Sie sich 4.500+ Linux- und Open-Source-Experten an!

2x im Monat. Kein Spam.

AI-Stimmenklon-Betrug auf dem Vormarsch

Obanla Opeyemi

Juli 18, 2023 - TuxCare-Expertenteam

Laut dem IdentityIQ-Betrugsbericht 2022 des IDIQ hat die Zahl der durch KI-Stimmtechnologie ermöglichten Betrügereien zugenommen. Betrüger sind jetzt in der Lage, erstaunlich realistische Stimmen zu erzeugen und sich nahtlos als Familienmitglieder, Freunde und sogar vertrauenswürdige Personen auszugeben.

Scott Hermann, CEO von IDIQ und bekannter Spezialist für Cybersicherheit und Finanzen, ist sehr besorgt über diese Entwicklung. Er führt weiter aus, dass bei KI-Stimmenklonprogrammen Betrüger fortschrittliche Technologie einsetzen, um die Stimmen von Menschen zu duplizieren, die häufig über soziale Medien aufgenommen werden. Sie kontaktieren dann ahnungslose Opfer und geben sich als jemand aus, den sie kennen und dem sie vertrauen. Die Betrüger überzeugen ihre Opfer davon, dass ihre Angehörigen in Gefahr sind, und bringen sie durch Irreführung und Manipulation dazu, Geld zu zahlen, persönliche Informationen preiszugeben oder sich an anderen riskanten Verhaltensweisen zu beteiligen.

Diese Gauner gaukeln ihren Opfern vor, dass sie mit einem Familienmitglied sprechen, das aus den unterschiedlichsten Gründen Geld benötigt, z. B. um einen Unfallschaden zu begleichen oder Lösegeld für eine Entführung zu zahlen. Um einen verblüffend identischen Stimmenklon zu erstellen, benötigen die Gauner lediglich einen 20-sekündigen Sprachclip, der häufig über soziale Medien beschafft wird.

Hermann fügt hinzu, dass diese Betrüger in hochentwickelten Organisationen arbeiten, die in der Regel in Übersee angesiedelt sind und von Bürogebäuden aus operieren. Voice-Cloning-Betrug ist relativ neu, wobei IdentityIQ einen Anstieg der Fälle im letzten Jahr meldet.

Die Federal Trade Commission warnte auch vor dem Einsatz von künstlicher Intelligenz bei diesen Betrügereien und erklärte, die Technologie sei inzwischen so ausgereift, dass selbst eine Mutter die Stimme ihres eigenen Kindes nicht mehr von einer maschinell erzeugten Stimme unterscheiden könne, was Betrüger für ihre kriminellen Aktivitäten ausnutzten.

Um sich vor Betrügereien mit geklonten KI-Stimmen zu schützen, wird die Öffentlichkeit dazu angehalten, vorsichtig zu sein, wenn sie unaufgeforderte Angebote, Anfragen oder Kontakte erhält. Es wird dringend empfohlen, die Identität zu überprüfen, einschließlich der Verwendung eines "Passworts" für die Familie. Darüber hinaus sind der Schutz und die Überwachung persönlicher Daten sowie die ständige Information über die neuesten Betrugsversuche und sich entwickelnde Trends wichtige Elemente der Selbstverteidigung.

Abschließend bekräftigt Hermann, dass der Bericht darauf abzielt, die Öffentlichkeit zu informieren und vor den vorherrschenden Betrügereien zu schützen.

Zu den Quellen für diesen Beitrag gehört ein Artikel in HelpNetSecurity.

Zusammenfassung
AI-Stimmenklon-Betrug auf dem Vormarsch
Artikel Name
AI-Stimmenklon-Betrug auf dem Vormarsch
Beschreibung
Laut dem IdentityIQ 2022 Scam Report des IDIQ hat es einen Anstieg von AI-Sprachbetrug gegeben, der durch AI-Sprachtechnologie ermöglicht wird.
Autor
Name des Herausgebers
TuxCare
Logo des Herausgebers

Möchten Sie das Patchen von Sicherheitslücken ohne Kernel-Neustart, Systemausfallzeiten oder geplante Wartungsfenster automatisieren?

Erfahren Sie mehr über Live-Patching mit TuxCare

Werden Sie ein TuxCare-Gastautor

Los geht's

E-Mail

Beitreten

4,500

Linux & Open Source
Fachleute!

Abonnieren Sie
unseren Newsletter