AI語音克隆詐騙呈上升趨勢
根據IDIQ的IdentityIQ 2022詐騙報告,AI語音技術支援的 AI 語音詐騙激增。詐騙者現在能夠創造出令人驚訝的逼真聲音,無縫地冒充家人、朋友甚至值得信賴的個人。
IDIQ首席執行官、網路安全和金融領域的知名專家斯科特·赫爾曼(Scott Hermann)對這一發展深感擔憂。他接著說,人工智慧語音克隆計劃需要詐騙者使用先進技術來複製人們的聲音,這些聲音經常通過社交媒體拍攝。然後,他們冒充他們認識和信任的人聯繫毫無戒心的受害者。詐騙者通過誤導和操縱受害者來說服受害者他們的親人處於危險之中,並鼓勵他們付錢、暴露個人資訊或參與其他危險行為。
這些騙子通過欺騙受害者相信他們正在與出於各種原因需要金錢援助的家庭成員交談,例如承保車禍損失或為綁架支付贖金。要製作出驚人的相同語音克隆,騙子只需要一個 20 秒的語音剪輯,該剪輯通常通過社交媒體獲得。
赫爾曼補充說,這些騙子在高度複雜的組織中工作,這些組織通常位於海外,並在辦公樓中運營。語音克隆欺詐相對較新,IdentityIQ報告說去年案件有所增加。
聯邦貿易委員會還警告說,人工智慧在這些騙局中的使用已經變得如此複雜,以至於即使是母親也無法區分自己孩子的聲音和機器生成的聲音,詐騙者利用這些聲音進行犯罪活動。
為了保護自己免受人工智慧語音克隆欺詐的侵害,鼓勵公眾在收到未經請求的報價、請求或聯繫人時要謹慎。強烈建議進行身份驗證,包括使用指定的家庭“密碼”。此外,保護和監控個人資訊,以及及時瞭解最新的騙局和發展趨勢,是自衛的關鍵要素。
赫爾曼最後確認,該報告旨在讓公眾了解情況並保護他們免受普遍存在的騙局的影響。
這篇文章的來源包括 HelpNetSecurity中的一篇文章。

