ClickCease 증가하는 AI 음성 복제 사기

인기 뉴스레터 구독하기

4,500명 이상의 Linux 및 오픈소스 전문가와 함께하세요!

한 달에 두 번. 스팸이 없습니다.

증가하는 AI 음성 복제 사기

2023년 7월 18일 TuxCare 홍보팀

IDIQ의 IdentityIQ 2022 사기 보고서에 따르면 인공지능 음성 기술을 이용한 인공지능 음성 사기가 급증하고 있습니다. 사기범들은 이제 놀라울 정도로 사실적인 목소리를 만들어 가족, 친구, 심지어 신뢰할 수 있는 사람으로 완벽하게 사칭할 수 있습니다.

IDIQ의 CEO이자 사이버 보안 및 금융 분야의 저명한 전문가인 스콧 헤르만은 이러한 현상에 대해 깊은 우려를 표명하고 있습니다. 그는 AI 음성 복제 사기는 사기꾼들이 첨단 기술을 이용해 소셜 미디어를 통해 사람들의 목소리를 복제하는 수법을 사용한다고 말합니다. 그런 다음 그들은 의심하지 않는 피해자에게 연락하여 그들이 알고 신뢰하는 사람으로 가장합니다. 사기범은 피해자에게 사랑하는 사람이 위험에 처해 있다고 속여 돈을 지불하거나 개인 정보를 노출하거나 기타 위험한 행동에 참여하도록 유도합니다.

이러한 사기범들은 피해자가 차량 사고 피해 보상이나 납치 몸값 지불 등 다양한 이유로 금전적 지원을 원하는 가족과 통화하고 있다고 속이는 방식으로 활동합니다. 놀랍도록 동일한 음성 복제품을 제작하기 위해서는 20초 분량의 음성 클립만 있으면 되는데, 이 클립은 소셜 미디어를 통해 쉽게 구할 수 있습니다.

헤르만은 이러한 사기꾼들이 주로 해외에 위치한 고도로 정교한 조직에서 일하며 오피스 빌딩에서 활동한다고 덧붙입니다. 음성 복제 사기는 비교적 최근에 발생했으며, IdentityIQ는 작년에 그 사례가 증가했다고 보고했습니다.

미국 연방거래위원회(Federal Trade Commission)도 이러한 사기에 AI가 사용되는 것에 대해 경고하면서, 기술이 너무 정교해져 엄마조차도 자신의 자녀의 목소리와 기계가 생성한 목소리를 구분할 수 없게 되었으며, 사기꾼들은 이를 범죄 활동에 악용하고 있다고 말했습니다.

AI 음성 복제 사기로부터 자신을 보호하기 위해 대중은 원치 않는 제안, 요청 또는 연락을 받을 때 주의를 기울이는 것이 좋습니다. 지정된 가족 '비밀번호' 사용 등 신원 확인을 강력히 권장합니다. 또한, 개인 정보를 보호하고 모니터링하는 것은 물론 최신 사기와 발전하는 트렌드에 대한 최신 정보를 파악하는 것은 자기 방어의 중요한 요소입니다.

헤르만은 이 보고서가 대중에게 정보를 제공하고 만연한 사기로부터 보호하는 것을 목표로 한다고 밝히며 글을 마무리합니다.

이 글의 출처는 헬프넷시큐리티의 기사입니다.

요약
증가하는 AI 음성 복제 사기
기사 이름
증가하는 AI 음성 복제 사기
설명
IDIQ의 IdentityIQ 2022 사기 보고서에 따르면, 인공지능 음성 기술을 이용한 인공지능 음성 사기가 급증하고 있습니다.
작성자
게시자 이름
TuxCare
게시자 로고

Kernel 재부팅, 시스템 다운타임 또는 예정된 유지 보수 기간 없이 취약성 패치를 자동화하고 싶으신가요?

TuxCare로 라이브 패치에 대해 알아보기

TuxCare 게스트 작가 되기

시작하기

메일

가입

4,500

Linux & 오픈 소스
전문가!


뉴스레터 구독하기