ClickCease Aumentan las estafas por clonación de voz con inteligencia artificial

Únase a nuestro popular boletín

Únase a más de 4.500 profesionales de Linux y el código abierto.

2 veces al mes. Sin spam.

Aumentan las estafas por clonación de voz con inteligencia artificial

Obanla Opeyemi

18 de julio de 2023 - Equipo de expertos TuxCare

Según el informe IdentityIQ 2022 Scam Report de IDIQ, se ha producido un aumento de las estafas de voz con inteligencia artificial gracias a esta tecnología. Los estafadores son ahora capaces de crear voces asombrosamente realistas, haciéndose pasar por miembros de la familia, amigos e incluso personas de confianza.

Scott Hermann, director general de IDIQ y reconocido especialista en ciberseguridad y finanzas, está profundamente preocupado por esta evolución. Los estafadores emplean tecnología avanzada para duplicar las voces de las personas, que a menudo se toman a través de las redes sociales. Luego se ponen en contacto con víctimas desprevenidas, haciéndose pasar por alguien que conocen y en quien confían. Los estafadores convencen a sus víctimas de que sus seres queridos están en peligro y las animan a pagar dinero, revelar información personal o participar en otras conductas de riesgo engañándolas y manipulándolas.

Estos estafadores engañan a las víctimas haciéndoles creer que están hablando con un familiar que quiere ayuda económica por diversos motivos, como cubrir los daños de un accidente de tráfico o pagar un rescate por un secuestro. Para producir un clon de voz asombrosamente idéntico, los estafadores sólo necesitan un clip de voz de 20 segundos, que con frecuencia se obtiene a través de las redes sociales.

Hermann añade que estos estafadores trabajan en organizaciones muy sofisticadas que suelen estar situadas en el extranjero y operan desde edificios de oficinas. Los fraudes de clonación de voz son relativamente recientes, y IdentityIQ informa de un aumento de casos en el último año.

La Comisión Federal de Comercio también advirtió sobre el uso de la IA en estas estafas, afirmando que la tecnología se ha vuelto tan sofisticada que incluso una madre no puede distinguir entre la voz de su propio hijo y la generada por una máquina, que los estafadores aprovechan para sus actividades delictivas.

Para protegerse de los fraudes de clonación de voz por IA, se recomienda a los ciudadanos que sean precavidos al recibir ofertas, solicitudes o contactos no solicitados. Se recomienda encarecidamente verificar la identidad, incluido el uso de una "contraseña" familiar designada. Además, salvaguardar y vigilar la información personal, así como mantenerse al día sobre las estafas más recientes y las tendencias en desarrollo, son elementos fundamentales para la autodefensa.

Hermann concluye afirmando que el informe pretende mantener al público informado y protegido contra las estafas imperantes.

Las fuentes de este artículo incluyen un artículo en HelpNetSecurity.

Resumen
Aumentan las estafas por clonación de voz con inteligencia artificial
Nombre del artículo
Aumentan las estafas por clonación de voz con inteligencia artificial
Descripción
Según el Informe sobre estafas IdentityIQ 2022 de IDIQ, se ha producido un aumento de las estafas de voz con tecnología de IA.
Autor
Nombre del editor
TuxCare
Logotipo de la editorial

¿Desea automatizar la aplicación de parches de vulnerabilidad sin reiniciar el núcleo, dejar el sistema fuera de servicio o programar ventanas de mantenimiento?

Más información sobre Live Patching con TuxCare

Conviértete en escritor invitado de TuxCare

Empezar

TuxCare’s Linux
& Open-Source
Year-End Survey

Complete this multiple-choice
questionnaire to get a chance to
win a prize valued at over $500!