RADIO EXITOSA 95.5 FM EN VIVO
Actualidad
Fraude a ciudadanos

¡Atención! Nueva modalidad de ESTAFA con IA: Delincuentes clonan voces para robar

Advierten que estafadores podrían en riesgo la seguridad de los peruanos al clonar las voces de sus víctimas con inteligencia artificial.

Estafadores usan IA para clonar voces y cometer fraude.
Estafadores usan IA para clonar voces y cometer fraude. (Composición Exitosa)

24/01/2025 / Exitosa Noticias / Actualidad / Actualizado al 24/01/2025

Una preocupante modalidad de estafa ha salido a la luz, donde delincuentes utilizan inteligencia artificial (IA) para clonar las voces de sus víctimas y realizar llamadas telefónicas fraudulentas.

Esta nueva técnica representa un serio riesgo, pues supera las tradicionales estrategias de engaño. Anteriormente, los estafadores recurrían a métodos rudimentarios, como las llamadas de "Hola, sobrino, ¿te acuerdas de mí?", buscando que las víctimas identificaran al supuesto familiar. 

Sin embargo, ahora las herramientas tecnológicas permiten copiar no solo el timbre de voz, sino también la forma de hablar de una persona, haciéndola indistinguible de la original.

¿Cómo clonan las voces de las víctimas?

Según las investigaciones, los delincuentes obtienen material de audio de las redes sociales de sus víctimas. Videos publicados en Instagram, TikTok, YouTube o incluso clips breves que buscan viralidad pueden ser utilizados como base para esta clonación. 

Una vez que la voz está replicada, los estafadores realizan llamadas a familiares o amigos, simulando situaciones de emergencia para solicitar dinero de manera urgente.

Hasta la fecha, se han registrado 35 denuncias de estafas bajo esta modalidad en el país. Las pérdidas económicas alcanzan montos significativos, llegando en algunos casos a sumar 100,000 soles entre las víctimas

Recomendaciones ante casos de estafa

Los expertos en ciberseguridad recomiendan extremar precauciones respecto al contenido que se publica en redes sociales. Es fundamental evitar compartir material donde se hable de manera clara y prolongada, ya que estos audios son el insumo principal para que los estafadores puedan clonar voces con IA. 

Asimismo, se aconseja desconfiar de llamadas sospechosas, incluso si parecen provenir de alguien cercano, y verificar siempre por otros medios la veracidad de las solicitudes. Aunque la inteligencia artificial tiene aplicaciones beneficiosas, también puede convertirse en una herramienta peligrosa en manos equivocadas. 

¿Cómo reconocer un yapeo falso?

Con el crecimiento del comercio digital y las transacciones por aplicativos móviles, el uso de herramientas como Yape se ha vuelto indispensable para millones de peruanos. 

Sin embargo, este auge también ha sido aprovechado por delincuentes que implementan métodos de estafa conocidos como "yapeos falsos". Es importante estar atento a los siguientes indicios:

- Capturas de pantalla modificadas: Los estafadores suelen presentar imágenes de supuestas transacciones que pueden haber sido alteradas. Revisa siempre tu aplicación para confirmar que el dinero se haya acreditado.

- Presión por concluir la transacción: Si la persona insiste en realizar el intercambio rápidamente, podría estar intentando evitar que confirmes el depósito.

- Mensajes de texto sospechosos: Algunas estafas incluyen mensajes que simulan notificaciones del banco o de Yape, pero con errores gramaticales o de formato.

De esta manera, se dio a conocer que los estafadores clonan voces con inteligencia artificial para poder estafar a la ciudadanía

SIGUIENTE NOTA