Mediante software de IA, generan un modelo que puede decir cualquier frase con la misma entonación que la víctima original
Durante el último fin de semana largo se multiplicaron las denuncias por llamados que simulan ser familiares en apuros. Los delincuentes utilizan Inteligencia Artificial para replicar tonos, modismos y hasta la respiración de las víctimas.
Guía para no caer
Ya no se trata solo de un mensaje de texto sospechoso o un link falso. En 2026, el «cuento del tío» ha evolucionado hacia el Deepfake de voz. Los ciberdelincuentes están utilizando herramientas de IA generativa para realizar llamados o enviar audios de WhatsApp donde la voz que se escucha es idéntica a la de un hijo, nieto o pareja.
¿Cómo operan los estafadores?
El modus operandi detectado en los últimos reportes sigue un patrón de «urgencia emocional»:
Captura de audio:
Los atacantes obtienen muestras de voz de redes sociales (videos de TikTok, reels o mensajes de voz en grupos públicos).
Clonación:
Mediante software de IA, generan un modelo que puede decir cualquier frase con la misma entonación que la víctima original.
El llamado: Se comunican con un familiar alegando un accidente, un problema legal o el robo del celular (justificando que llaman desde un número desconocido).
El pedido: Solicitan transferencias inmediatas por billeteras virtuales para resolver la supuesta «emergencia».La clave: «Hackear las emociones»
Los especialistas en ciberseguridad advierten que estas estafas no buscan vulnerar sistemas informáticos, sino «hackear el criterio» de las personas a través del miedo. «Al escuchar la voz exacta de un ser querido pidiendo ayuda, la respuesta racional se bloquea», explican desde el Ministerio Público Fiscal.
Guía de prevención:
Cómo protegersePara evitar caer en estos fraudes, se recomiendan tres pasos fundamentales:Establecer una «palabra clave»: Acordar en familia una palabra o frase secreta (que no esté en redes sociales) para usar solo en emergencias reales. Si el que llama no la sabe, es una estafa.
Cortar y verificar:
Ante un pedido de dinero por voz, lo primero es colgar. Inmediatamente, llamar al número de contacto habitual de esa persona para chequear la veracidad del hecho.
Preguntas de control:
Hacer preguntas que solo el familiar real podría responder (nombres de mascotas antiguas, anécdotas privadas, qué cenaron anoche).¿Qué hacer si fuiste víctima?Si realizaste una transferencia bajo esta modalidad, debés comunicarte de inmediato con tu entidad bancaria o billetera virtual para intentar bloquear el movimiento y realizar la denuncia en la fiscalía más cercana o a través de los canales de Cibercrimen.
Lo confirmó la secretaria de Gestión Institucional, Virginia Coudannes. La rúbrica será este martes en…
La Universidad Nacional de Rosario realizará las preinscripciones a los cursos de su Escuela de…
La misión Artemis II realizará el sobrevuelo lunar este lunes. A qué hora será
Según un sondeo de la consultora Zentrix, un 59,7% consideró en marzo que la situación…
El combinado nacional vuelve al ruedo en un tramo clave para la clasificación al Mundial…
La banda cubana se presentará este domingo en el Complejo Forest en el marco de…