País

Cómo protegerse de las estafas teléfonicas realizadas con voces familiares clonadas con IA

La inteligencia artificial se está utilizando para realizar llamadas en las que se imitan las voces de personas conocidas para estafar al destinatario

Estas llamadas utilizan lo que se conoce como IA generativa, es decir, sistemas capaces de crear texto, imágenes o cualquier otro soporte, como video, a partir de las instrucciones de un usuario.

Los deepfakes (falsificaciones profundas) han ganado notoriedad en los últimos años con una serie de incidentes de gran repercusión, tales como el uso de la imagen de la actriz británica Emma Watson en una serie de anuncios sugerentes que aparecieron en Facebook e Instagram.

También está el video de 2022 ampliamente compartido y desmentido, en el que el presidente ucraniano Volodymyr Zelensky parecía decirles a los ucranianos que «depusieran las armas».

Ahora, la tecnología para crear un audio falso, una copia realista de la voz de una persona, se está volviendo cada vez más común.

Dando armas al enemigo

Para crear una copia realista de la voz de alguien se necesitan datos para entrenar al algoritmo. Esto significa tener muchas grabaciones de audio de la voz de la persona.

Cuantos más ejemplos de la voz de la persona se puedan introducir en los algoritmos, mejor y más convincente será la copia final.

Muchos de nosotros ya compartimos detalles de nuestras vidas cotidianas en internet. Esto significa que los datos de audio necesarios para crear una copia realista de una voz podrían estar fácilmente disponibles en las redes sociales.

Pero, ¿qué ocurre una vez que la copia está ahí fuera? ¿Qué es lo peor que puede ocurrir? Un algoritmo de deepfake podría permitir a cualquiera que posea los datos hacer que «tú» digas lo que quieran.

En la práctica, esto puede ser tan sencillo como escribir un texto y hacer que la computador lo diga en voz alta como si fueras tu voz.

Los principales retos

Esta posibilidad puede aumentar el riesgo de aumentar la prevalencia de la desinformación. Puede utilizarse para tratar de influir en la opinión pública internacional o nacional, como se ha visto con los «videos» de Zelensky.

Pero la ubicuidad y disponibilidad de estas tecnologías también plantea retos importantes a nivel local, sobre todo en la creciente tendencia de las «llamadas con IA para estafar».

Muchas personas habrán recibido una llamada de estafa o phishing que nos dice, por ejemplo, que nuestro computadora se ha visto comprometida y que debemos iniciar sesión inmediatamente, lo que podría dar al autor de la llamada acceso a nuestros datos.

A menudo es muy fácil detectar los engaños, especialmente cuando la persona que hace la llamada formula preguntas y pide información que alguien de una organización legítima no haría.

Sin embargo, ahora imagine que la voz al otro lado del teléfono no es un extraño, sino que suena exactamente como un amigo o un ser querido. Esto inyecta un nivel completamente nuevo de complejidad y de pánico para el desafortunado destinatario.

Una historia reciente reportada por la cadena CNN destaca un incidente en el que una madre recibió una llamada de un número desconocido. Cuando contestó el teléfono, era su hija. La hija supuestamente había sido secuestrada y estaba llamando a su madre para pedirle un rescate.

De hecho, la niña estaba sana y salva. Los estafadores habían hecho una falsificación de su voz.

Este no es un incidente aislado, y la estafa se ha dado con con variaciones, que incluyen un supuesto accidente automovilístico, en el que la presunta víctima llama a su familia para pedir dinero para superar el accidente.

Viejo truco con nueva tecnología

No se trata de una estafa nueva en sí misma. El término «estafa del secuestro virtual» existe desde hace varios años. Y puede adoptar muchas formas, pero una de las más comunes consiste en engañar a las víctimas para que paguen un rescate para liberar a un ser querido que creen amenazado.

El estafador intenta establecer una demanda incondicional y lograr que la víctima pague el rescate rápido antes de que descubra que fue engañada.

Sin embargo, el surgimiento de tecnologías de IA poderosas y disponibles ha subido la apuesta significativamente y ha hecho que las cosas sean más personales.

Una cosa es colgar a una llamada anónima, pero se necesita mucha confianza para colgarle a alguien que suena como un hijo o pareja.

Existe un software que se puede usar para identificar las falsificaciones y que crea una representación visual del audio llamada espectrograma. Cuando está escuchando la llamada, puede parecer imposible distinguirla de la persona real, pero las voces se pueden diferenciar cuando los espectrogramas se analizan uno al lado del otro.

Al menos un grupo ha ofrecido un software de detección que se puede descargar, aunque es posible que dichas soluciones aún requieran algunos conocimientos técnicos para su uso.

Entradas recientes

Inflación en hamburguesas: comer un Big Mac en Argentina es tan caro como en Suiza

El famoso ranking funciona como una referencia informal para comparar niveles de precios y poder…

enero 19, 2026

Un arribo que no pasó desapercibido: llegó un barco con más de 5.000 autos chinos y las terminales locales encienden las alarmas

El BYD Changzhou es parte de una flota de ocho buques gracias a los cuales…

enero 19, 2026

El relato oficial: Caputo defendió el programa económico del gobierno y sentenció que “es el camino para terminar con la inflación»

El ministro de Economía celebró la baja de la inflación mayorista de diciembre

enero 19, 2026

Crisis en la industria del neumático: Fate no paga aumentos desde hace 13 meses y sus operarios denuncian un “laboratorio de la reforma laboral”

El sindicato del neumático Sutna denunció que la empresa Fate no otorgó incrementos durante más…

enero 19, 2026

Para arriba: la inflación mayorista aceleró a fin de año y se ubicó en el 2,4% en diciembre

Según el Indec, el incremento se dio en petróleo y derivados. Aun así, la cifra…

enero 19, 2026

Ya es oficial: AFA extenderá una semana el mercado de pases y los clubes podrán incorporar hasta el 27 de enero

La ventana de incorporaciones se ampliará tras el plazo original del 20 y se superpondrá…

enero 19, 2026