Rosario, domingo 20 de julio de 2025
Search
Rosario, domingo 20 de julio de 2025

Aplicaciones de inteligencia artificial que eliminan la ropa de las fotos: ¿cómo funcionan y dónde encontrarlas?

Te explicamos qué son los generadores de imágenes realistas sin ropa, cómo operan y por qué debes tener cuidado si decides usarlos.

En un mundo donde subimos fotos nuestras a redes sociales casi sin pensar, algo inquietante está sucediendo bajo la superficie: hay inteligencias artificiales que ya pueden «ver» más allá de lo que mostramos. Y no, no estamos hablando de superpoderes tecnológicos, sino de algoritmos capaces de reconstruir imágenes realistas de personas sin ropa, usando únicamente fotografías normales.

Este tipo de herramientas, desarrolladas inicialmente con fines académicos o médicos —como simular intervenciones quirúrgicas—, han caído en manos menos responsables. Y aunque suene a ciencia ficción, los resultados son tan convincentes como inquietantes.

Según expertos en seguridad digital y ética tecnológica, algunos modelos de deep learning entrenados con millones de imágenes corporales pueden ahora generar representaciones hiperrealistas del cuerpo humano debajo de la ropa. Algunos programas incluso permiten ajustar posturas, ángulos y hasta texturas de piel, todo desde una simple foto de perfil público.

“Es como si le dieras una foto de tu primo en la playa y el programa te devolviera una imagen en la que ya no lleva camiseta… aunque en la original sí la llevara”, explica Sofía Martínez, investigadora en ciberseguridad de la Universidad Nacional de Buenos Aires.

Y aquí es donde empieza el problema.

¿Una herramienta o una amenaza?

Si bien esta tecnología tiene aplicaciones legítimas —por ejemplo, en medicina forense o diseño de prendas adaptativas—, también ha abierto una puerta trasera a nuevas formas de acoso digital. En foros clandestinos y plataformas poco reguladas, ya circulan versiones modificadas de estos modelos utilizados para crear imágenes íntimas no consentidas de personas comunes, muchas veces sin su conocimiento.
Un fenómeno especialmente peligroso en un momento en que la gente comparte cada vez más datos personales, fotos y videos sin medir las consecuencias.

“Estamos ante una nueva forma de violación de la privacidad”, asegura Carlos Domínguez, abogado especializado en derecho digital. “Lo preocupante no es tanto la IA en sí, sino que estas herramientas estén disponibles con pocos clics y sin controles”.

¿Qué podemos hacer?

Por ahora, legisladores y empresas tecnológicas están trabajando para frenar el avance de este tipo de usos indebidos. Algunas redes sociales ya utilizan sistemas de detección automática para bloquear contenido generado mediante IA. Pero el ritmo al que se desarrolla la tecnología sigue siendo mayor al de las leyes.

Mientras tanto, la recomendación más sensata viene de los propios expertos: pensar dos veces antes de compartir cualquier imagen personal. Porque hoy en día, lo que parece inofensivo puede convertirse mañana en una vulneración de tu intimidad.

Así que la próxima vez que prepares una selfie o publiques una foto de vacaciones, quizás valga la pena preguntarte: ¿qué podría ver una IA que yo no veo?