En medio de un proceso legal que busca determinar la responsabilidad de Meta en la crisis de salud mental adolescente, Mark Zuckerberg ha optado por una estrategia de defensa basada en la transferencia de responsabilidad.
El CEO sostiene que las herramientas de verificación de edad son constantemente burladas por menores de 13 años con el consentimiento o falta de supervisión de sus padres, lo que imposibilitaría a la empresa garantizar un entorno 100% seguro.
Esta postura ha encendido nuevamente el debate sobre la eficacia de los algoritmos de detección y las obligaciones éticas de las Big Tech en 2026.

El conflicto de la verificación y la responsabilidad parental
La línea argumental de Zuckerberg, expuesta ante el tribunal, sostiene que Meta ha invertido miles de millones de dólares en tecnologías de seguridad, pero que estas son insuficientes si los usuarios ingresan datos falsos de forma deliberada.
Para la defensa, el problema no radica en el diseño adictivo de la interfaz –basada en el refuerzo variable de los “likes” y el scroll infinito– sino en el acceso no autorizado de un segmento de la población para el cual el producto no fue diseñado originalmente.
Sin embargo, los fiscales han presentado documentos internos que sugieren que Meta es consciente de que millones de preadolescentes operan activamente en Instagram.
Investigaciones citadas durante el litigio indican que los sistemas de inteligencia artificial de la compañía tienen la capacidad técnica para identificar la edad real de un usuario basándose en sus patrones de comportamiento, lenguaje y red de contactos, pero que estas funciones habrían sido limitadas para no afectar las métricas de crecimiento y el inventario publicitario dirigido a audiencias jóvenes.
Implicancias legales de una defensa polémica
Esta respuesta ha sido calificada por organizaciones de derechos digitales como un intento de desviar la atención de las mecánicas internas que fomentan la dependencia digital.
Expertos legales advierten que culpar al usuario de “mentir” difícilmente eximirá a la empresa de responsabilidad si se demuestra que el algoritmo continúa recomendando contenido potencialmente dañino a perfiles que presentan comportamientos claramente infantiles.
El desenlace de este juicio podría forzar a Meta a implementar sistemas de verificación de identidad mucho más intrusivos, como el escaneo de documentos oficiales o biometría facial obligatoria, medidas que ya están siendo evaluadas por reguladores en Europa y Estados Unidos.

Mientras tanto, la brecha entre la seguridad tecnológica y la conducta de los usuarios sigue siendo el epicentro de una de las batallas legales más complejas de la década.
Fuente: FayerWayer