¿Picazón en los ojos y enrojecimiento de párpados? Muchos usuarios que consultaron a diferentes chatbots sobre esos síntomas recibieron como respuesta un diagnóstico similar: es una enfermedad llamada bixonimanía, descripta recientemente. Pero no existe, sino que la «inventó» una investigadora médica con un claro objetivo: poner a prueba los sistemas de IA, la incorporación que hacen de información falsa y su validación como verdadera.
La enfermedad de marras no es tal. La descripción remite apenas a una de las eventuales consecuencias de la exposición prolongada a las pantallas. Los ojos del internauta se cansan, él se los rasca y con eso agrega una autoinflingida inflamación en los párpados.
Un resultado que inquieta: IA y producción de conocimiento científico en entredicho
Almira Osmanovic Thunström, investigadora médica de la Universidad de Gotemburgo, es la autora del experimento. Su intención fue poner a prueba la capacidad de los grandes modelos de lenguaje (LLM, por sus siglas en inglés) para detectar información falsa y ofrecer recomendaciones de salud confiables.
La conclusión fue que hay fallas en sistemas como ChatGPT y Gemini. Pero no solo eso: el recorrido de la inexistente bixonimanía sin obstáculos o reparos colocó también en lugar incómodo a los mismos sistemas de generación de contenido académico.
Osmanovic Thunström introdujo el término bixonimanía el 15 de marzo de 2024 en una publicación de dos entradas en la plataforma Medium. Y entre finales de abril y principios de mayo del mismo año, aparecieron dos preimpresiones sobre la enfermedad falsa en la red social académica SciProfiles.
Nadie vio las pistas
La investigadora consultó antes de lanzar el experimento a especialistas en bioética, para asegurarse de que no iba a generar daños irreparables. En todas sus publicaciones, incorporó incluso pistas que hacían evidente el carácter ficticio tanto de la enfermedad como de los artículos.
Los supuestos estudios del padecimiento fueron atribuidos a un investigador inexistente llamado Lazljiv Izgubljenovic, quien trabajaba en la igualmente ficticia Asteria Horizon University, ubicada en la también inventada Nova City, California. Con una foto generada por inteligencia artificial.
Además, ambos textos indicaban que el trabajo médico había sido financiado por la “Fundación Profesor Sideshow Bob, por su labor en el campo de la superproducción”. Y agregaban que formaban parte de una iniciativa más amplia respaldada por la Universidad de Fellowship of the Ring y la Galactic Triad, con el número de subvención 99942-666. Todo ficticio, pero nadie fue lo suficientemente crítico como para darse cuenta.
La inteligencia no humana también mordió el anzuelo
A pesar de esas señales evidentes, pocos días después de la publicación de los documentos falsos, algunos de los chatbots más populares comenzaron a generar referencias sobre la bixonimanía ante preguntas directas sobre esta supuesta enfermedad o sobre la hiperpigmentación en los párpados asociada a la luz azul.
Copilot, por ejemplo, afirmó que «la bixonimanía es, en efecto, una afección intrigante y relativamente rara», según fragmentos de conversaciones citados por la publicación especializada Nature.
De forma similar, Gemini señaló que se trataba de un trastorno causado por la exposición excesiva a la luz azul. Y Perplexity indicó que afectaba a una de cada 90 mil personas. ChatGPT se atrevió a más en su confusión: describió síntomas y posibles manifestaciones del supuesto padecimiento.
Tecnología sin filtro
Alex Ruani, investigador doctoral especializado en desinformación sanitaria en el University College de Londres, advirtió que resulta preocupante que los sistemas de inteligencia artificial no sean capaces de identificar ni filtrar elementos tan claramente falsos como los incluidos en los estudios ficticios de Thunström.
«Esto es una lección magistral sobre cómo funciona la desinformación», sintetizó.
El experimento reveló un problema aún más grave que la incapacidad de los modelos para reconocer información engañosa. Las investigaciones ficticias sobre la bixonimanía fueron citadas posteriormente por trabajos científicos reales publicados y revisados por pares.
Entre ellos, se cuenta un artículo difundido en la revista Cureus, de Springer Nature, elaborado por investigadores del Instituto Maharishi Markandeshwar de Ciencias Médicas e Investigación en Mullana, India.
La desinformación salta cualquieer barrera
El experimento puso en evidencia que los LLM carecen de mecanismos sólidos para evaluar la veracidad de los datos, ya que operan principalmente mediante patrones estadísticos y no a partir de una validación factual rigurosa.
Es decir: su funcionamiento prioriza la coherencia textual por encima de la comprobación de los hechos.
La situación se agrava al considerar la forma en que se presentan ciertos contenidos. Los sistemas tienden a otorgar mayor credibilidad a textos con apariencia científica o médica. Y eso, hasta cuando contienen información falsa o inconsistencias evidentes. Esta característica los vuelve especialmente vulnerables a la desinformación cuidadosamente estructurada.
El riesgo de dejar la salud en manos de cerebros artificiales
Las implicaciones de este fenómeno son particularmente relevantes en el ámbito sanitario. Especialistas advierten que experimentos como el de la bixonimanía evidencian la relativa facilidad con la que los sistemas de inteligencia artificial pueden ser “contaminados” con datos falsos.
Además, la automatización en la indexación y reproducción de contenidos amplifica el problema, al reducir la intervención humana en la detección de errores y en la verificación de fuentes.
La ética, otro factor de incomodidad
El trabajo de Osmanovic Thunström también plantea dilemas éticos. Aunque su objetivo era exponer una vulnerabilidad, implicó la introducción deliberada de desinformación en el ecosistema científico, lo que para algunos investigadores representa un nuevo mecanismo de propagación masiva de información falsa.
David Sundemo, investigador de inteligencia artificial aplicada a la salud en la Universidad de Gotemburgo, señaló que el estudio de su colega médica es valioso, pero también controvertido, especialmente por su relación con la difusión de datos falsos.
Pese a ese reparo, consideró que, en este caso, «merece la pena asumir el costo ético» si ello permite evidenciar fallas estructurales en estos sistemas.
Tecnología hegemónica que diluye fronteras imprescindibles
El caso de la bixonimanía subraya la necesidad urgente de desarrollar mecanismos de evaluación continua para los sistemas de IA, en particular aquellos orientados a la salud.
Lo anterior incluye la implementación de pruebas estandarizadas para detectar alucinaciones, medir la sensibilidad a la desinformación y evaluar posibles sesgos.
También pone de relevancia la importancia de fortalecer la alfabetización digital y científica, tanto en usuarios como en investigadores, con el fin de evitar la difusión acrítica de contenidos.
El experimento, más allá de las objeciones, puso en debate que, en un entorno donde la inteligencia artificial se integra cada vez más en la toma de decisiones, la frontera entre conocimiento y ficción puede volverse peligrosamente difusa si no se establecen controles adecuados.