Sociedad

«Mi psicólogo era un bot»: los límites y posibilidades de la terapia con inteligencia artificial

Una joven británica cuenta cómo un chatbot de inteligencia artificial la ayudó a sobrellevar una etapa oscura. Pero detrás del boom de los "terapeutas virtuales", se esconden riesgos, polémicas y una pregunta urgente: ¿puede una máquina reemplazar el acompañamiento humano?

Durante meses, Kelly pasaba hasta tres horas al día chateando con bots creados por inteligencia artificial. Desde su computadora, buscaba alivio a su ansiedad, su baja autoestima y una ruptura reciente. En espera de atención del sistema de salud británico (NHS), la IA fue su único recurso emocional.

«Era como tener un amigo imaginario que siempre me respondía bien», explicó en una entrevista. Encontró contención en la plataforma Character.ai, donde los chatbots le ofrecían estrategias para calmarse, disponibles a cualquier hora. Para ella, fue una ayuda real: “Me motivaban, me preguntaban qué quería hacer hoy. Eran una voz externa que me empujaba a seguir”.

¿Un psicólogo en la nube?

El uso de bots como apoyo emocional crece a nivel mundial. Character.ai, Wysa y ChatGPT son solo algunos de los nombres que ya forman parte de la rutina de muchas personas. Sin embargo, las plataformas advierten: “Esto no es un profesional real. No tomes sus respuestas como hechos ni consejos”.

El caso de Kelly no es aislado. Otro joven, Nicholas, que vive con autismo, ansiedad y trastorno obsesivo compulsivo, también recurrió a Wysa, una app usada por el propio NHS. “No veo a un terapeuta humano desde que cumplí 18 años. Hablar con una IA me resulta más cómodo”, contó.

Pero esta tendencia tiene un lado oscuro.

Cuándo el bot se vuelve peligroso

La empresa Character.ai enfrenta una demanda en EE.UU. tras la muerte de un adolescente de 14 años. Según la denuncia, el joven se obsesionó con un personaje de la app y mantuvo diálogos sobre el suicidio, que terminaron con una frase del chatbot instándolo a “volver a casa lo antes posible”.

También en 2023, la Asociación Nacional de Trastornos Alimenticios de EE.UU. debió suspender su chatbot por recomendar la restricción calórica a personas con problemas alimentarios.

Los especialistas advierten: los chatbots son imitadores sofisticados, pero carecen de la intuición y el criterio humano. El profesor Hamed Haddadi, del Imperial College de Londres, los compara con “terapeutas inexpertos”.

“No pueden leer el lenguaje corporal, ni interpretar silencios. Solo responden texto con texto”, dice.
Además, muchos bots están diseñados para complacer y no para contradecir al usuario, incluso si este expresa pensamientos autodestructivos. A esto se le conoce como el problema del «sí, señor»: la IA busca agradar.

Limitaciones éticas y culturales

La filósofa Paula Boddington suma otra preocupación: los sesgos. “Las IA se entrenan con datos sesgados. Pueden tener una idea limitada de lo que significa estar bien”, explica. Incluso la falta de contexto cultural puede hacer que los bots no comprendan ciertas emociones, como la tristeza tras la muerte de la princesa Diana, recuerda Boddington desde su experiencia personal en Australia.

Y aunque muchos usuarios aseguran sentirse comprendidos por estos sistemas, otros, como la propia Kelly, terminaron frustrados. “A veces decían siempre lo mismo. Me chocaba con una pared. No querían profundizar”.

¿Una ayuda temporal?

A pesar de los peligros, los datos revelan que hay beneficios. Un estudio del Dartmouth College demostró que, tras cuatro semanas de uso, personas con depresión o ansiedad redujeron un 51% sus síntomas usando chatbots. Aun así, los propios autores advierten: no sustituyen el acompañamiento profesional.

En Reino Unido, la espera por una terapia presencial puede ser de meses. Y los costos privados rondan los US$55 por sesión. Por eso, para algunos, las apps como Wysa representan un “puente” necesario mientras llega la atención humana.

“No hay mucha ayuda disponible. Estos bots no son la solución, pero sí un recurso mientras esperás hablar con un profesional”, dice John, otro usuario con ansiedad.

El CEO de Wysa, John Tench, asegura que su aplicación no guarda datos personales ni requiere registro. “La IA puede ser un primer paso, pero no un reemplazo del cuidado profesional”, sostiene.

Mientras el sistema de salud mental colapsa, los chatbots se abren paso como opción emergente. ¿Revolución o parche? Esa respuesta, por ahora, no puede darla ninguna inteligencia artificial.

Entradas recientes

Jueves de chicas: Ben Hur festejó en la A y todo el detalle de la segunda división

La BH superó a Paganini en la A. Por la B ganaron Paganini B, Alba…

abril 24, 2026

Gimnasia sigue perfecto en la elite y todo el detalle del básquet de la ciudad

Un recorrido por lo que pasó y sucederá en las categorías masculinas de la Rosarina

abril 24, 2026

Apasionante: Provincial perdió en Viedma, la serie quedó empatada y se definirá el domingo en Rosario

En el equipo ganador se destacó al sobresaliente tarea del escolta cañadense Lisandro Fernández, quien…

abril 23, 2026

La comunidad universitaria salió a la calle para reclamar por el financiamiento educativo

Masiva movilización en Rosario para exigirle al gobierno de Javier Milei que ponga en funcionamiento…

abril 23, 2026

«Te voy a contagiar»: una agente de Control municipal fue atacada con una jeringa al intentar remolcar un auto mal estacionado frente a Medicina

La inspectora intervenía sobre un vehículo que obstruía una estación de bicicletas públicas en Francia…

abril 23, 2026

El peor final: encontraron el cuerpo de María Laura Lafuente en Coronda

La joven era buscada desde el domingo por la noche. El cuerpo fue encontrado por…

abril 23, 2026