La salud mental es uno de los asuntos que más preocupan hoy en día. Se calcula que cuatro de cada diez personas tendrán un problema de este tipo a lo largo de su vida. De ahí la urgencia de encontrar soluciones validadas por la evidencia científica. Algunas de las soluciones que se barajan tienen que ver con el uso de ChatGPT y otras aplicaciones de inteligencia artificial, propuestas que pueden generar curiosidad pero también dudas y desconfianza.

No es nuevo: el desarrollo tecnológico siempre nos ha hecho sentir algo incómodos. Ya a comienzos del siglo XIX, en un pueblo de Inglaterra llamado Leicestershire, Ned Ludd destruyó algunas máquinas textiles. Entre otras razones, argumentaba que lo hacía porque se oponía a los cambios que traía la nueva maquinaria industrial. A partir de ahí nació el término ludita, que describe a personas que rechazan el desarrollo tecnológico.

En el campo de la salud también han existido “momentos luditas”. Por ejemplo, cuando aparecieron los contestadores automáticos o, más recientemente, cuando se comenzó a utilizar la videollamada para atender pacientes. Incluso los propios profesionales se resistían a las videollamadas hasta que la pandemia de la covid-19 les obligó a utilizarlas. ¡Y menos mal que contamos con esa opción!

¿Cómo utilizan las personas la IA para cuidar su salud mental?

Actualmente, el principal uso que se le da a la lA es con fines de acompañamiento, como un “compañero digital” que nos orienta, escucha nuestros pensamientos y angustias, nos aconseja y al que le contamos secretos. Nos lo pone fácil el hecho de que herramientas como ChatGPT estén disponibles en cualquier momento, parezcan empáticas y, por norma, no critiquen ni respondan negativamente.

Quienes utilizan este tipo de IA no suelen preocuparse por la privacidad o la profundidad emocional, pese a que plantea riesgos por el uso de datos personales y por los sesgos con los que se entrenan las herramientas de IA.

No obstante, debemos admitir también que la IA permite identificar señales de malestar antes de que se agraven. Esto se consigue mediante el análisis de los datos de móviles y weareables que informan de patrones de actividad, pasos, sueño, cantidad de mensajes o veces que se mira el móvil. Este tipo de proceso se llama fenotipado digital y ayuda a anticipar recaídas en depresión o episodios en trastornos graves mediante lo que se llama EMA (Ecological Momentary Assessment o Evaluación Ecológica Momentánea).

También se usan modelos de lenguaje para detectar cambios sutiles en el estado emocional de adolescentes y adultos. Por ejemplo, cuando en los mensajes se detecta un aumento de frases del tipo “estoy mal” o “culpa”, así como en la fluidez verbal o en incoherencias sintácticas. El objetivo es claro: actuar antes de que el problema se convierta en crisis, algo que la atención tradicional no siempre logra.

Asimismo se han publicado estudios iniciales donde chatbots de salud mental se muestran eficaces en reducir síntomas leves de ansiedad y depresión, además de fomentar la reflexión personal y el autocuidado. Su disponibilidad 24/7 los convierte en recursos accesibles y de bajo coste, especialmente útiles en contextos con escasez de servicios profesionales.

La IA se está usando para ampliar terapias como la cognitivo-conductual. Algoritmos inteligentes permiten adaptar ejercicios, monitorizar avances y reforzar aprendizajes. Al mismo tiempo, los modelos de lenguaje abren la puerta a diálogos más naturales y sensibles al contexto. Los resultados de estudios científicos muestran reducciones moderadas en síntomas depresivos, especialmente en jóvenes.

Los terapeutas son más empáticos y flexibles

A pesar de estos avances, los profesionales ofrecen una visión más matizada.Comparaciones entre humanos y chatbots revelan que los terapeutas superan claramente a la IA en dimensiones críticas como la empatía, la flexibilidad y la sintonía emocional. Esto refuerza una idea clave: la IA no sustituirá al profesional, sino que se perfila como una herramienta complementaria.

Por ejemplo, en ansiedad y depresión un bot parece ser efectivo al inicio, pero su efecto desaparece a los tres meses. En paralelo a esta extinción, las personas dejan de utilizarlo, de modo que la adherencia a los apoyos sustentados en IA se ha convertido en uno de los grandes desafíos actuales y futuros a la hora de usarla en salud mental.

Las investigaciones también advierten sobre carencias importantes. Un modelo propone imaginarlo como una pirámide con tres pasos. En la base están la seguridad y la privacidad; después, la fiabilidad y la transparencia; y, solo en la cúspide, la eficacia práctica. Sin embargo, la mayor parte de los estudios se concentran en los niveles superiores y dejan en segundo plano cuestiones básicas como la protección de datos o la gestión del sesgo algorítmico. De hecho, un análisis crítico advierte que la falta de supervisión ética y la escasa formación digital de pacientes y profesionales pueden convertir a estas herramientas más en un riesgo que en un apoyo.

La IA ya está diseñada y avanzando. Los profesionales necesitamos prepararnos para este cambio radical en la forma de abordar los problemas de salud mental.

¿Qué podemos esperar del futuro de la IA en salud mental?

La integración de la inteligencia artificial en nuestra vida cotidiana es ya un hecho. Hace apenas tres años, la mayoría de la gente utilizaba un buscador, mientras que hoy millones de usuarios formulan directamente sus preguntas a un asistente conversacional. La permeabilidad de nuestras actividades diarias a la IA es tan alta que cuesta imaginar un retroceso. Al igual que hace dos décadas los ordenadores ocupaban media mesa y hoy caben en el bolsillo, probablemente en pocos años miraremos atrás y nos parecerá rudimentario haber usado la IA solo a través de texto para hablar de nuestra salud mental.

En este campo, el proceso ya comenzó, pero las perspectivas son claras. Las revisiones recientes señalan que la IA no solo permitirá monitorizar síntomas en tiempo real a través de dispositivos cotidianos, sino que también contribuirá a diagnósticos más precisos y a una atención personalizada. Con sus limitaciones y riesgos, la IA ha llegado para quedarse y desarrollarse.

La versión original de este artículo ha sido publicada en la revista Telos, de Fundación Telefónica.

Este artículo fue publicado originalmente en The Conversation, un sitio de noticias sin fines de lucro dedicado a compartir ideas de expertos académicos.

Lee mas:

Felipe Soto-Pérez colabora con Telos, la revista que edita Fundación Telefónica.

Madalin Marian Deliu Dumitru colabora con Telos, la revista que edita Fundación Telefónica.