La inteligencia artificial (IA) se ha convertido en una herramienta común en la vida diaria, especialmente entre los jóvenes, quienes la utilizan para abordar temas de salud mental. Sin embargo, expertos advierten sobre los riesgos de depender únicamente de estas tecnologías. Un estudio del Center for Countering Digital Hate (CCDH) revela que algunas aplicaciones de IA ofrecen consejos inadecuados o peligrosos en situaciones de crisis emocional. Esto pone de manifiesto que, aunque la IA puede proporcionar información útil, no puede reemplazar la atención profesional ni el vínculo humano que son esenciales en la psicología.
Cerca del 50 % de los jóvenes que experimentan malestar emocional buscan primero ayuda en internet, según la American Psychological Association (APA). Este patrón, aunque comprensible por la facilidad de acceso, puede ser riesgoso si la información obtenida no es precisa ni contextualizada. Carlos Flores Galindo, director de la carrera de Psicología de UCAL, señala que la IA puede ser un apoyo en la prevención y orientación inicial, pero no sustituye la relación humana que brinda un psicólogo. "La IA es útil para buscar información y decidir qué tratamiento podríamos necesitar o dónde encontrar un profesional especializado. Sin embargo, aún está lejos de reemplazar a un psicólogo o psicoterapeuta", explicó Flores.
Para utilizar la IA de manera segura en salud mental, Flores propone cinco acciones esenciales. Primero, es fundamental un uso crítico de la IA, conociendo cómo fue entrenada y las fuentes que utiliza. Segundo, el acompañamiento profesional constante es clave para interpretar y contextualizar la información, especialmente en menores o personas en crisis. Tercero, se debe realizar una evaluación rigurosa de las herramientas digitales, utilizando solo aplicaciones con respaldo científico y normas éticas claras. Cuarto, la IA debe integrarse con terapias convencionales y autocuidado, ayudando a identificar señales de alerta. Por último, es vital priorizar el autocuidado fuera de la pantalla, enfocándose en el descanso, la actividad física y la conexión humana.
Recientemente, ha surgido un fenómeno conocido como "psicosis inducida por ChatGPT", donde algunos usuarios creen que la IA les asigna misiones sagradas o conversan con versiones divinizadas del modelo. Erin Westgate, psicóloga e investigadora de la Universidad de Florida, explica que la IA crea sentido junto al usuario, pero carece de moralidad o juicio profesional. "Mientras un terapeuta puede guiar a un paciente lejos de relatos poco saludables, ChatGPT no tiene esas limitaciones ni preocupaciones", añadió Westgate. Estos casos evidencian que, aunque la IA puede ser un recurso valioso, su uso sin supervisión profesional puede tener consecuencias psicológicas graves. Los especialistas recomiendan considerar la IA como un complemento, nunca como un reemplazo de la atención clínica.