A medida que más personas recurren a ChatGPT y otros grandes modelos de lenguaje (LLM) para obtener asesoramiento sobre salud mental, un nuevo estudio detalla cómo estos chatbots, incluso cuando se les solicita que utilicen técnicas de psicoterapia basadas en la evidencia, violan sistemáticamente los estándares éticos de la práctica establecidos por organizaciones como la Asociación Americana de Psicología.

La investigación, dirigida por científicos informáticos de la Universidad de Brown que trabajan codo con codo con profesionales de la salud mental, demostró que los chatbots son propensos a diversas violaciones éticas. Estas incluyen la gestión inapropiada de situaciones de crisis, la provisión de respuestas engañosas que refuerzan las creencias negativas de los usuarios sobre sí mismo

See Full Page