A medida que más personas recurren a ChatGPT y otros grandes modelos de lenguaje (LLM) para obtener asesoramiento sobre salud mental, un nuevo estudio detalla cómo estos chatbots, incluso cuando se les solicita que utilicen técnicas de psicoterapia basadas en la evidencia, violan sistemáticamente los estándares éticos de la práctica establecidos por organizaciones como la Asociación Americana de Psicología.
La investigación, dirigida por científicos informáticos de la Universidad de Brown que trabajan codo con codo con profesionales de la salud mental, demostró que los chatbots son propensos a diversas violaciones éticas. Estas incluyen la gestión inapropiada de situaciones de crisis, la provisión de respuestas engañosas que refuerzan las creencias negativas de los usuarios sobre sí mismo

La Crónica de Hoy

El Cronista Estados Unidos
El Periódico USA
LatinAmerican Post
People en Español
OKDIARIO Estados Unidos
CiberCuba Estados unidos
Al Día en America
Es Noticia
RadarOnline