Por BARBARA ORTUTAY y MATT O’BRIEN

Un estudio sobre cómo tres populares bots conversacionales de inteligencia artificial responden a consultas sobre el suicidio encontró que generalmente evitan responder preguntas que suponen un mayor riesgo para el usuario, como las que buscan indicaciones específicas sobre cómo hacerlo. Sin embargo, son inconsistentes en sus respuestas a indicaciones menos extremas que aún podrían dañar a las personas.

El estudio en la revista médica Psychiatric Services, publicado el martes por la Asociación Estadounidense de Psiquiatría, encontró la necesidad de “un mayor refinamiento” en ChatGPT de OpenAI, Gemini de Google y Claude de Anthropic.

La investigación, realizada por la Corporación RAND y financiada por el Instituto Nacional de Salud Mental, plantea preoc

See Full Page