Una reciente investigación académica alertó sobre el uso de sistemas de inteligencia artificial como apoyo emocional, al concluir que no cumplen principios básicos de la práctica clínica. El equipo de la Universidad de Brown determinó que los modelos de lenguaje pueden ofrecer respuestas inadecuadas. El análisis señala que estos sistemas violan cinco de quince categorías éticas evaluadas.

Los investigadores detectaron fallas como la falta de adaptación al contexto personal, una relación terapéutica deficiente y expresiones de empatía artificial. También identificaron sesgos vinculados a género, cultura o religión, además de respuestas incorrectas ante situaciones de riesgo emocional. El estudio evidenció que estas herramientas no poseen la capacidad de un profesional de salud mental.

El

See Full Page