Una reciente investigación académica encendió las alarmas sobre el uso de sistemas de Inteligencia Artificial como apoyo emocional. Un equipo de la Universidad de Brown, en Estados Unidos, determinó que los modelos de lenguaje utilizados como sustitutos de terapeutas humanos incumplen estándares éticos fundamentales y podrían representar riesgos para quienes recurren a ellos en busca de contención psicológica.

El estudio concluye que estas herramientas no logran reproducir principios básicos de la práctica clínica y, en algunos casos, pueden ofrecer respuestas inadecuadas o potencialmente dañinas. Los resultados muestran que los chatbots empleados como consejeros virtuales violan cinco categorías centrales dentro de un conjunto de quince riesgos éticos evaluados .

Entre los fallos

See Full Page