Una reciente investigación académica encendió las alarmas sobre el uso de sistemas de Inteligencia Artificial como apoyo emocional. Un equipo de la Universidad de Brown, en Estados Unidos, determinó que los modelos de lenguaje utilizados como sustitutos de terapeutas humanos incumplen estándares éticos fundamentales y podrían representar riesgos para quienes recurren a ellos en busca de contención psicológica.
El estudio concluye que estas herramientas no logran reproducir principios básicos de la práctica clínica y, en algunos casos, pueden ofrecer respuestas inadecuadas o potencialmente dañinas. Los resultados muestran que los chatbots empleados como consejeros virtuales violan cinco categorías centrales dentro de un conjunto de quince riesgos éticos evaluados .
Entre los fallos

Infobae México

Xataka México
Associated Press Spanish
OKDIARIO Estados Unidos
El Periódico Estados Unidos
Clarín Estados Unidos
Prensa Latina
Noticaribe
Mexico Quadratin
RadarOnline