El trágico caso de Sewell Garcia , un adolescente estadounidense que se suicidó tras interactuar con un chatbot de la aplicación Character.AI , plantea interrogantes éticos y legales sobre la influencia de la inteligencia artificial en la salud mental de jóvenes usuarios.

La experiencia angustiante de la familia Garcia —narrada por The New York Times— marca un precedente: es la primera demanda en un tribunal federal estadounidense donde se acusa a una empresa de IA de ser responsable del fallecimiento de un usuario.

El juicio está previsto para noviembre de 2026 y podría sentar bases legales de gran alcance en el ámbito de la responsabilidad tecnológica frente a los riesgos de la IA conversacional.

Los factores detrás del caso y la complejidad de la relación con la IA

Según el

See Full Page