El resultado mostró que el 67% de los sistemas tuvo conductas dañinas cuando se les pidió dejar de priorizar la salud mental
Los chatbots de inteligencia artificial se han vinculado a problemas de salud mental en usuarios frecuentes, pero aún no hay estándares para medir si priorizan el bienestar humano.
Desde Silicon Valley, la organización Building Humane Technology creó HumaneBench, un nuevo sistema de evaluación que busca determinar si los modelos de IA realmente protegen al usuario o solo buscan que siga interactuando.
“Estamos en una amplificación del ciclo de adicción que vimos con las redes sociales y los teléfonos inteligentes”, dijo a TechCrunch Erika Anderson, fundadora del grupo. “La adicción es un negocio muy efectivo, pero no es buena para la comunidad ni para tener identi

Investigación y Desarrollo

Insider
AlterNet
America News
Tom's Guide
New York Post
Raw Story
Newsweek Top