El director ejecutivo de OpenAI, Sam Altman, aclaró sus recientes declaraciones sobre los próximos cambios en ChatGPT, después de la gran repercusión que generó su decisión  de flexibilizar las restricciones y permitir el contenido erótico para adultos verificados.

Altman explicó que el ejemplo se malinterpretó y que el objetivo principal es ofrecer más libertad a los usuarios adultos, no centrar la atención en ese tipo de contenido. "Se suponía que era solo un ejemplo de cómo permitimos mayor libertad a los usuarios adultos" , escribió  en su cuenta de X, añadiendo que OpenAI continuará priorizando la seguridad, especialmente cuando se trata de usuarios adolescentes y temas de salud mental.

"No somos la policía moral"

Altman subrayó que la compañía mantendrá políticas estrictas de protección a menores y afirmó que han "decidido priorizar la seguridad sobre la privacidad y la libertad de los adolescentes" y que no habrá flexibilización en cuestiones vinculadas a la salud mental.

"Se trata de una tecnología nueva y potente, y creemos que los menores necesitan una protección significativa", señaló. En paralelo, defendió el principio de "tratar a los usuarios adultos como adultos" , argumentando que la libertad de uso responsable es una parte esencial de la misión de OpenAI.

El ejecutivo destacó además que OpenAI no pretende actuar como una autoridad moral , sino promover un uso seguro y responsable de la tecnología: "No somos la policía moral elegida del mundo", aseveró Altman, comparando la política de uso de la IA con los sistemas de clasificación por edades en el cine.