Por MATT O’BRIEN

Si se cree que la inteligencia artificial representa graves riesgos para la humanidad, entonces un profesor de la Universidad Carnegie Mellon tiene uno de los roles más importantes en la industria tecnológica en este momento.

Zico Kolter encabeza un panel de cuatro personas en OpenAI que tiene la autoridad para detener el lanzamiento de nuevos sistemas de IA del creador de ChatGPT si los considera inseguros. Podría ser una tecnología tan poderosa que un malhechor podría usarla para fabricar armas de destrucción masiva. También podría ser un nuevo chatbot tan mal diseñado que perjudique la salud mental de las personas.

“No estamos hablando sólo de preocupaciones existenciales. Se trata de toda la gama de problemas de seguridad y temas críticos que surgen cuando comenzamo

See Full Page