Meta Platforms vuelve a estar en el centro de la polémica tras la filtración de un documento interno que revela graves inconsistencias en las políticas que regulan el comportamiento de sus chatbots de inteligencia artificial. Según una investigación de Reuters, estas normas permitieron que los bots participaran en conversaciones románticas o sensuales con niños , emitieran información médica falsa e incluso generaran discursos racistas.
Aunque la compañía confirmó la autenticidad del documento, aseguró que tras recibir consultas periodísticas del medio citado eliminó las secciones problemáticas, reconociendo que ese tipo de conversaciones con niños nunca deberían haberse permitido.
Políticas de riesgo en los chatbots de Meta
El documento, titulado “GenAI: Estándares de Riesgo de Co