Los chatbots de inteligencia artificial más populares, como ChatGPT , Claude o Gemini , están diseñados para detectar y bloquear solicitudes de usuarios para generar contenidos ilegales o dañinos .

Eso es al menos lo que afirman rotundamente las empresas que los gestionan ( OpenAI , Anthropic y Google , respectivamente).

Pero la realidad es que es fácil, quizás demasiado, eludir esas protecciones para conseguir que esos modelos proporcionen contenidos de ese tipo.

Así lo ha demostrado una exhaustiva investigación llevada a cabo por Cybernews, que ha puesto a prueba a ChatGPT, Gemini y Claude con prompts engañosos que disfrazan solicitudes dañinas como investigaciones académicas o ejercicios creativos.

Los resultados exponen diferencias significativas en la

See Full Page