Los chatbots de inteligencia artificial más populares, como ChatGPT , Claude o Gemini , están diseñados para detectar y bloquear solicitudes de usuarios para generar contenidos ilegales o dañinos .
Eso es al menos lo que afirman rotundamente las empresas que los gestionan ( OpenAI , Anthropic y Google , respectivamente).
Pero la realidad es que es fácil, quizás demasiado, eludir esas protecciones para conseguir que esos modelos proporcionen contenidos de ese tipo.
Así lo ha demostrado una exhaustiva investigación llevada a cabo por Cybernews, que ha puesto a prueba a ChatGPT, Gemini y Claude con prompts engañosos que disfrazan solicitudes dañinas como investigaciones académicas o ejercicios creativos.
Los resultados exponen diferencias significativas en la

Málaga Hoy

AlterNet
NECN Entertainment
The Babylon Bee
Atlanta Black Star Entertainment
The Fashion Spot
TMZ
NECN Politics
The Hollywood Gossip
Crooks and Liars
5 On Your Side Sports