En julio, Sam Altman, cofundador de OpenAI, alertó sobre la posibilidad de que los ciberdelincuentes utilizaran inteligencia artificial para suplantar la identidad de otros y provocar una “crisis de fraude”. Los memes no tardaron en aparecer, todos centrados en la evidente ironía: ChatGPT era, en parte, responsable del monstruo del que advertía Altman.

Al mismo tiempo, OpenAI contrató a Pattern Labs para realizar pruebas de estrés a sus modelos de IA antes de su lanzamiento público, con el objetivo de detectar y corregir cualquier vulnerabilidad que pudiera ser explotada por hackers para robar datos de usuarios o utilizada como herramienta para perjudicar a terceros.

Desde 2023, la startup ha colaborado con gigantes del sector como Anthropic y Google DeepMind, colocando modelos de IA en

See Full Page