En plena carrera global por desarrollar asistentes de inteligencia artificial más potentes, Anthropic ha reforzado las defensas de Claude con un sistema de seguridad en varias capas que busca anticipar y bloquear los usos malintencionados.

Ciberdelincuentes y criminales de todo tipo se sirven no solo de Claude o de otros chatbots conversacionales, sino de otras muchas herramientas de IA, especialmente de IA generativa.

Para poner coto a los abusos , criminales o no, es tan clave la actuación de las fuerzas y cuerpos de seguridad y los tribunales como la de las propias empresas que gestionan estas herramientas.

En un artículo en su blog , Anthropic detalla qué es lo que hace para preservar tanto la utilidad de su modelo como la seguridad de los usuarios y el entorno digital

See Full Page