Un nuevo ataque podría aprovecharse de las capacidades multimodales de Gemini y otros modelos de lenguaje para robar tus datos y compartirlos a un tercero. Investigadores han desarrollado un método que permite inyectar instrucciones ocultas en imágenes que, al ser procesadas por un sistema de IA, pueden filtrar información o ejecutar acciones no deseadas.
De acuerdo con una publicación en el blog de The Trail of Bits , investigadores de seguridad detallaron un método de ataque que permite esconder prompts maliciosos en imágenes . Las instrucciones se insertan en los archivos a través de una marca de agua invisible al ojo humano. Cuando el usuario utiliza la imagen en un sistema como Gemini CLI, Vertex AI Studio o la API de Gemini, la IA ejecutará la instrucción y filtrará los da