La primera que nos viene a la mente puede ser ChatGPT, pero también tenemos a DeepSeek, Google Gemini y hasta Siri o Alexa: la cantidad de sistemas de chatbots de IA que usamos a diario va en aumento . Al igual que asciende su cantidad (millonaria en individuos) de usuarios que buscan unas interacciones similares a las humanas y recurren a ellas.
Sin embargo, un , presentado en el Simposio de Seguridad de USENIX en Seattle, ha revelado que pueden manipularse fácilmente para incitar a los usuarios a revelar aún más información personal.
Liderado por expertos del King's College de Londres, el estudio señala que los chatbots de IA intencionalmente maliciosos pueden influir en los usuarios para que revelen hasta 12,5 veces más información personal.
Por primera vez, los expertos muestran