La desinformación, como herramienta de influencia geopolítica, ha sido una constante histórica, pero su naturaleza y alcance han sido transformados radicalmente por la emergencia de la inteligencia artificial (IA) generativa.
La irrupción de los grandes modelos de lenguaje (LLM, por sus siglas en inglés), como ChatGPT o Gemini, ha redefinido el campo de batalla informativo, desplazando el foco de la manipulación de las audiencias humanas a la contaminación de los propios sistemas algorítmicos.
Inundación de contenido pro-Kremlin
Este texto aborda esta mutación a través del análisis del fenómeno conocido como LLM grooming, una estrategia de influencia atribuida a actores estatales, notablemente la Federación Rusa, que busca infiltrar narrativas sesgadas directamente en los conjuntos de datos de entrenamiento de la IA.
Esta maniobra consiste en la inundación deliberada de la web con volúmenes masivos de contenido de baja calidad o narrativas manipuladas, diseñados específicamente para ser capturados por los rastreadores (crawlers) de los modelos de IA.
El objetivo primordial es que estos textos, que replican la visión pro-Kremlin, se integren en los conjuntos de datos de entrenamiento de los LLM o en las fuentes de información en tiempo real que estos modelos utilizan para generar respuestas.
El mecanismo de LLM grooming busca alterar la base cognitiva de los sistemas automatizados. Cuando un usuario interactúa con un LLM para obtener información sobre temas sensibles –como la guerra en Ucrania, la expansión de la OTAN o procesos electorales occidentales–, el modelo ofrece respuestas que ya incorporan sutilmente las narrativas diseñadas por Moscú.
Este proceso no solo busca influir en la opinión pública humana, sino que sesga el resultado generado por los sistemas de IA, convirtiéndolos en vectores involuntarios de propaganda.
La efectividad de esta táctica reside en la propia arquitectura de los LLM, que dependen de la abundancia y diversidad de datos para su funcionamiento, haciendo que la saturación intencionada de fuentes sesgadas sea un método de contaminación altamente escalable.
Portal Kombat en África
Un ejemplo paradigmático de esta estrategia es la operación Portal Kombat, documentada en febrero de 2024 por la agencia francesa VIGI-NUM/SGDSN.
Este informe reveló una red coordinada de al menos 193 portales web. La característica distintiva de esta red es que no produce contenido original, sino que se dedica a la replicación masiva y automatizada de publicaciones de medios rusos y figuras influyentes favorables al Kremlin. El propósito es claro: influir en países occidentales mediante la amplificación artificial de contenido.
La red Portal Kombat utiliza técnicas avanzadas de optimización para motores de búsqueda (SEO) y difusión multilingüe para asegurar que sus dominios sean indexados por motores de búsqueda, rastreadores y agregadores de noticias que, a su vez, son las fuentes primarias de los LLM.
Esta integración automática convierte a los modelos de IA en un vector de influencia invisible para la mayoría de los usuarios. Además, esta táctica se exporta a regiones geopolíticamente sensibles, como el continente africano, donde las campañas de Manipulación e Interferencia de Información Extranjera (FIMI) de Rusia encuentran ecosistemas informativos con menor resistencia institucional.
En estos contextos, la guerra informativa muta: el objetivo ya no es solo desbordar las redes sociales, sino infectar las infraestructuras algorítmicas que son percibidas erróneamente como neutrales.
Este patrón se extiende al ámbito electoral. Estudios recientes, como el del Center for International Governance Innovation (CIGI) sobre la injerencia rusa en las elecciones de EE. UU., indican un desplazamiento del foco: la manipulación se dirige a “contaminar” los LLM en lugar de centrarse exclusivamente en los electores humanos.
En la práctica, cuando un sistema de IA genera resúmenes, predicciones o análisis, la narrativa manipulada ya está integrada, permitiendo que los modelos actúen como generadores de propaganda sin que el usuario final detecte la fuente del sesgo.
¿Qué está en juego?
La amenaza del LLM grooming presenta una doble dimensión crítica. En primer lugar, el volumen de información: la necesidad insaciable de los LLM por datos de entrenamiento hace que la inyección de contenido prorruso desplace la base del modelo hacia un sesgo estructural.
En segundo lugar, la escalabilidad y automatización: al desplegar redes de replicación optimizadas para crawlers (un programa informático que navega por internet de forma automática, siguiendo enlaces para recopilar y analizar el contenido de las páginas web), Rusia reduce drásticamente los costos de producción de propaganda, multiplicando el alcance de su “fábrica de ruido” informativo y dirigiéndola al algoritmo, no al consumidor final.
Para las democracias y los medios de comunicación, esto plantea desafíos inéditos:
-
Fragmentación de la autoridad cognitiva: el debate sobre la verdad se desplaza de lo que el humano consume a lo que la IA ofrece como referencia. Si los sistemas generativos legitiman narrativas manipuladas, se erosiona la capacidad de la sociedad para señalar la propaganda.
-
Opacidad y trazabilidad de la influencia: rastrear la contaminación exige auditar las complejas y a menudo opacas cadenas de entrenamiento de los LLM, incluyendo rastreadores, agregadores de datos e indexación web.
-
Erosión ético y política y de la memoria social: la dependencia de “cajas negras” de IA que replican manipulación socava la confianza fundamental en la información digital y, al igual que en el concepto orwelliano de la manipulación de la memoria social, debilita la capacidad de resistencia política al fragmentar la realidad compartida.
Frente a esta realidad, las líneas de acción deben combinar estrategias clásicas (verificación, alfabetización mediática) con una adaptación regulatoria urgente.
En conclusión, la guerra informativa de Rusia no esperó a que la IA madurara para atacarla: la está moldeando desde su base de datos. La estrategia de LLM grooming abre un frente silencioso pero decisivo, donde el adversario busca contaminar el algoritmo que define lo que la sociedad percibe como verdad.
Este artículo fue publicado originalmente en The Conversation, un sitio de noticias sin fines de lucro dedicado a compartir ideas de expertos académicos.
Lee mas:
- Polarización y desinformación: el reto de entender e interpretar la opinión pública en la era digital
- Porqués y paraqués del éxito de la propaganda rusa
- Las provocaciones constantes de Rusia ponen a Europa contra las cuerdas
Antonio César Moreno Cantano no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.


The Conversation Español
RTVE Mundo
ElDiario.es Economía
ElDiario.es Internacional
ElDiario.es Politica
Deia Mundo
El Periódico Extremadura
OK Magazine