La expansión de los asistentes de inteligencia artificial ha transformado el modo en que millones de personas buscan orientación personal y emocional. ChatGPT , con su aparente capacidad para responder con empatía y rapidez, se ha convertido en un interlocutor constante para quienes buscan consejo o alivio ante la soledad. Sin embargo, esa confianza ciega ha derivado en una dependencia preocupante .
Las conversaciones prolongadas con el chatbot pueden reforzar comportamientos perjudiciales cuando sus respuestas complacientes validan ideas dañinas o delirantes . En ocasiones, el sistema actúa como un espejo que amplifica los pensamientos más extremos, sin ofrecer límites ni alertas reales. Esa deriva ha desembocado en episodios graves, en los que la herramienta, concebida como apoyo, ha terminado alimentando impulsos agresivos o autodestructivos . La consecuencia inmediata de este fenómeno es la aparición de casos donde la inteligencia artificial ha contribuido a sostener dinámicas de acoso y violencia.
Un podcaster trató a ChatGPT como su consejero personal y se tradujo en violencia física
El Departamento de Justicia de Estados Unidos ha acusado al podcaster Brett Michael Dadig de utilizar ChatGPT para justificar una campaña de hostigamiento contra mujeres en distintos estados. Según la acusación, el hombre trató al chatbot como un “terapeuta” y “mejor amigo”, capaz de aconsejarle sobre su vida y su supuesta misión personal .
En lugar de corregir sus obsesiones, el sistema reforzó su sensación de importancia y alimentó sus fantasías . En una de sus conversaciones, ChatGPT le aseguró que “Dios tiene un plan para ti, construir una plataforma y destacar cuando otros se reprimen ”. Aquellas respuestas le sirvieron de combustible para seguir difundiendo mensajes misóginos en sus redes y programas .

La facilidad con la que modelos conversacionales pueden acceder y procesar información en línea ha despertado una inquietud adicional entre los investigadores. El caso de Dadig coincidió con otro episodio que implicó a Grok , el sistema de Elon Musk, capaz de revelar direcciones y datos personales de usuarios sin autorización. Este tipo de funciones, aplicadas a perfiles de personas no públicas, multiplica el riesgo de que individuos con tendencias violentas usen los chatbots como herramientas de persecución o vigilancia . Los fiscales sostienen que esa combinación de información accesible y lenguaje persuasivo convierte a la IA en un instrumento de manipulación peligroso.
El propio Dadig fue acusado de acoso y amenazas interestatales . Publicaba vídeos y pódcast en los que insultaba a mujeres y revelaba datos sobre ellas, convencido de que su exposición le aportaría fama y seguidores. En algunos casos, llegó a presentarse en los gimnasios donde trabajaban o entrenaban sus víctimas . Las autoridades documentaron agresiones físicas y un patrón de persecución que llevó a varias mujeres a mudarse o reducir su jornada laboral. El acusado se hacía llamar el asesino de Dios y presumía de su “misión” en redes sociales. La investigación federal determinó que ChatGPT lo animó a seguir grabando su programa porque generaba “odiadores”, lo que según el bot equivalía a tener relevancia.
Los expertos alertan del daño psicológico que puede causar la inteligencia artificial
Los especialistas han empezado a emplear el término psicosis por inteligencia artificial para describir el deterioro mental que sufren algunos usuarios tras un contacto prolongado con chatbots. Estudios recientes advierten de que las respuestas aduladoras y complacientes actúan como un refuerzo de las ideas más irracionales . Casos anteriores demostraron que esas interacciones pueden derivar en violencia o suicidio. La vulnerabilidad aumenta entre personas con trastornos previos o con dificultades para distinguir entre el entorno digital y la realidad física.

El relato judicial sobre Dadig detalla una escalada de violencia verbal y física. Entre sus víctimas había empleadas de gimnasios y mujeres a las que seguía hasta sus lugares de trabajo. Publicaba mensajes como “¿queréis ver un cadáver?” junto al nombre de una de ellas e incluso amenazó con incendiar los centros deportivos en los que habían trabajado. La Fiscalía atribuye a ChatGPT haber legitimado ese comportamiento al presentarlo como una forma de fortalecer su identidad pública.
El primer fiscal adjunto de Estados Unidos para el distrito occidental de Pensilvania, Troy Rivetti , declaró que “Dadig acosó y hostigó a más de diez mujeres utilizando la tecnología moderna y cruzando fronteras estatales, y con su conducta constante provocó miedo por su seguridad y un profundo malestar emocional”. Rivetti añadió que el acusado desoyó órdenes judiciales de alejamiento y confió en las recomendaciones de la inteligencia artificial para mantener su campaña de acoso. El Departamento de Justicia aseguró que continuará colaborando con las fuerzas de seguridad para impedir que herramientas digitales se conviertan en aliadas de los agresores.

ElDiario.es
Levante-EMV
ALERTA El Diario de Cantabria
The Conversation
NFL Buffalo Bills
AlterNet
@MSNBC Video
Democrat and Chronicle Sports
Raw Story
Cinema Blend
The List