Los errores de los sistemas de inteligencia artificial han dejado claro que usarlos como asesores jurídicos o abogados digitales resulta una temeridad. ChatGPT y otras plataformas generan respuestas persuasivas, pero no garantizan su exactitud ni la validez de las citas que emplean . Confiar en ellas para defender una causa judicial supone actuar con una seguridad engañosa.

El resultado puede variar desde una simple confusión hasta un proceso perdido, lo que convierte cada consulta legal generada por una IA en una apuesta incierta que afecta directamente a quien la usa. Esa fragilidad, sin embargo, no impidió que una ciudadana estadounidense se enfrentara sola a un tribunal con la ayuda de estas herramientas .

Una mujer de California logró revertir un desahucio con ayuda de ChatGPT

Lynn White, residente en California, recurrió a ChatGPT y a la plataforma Perplexity para preparar su apelación tras perder un juicio por impago de alquiler , según publicó NBC News . La mujer había sido desalojada y afrontaba sanciones y deudas superiores a 70.000 dólare s. Sin abogado ni asesor legal, confió en la IA para redactar sus documentos, identificar errores en la actuación judicial y diseñar su defensa. El tribunal finalmente anuló el desahucio y la liberó del pago de las penalizaciones . La protagonista resumió su experiencia con una frase tajante en favor de la ayuda de los chatbots: “Nunca, jamás, podría haber ganado esta apelación sin la inteligencia artificial”.

Los tribunales estadounidenses ya habían visto cómo abogados reales presentaban textos generados por IA que contenían referencias inexistentes. Un juez de Nueva York llegó a escribir en su resolución: “Este caso añade otro capítulo lamentable a la historia del mal uso de la inteligencia artificial en la abogacía”. En agosto, otro magistrado impuso una multa de 10.000 dólares a un letrado californiano al descubrir que 21 de las 23 citas que había incluido procedían de decisiones judiciales inventadas por el sistema automático. Estos episodios reflejaron la facilidad con la que los programas reproducen información errónea revestida de apariencia técnica.

Los expertos alertan del aumento de litigantes que acuden a juicio asistidos por inteligencia artificial

White, para evitar estos descalabros, empleó un método que sorprendió incluso a sus adversarios. Pidió a ChatGPT que actuara “ como si fuera un profesor de Derecho de Harvard ” y que desmenuzara sus argumentos “ hasta obtener una calificación de sobresaliente ”. Esa estrategia le permitió revisar cada punto de su defensa y reformular los textos antes de presentarlos .

Los abogados contrarios, impresionados por la solidez de su apelación, le escribieron un mensaje privado: “Si el Derecho te interesa como profesión, podrías ejercer sin problema”. Según NBC News , aquel elogio ilustró el reconocimiento que su trabajo obtuvo incluso de la parte contraria.

OpenAI limita las funciones legales de sus modelos para evitar nuevos errores judiciales

Otros expertos citados por el medio describen un aumento de personas que acuden a los tribunales sin abogado y con asistencia de IA . La asistente legal Meagan Holmes , del bufete Thorpe Shwer de Phoenix, explicó que “en el último año se han visto más demandantes sin representación que en toda mi carrera”. También el abogado Robert Freund señaló que comprende “cómo alguien sin recursos puede sentirse tentado a usar estas herramientas” , aunque insistió en que un profesional que las utilice para engañar al juez “traiciona los fundamentos del ejercicio jurídico”.

El avance de los chatbots ha multiplicado los casos de litigantes que experimentan con ellos. Algunas personas, como White, consiguen revertir sentencias; otras, en cambio, acaban sancionadas o ridiculizadas por presentar textos llenos de falsedades. Las empresas desarrolladoras admiten que sus sistemas cometen errores y que no deben emplearse con fines legales .

Por este motivo, desde OpenIA han anunciado que capan su modelo para que no asesore en temas legales, médicos ni financieros . Si bien es cierto que la inteligencia artificial puede ofrecer apoyo puntual , su imprevisibilidad convertía cada juicio asistido por ella en un terreno resbaladizo que solo unos pocos lograron atravesar con éxito.