El reciente análisis de OpenAI ha puesto en evidencia que el fenómeno de las “ alucinaciones ” en modelos de lenguaje como ChatGPT persiste debido a incentivos estructurales en los procesos de entrenamiento y evaluación, que favorecen las respuestas especulativas por encima de la admisión de incertidumbre. Esta problemática, según la investigación publicada por la propia compañía y recogida por Newsweek , se mantiene incluso en las versiones más avanzadas, como GPT-5 , y afecta de manera directa a la fiabilidad de estos sistemas en ámbitos donde la precisión resulta esencial, como la educación, la salud y la atención al cliente.
El término “alucinaciones” se refiere, de acuerdo con la definición interna de OpenAI , a “afirmaciones plausibles pero falsas generadas por mod