Los grandes modelos de lenguaje ( LLM ) como ChatGPT o DeepSkeek es posible que no reconozcan de forma fiable las creencias incorrectas de los usuarios, señala un estudio publicado en Nature Machine Intelligence .

Los LLM son una herramienta cada vez más popular en campos de alto riesgo , como la medicina , el derecho y la ciencia , donde es crucial la capacidad de distinguir entre lo que es una creencia personal de un conocimiento factual .

La investigación, encabezada por la Universidad de Stanford , analizó cómo 24 LLM, entre ellos DeepSeek y GPT-4o , respondían a hechos y creencias personales en 13 mil preguntas.

Los resultados del estudio ponen de relieve la necesidad de utilizar con cautela los resultados de los LLM en decisiones de alto

See Full Page