Google Research presentó en NeurIPS 2025 un enfoque que busca que los modelos aprendan y retengan información con una lógica más parecida al cerebro humano

La investigación en inteligencia artificial (IA) avanza rápido, pero uno de los desafíos más complejos sigue vigente: lograr que los modelos aprendan de manera continua sin perder conocimientos previos. En ese escenario, Google Research presentó Nested Learning, una propuesta que se inspira en el funcionamiento de la memoria humana y que podría cambiar el diseño de los modelos actuales.

El anuncio se realizó en la Conferencia sobre Sistemas de Procesamiento de Información Neural (NeurIPS 2025), donde la compañía explicó que su objetivo es acercar el aprendizaje automático a la flexibilidad de la neurobiología. La apuesta nace de una l

See Full Page