Google Research presentó en NeurIPS 2025 un enfoque que busca que los modelos aprendan y retengan información con una lógica más parecida al cerebro humano
La investigación en inteligencia artificial (IA) avanza rápido, pero uno de los desafíos más complejos sigue vigente: lograr que los modelos aprendan de manera continua sin perder conocimientos previos. En ese escenario, Google Research presentó Nested Learning, una propuesta que se inspira en el funcionamiento de la memoria humana y que podría cambiar el diseño de los modelos actuales.
El anuncio se realizó en la Conferencia sobre Sistemas de Procesamiento de Información Neural (NeurIPS 2025), donde la compañía explicó que su objetivo es acercar el aprendizaje automático a la flexibilidad de la neurobiología. La apuesta nace de una l

Investigación y Desarrollo

The Babylon Bee
Raw Story
The Daily Beast
Newsweek Top
New York Post
The Daily Bonnet
RadarOnline