"China va a ganar la carrera de la inteligencia artificial", advirtió Jensen Huang, director ejecutivo de Nvidia . Muchos pensaron que exageraba, interesado en avivar la demanda de sus chips. Pero, como ha explicado la analista June Yoon en su columna para el Financial Times , el argumento de Huang encierra una verdad incómoda: la disponibilidad de electricidad —no de chips— se está convirtiendo en el factor crítico para el desarrollo de la IA.

Un modelo como GPT-4 puede consumir más de 460.000 megavatios-hora al año, el equivalente al gasto energético de 35.000 hogares estadounidenses, según un estudio . Los centros de datos del mundo —ya colosales— podrían duplicar su consumo eléctrico antes de 2030. Y eso cambia las reglas del juego.

Cuando los chips sobran, pero faltan enchufes

See Full Page