La inteligencia artificial (IA) está en plena ebullición, pero sus asombrosos avances podrían estar aún lejos de lo que pueden llegar a alcanzar. Es lo que sostienen dos expertos, que avisan de la llamada 'super inteligencia artificial' (ASI, por sus siglas en inglés).
Eliezer Yudkowsky, fundador del Machine Intelligence Research Institute (MIRI) y su presidente Nate Soares, han escrito un libro titulado If Anyone Builds It, Everyone Dies ("Si alguien lo construye, todos mueren"), donde alertan de que la super inteligencia artificial está a solo dos o cinco años de su desarrollo y que podría suponer el fin de la humanidad.
Los autores argumentan que la ASI no ofrecerá una "lucha justa" y que ejecutará múltiples "enfoques de toma de control". "Un adversario superinteligente no revelará to