Un hombre fue hospitalizado en Estados Unidos tras preguntarle al servicio de mensajería de inteligencia artificial (IA), ChatGPT, sobre cómo eliminar la sal de su dieta. La recomendación del robot provocó una rara afección en el paciente.

De acuerdo con un estudio de la revista de salud Annals of Internal Medicine: Clinical Cases , l a inteligencia artificial le respondió que podía incluir bromuro de sodio en sus comidas, una práctica que llevó a cabo el paciente durante algunos meses, según detalla la revista.

De acuerdo con el artículo, es probable que el comando para ChatGPT no hubiese estado bien explicado, pues su recomendación “probablemente sería para otros fines, como la limpieza”.

Tras varias semanas de consumir bromuro, el hombre fue internado en un centro psiquiátrico,

See Full Page