Un hombre de 60 años en Estados Unidos estuvo a punto de morir envenenado después de seguir un consejo de ChatGPT para eliminar la sal de su dieta. El caso, documentado en la revista Annals of Internal Medicine , pone en evidencia los peligros del uso de la Inteligencia Artificial (IA) para fines médicos.
El hombre acudió a emergencias con alucinaciones paranoicas, creyendo que su vecino lo estaba envenenando. Sin embargo, los médicos descubrieron que sufría de una intoxicación por bromuro.
El peligro de la desinformación
Según el informe, el paciente había consultado a ChatGPT para sustituir la sal (cloruro de sodio) en su alimentación. La IA le sugirió usar bromuro de sodio, una recomendación peligrosa. Durante tres meses, el hombre consumió esta sustancia, lo que le causó el en