Un experimento reciente volvió a plantear una pregunta incómoda sobre la inteligencia artificial: ¿hasta qué punto los modelos multimodales realmente entienden lo que ven? Un grupo de investigadores europeos evaluó su capacidad para leer la hora en un reloj analógico , una acción cotidiana para cualquier persona, pero que para la IA resultó sorprendentemente problemática.
Los autores del preprint ‘ Have Multimodal Large Language Models (MLLMs) Really Learned to Tell the Time on Analog Clocks?’, Tairan Fu, Miguel González, Javier Conde, Elena Merino-Gómez y Pedro Reviriego, construyeron una prueba exhaustiva para medir la habilidad de la inteligencia artificial.
Para ello utilizaron un conjunto sintético de 43.200 imágenes de relojes analógicos, disponible públicamente como analog clocks

El Tiempo Cultura

Infobae Colombia
El País
RadarOnline
New York Magazine Intelligencer
Crooks and Liars
Cleveland 19 News
Raw Story
New York Post
AlterNet