Confiar ciegamente en la inteligencia artificial para decidir dónde ir, cómo llegar o qué esperar en un viaje parece cómodo, pero en realidad expone a muchos usuarios a errores graves. Estas herramientas generan respuestas verosímiles sin diferenciar entre lo real y lo inventado , lo que convierte cualquier itinerario digital en una apuesta incierta.

Los algoritmos procesan enormes volúmenes de información y los reorganizan según patrones estadísticos, sin validar la existencia física de los lugares que mencionan . Esa forma de funcionamiento explica por qué cada vez más viajeros descubren sobre el terreno que sus destinos soñados nunca existieron . Este comportamiento de las máquinas desencadenó varios incidentes recientes.

El uso masivo de la inteligencia artificial está empezando a poner en riesgo el turismo global

La BBC informó que dos turistas intentaban llegar en Perú al llamado Cañón Sagrado de Humantay , un paraje inexistente en los Andes. El guía Miguel Angel Góngora Meza , de la empresa Evolution Treks Perú, los detuvo al advertir el peligro de aventurarse a 4.000 metros sin preparación ni señal telefónica. Según explicó al medio británico, los viajeros habían seguido al pie de la letra las instrucciones que ChatGPT les proporcionó , confiando en una descripción fabricada a partir de nombres y fotografías reales combinados de forma aleatoria.

El exceso de credulidad hacia respuestas generadas por IA ha convertido errores técnicos en experiencias frustrantes

Otros casos aparecieron en Japón, donde la bloguera Dana Yao y su marido planificaron una caminata al monte Misen siguiendo indicaciones de la misma herramienta. Llegaron sin problemas a la cima, pero la aplicación les había proporcionado un horario erróneo: e l teleférico para descender ya estaba cerrado y la pareja quedó aislada . Experiencias así muestran cómo los fallos de los modelos generativos afectan a decisiones cotidianas y evidencian los límites de su fiabilidad práctica.

Los ejemplos se repiten. Un artículo de Fast Company describió a una pareja que viajó a Malasia buscando un teleférico visto en un vídeo de TikTok generado íntegramente por IA. También la aplicación Layla llegó a proponer un supuesto maratón por el norte de Italia y ubicó una Torre Eiffel en Pekín. En todos los casos, la información se presentó con total naturalidad, sin señales que alertaran de su falsedad .

La confianza ciega en los chatbots está cambiando la forma de viajar

Los datos recopilados por Global Rescue en 2025, citados por la BBC , indican que un 24% de los turistas ya utiliza sistemas de IA para planificar viajes . Esta adopción masiva está generando efectos secundarios inesperados, como excursiones a lugares inexistentes o errores de seguridad derivados de instrucciones imprecisas. Harding Bush , responsable de seguridad de la empresa y antiguo miembro de la Marina estadounidense, advirtió en esa encuesta que la expansión de estos programas representa una amenaza creciente para el sector turístico, sobre todo cuando se combinan con estafas digitales y páginas falsas.

El profesor Rayid Ghani, especialista en aprendizaje automático de la Universidad Carnegie Mellon, explicó que estas herramientas no distinguen entre rutas, recetas o consejos . Simplemente producen secuencias de palabras que resultan plausibles. Esa mecánica puede generar recomendaciones erróneas o directamente ficticias . Según él, los sistemas de lenguaje carecen de comprensión espacial o contextual , por lo que una caminata urbana a cuatro mil metros puede transformarse en una ascensión real a la montaña más cercana.

Los modelos de lenguaje funcionan sin comprender lo que dicen

Los errores de interpretación de la IA también tienen un componente humano. Muchos viajeros aceptan las sugerencias automáticas porque se presentan con tono convincente y apariencia profesional . Este exceso de confianza reproduce el fenómeno que ya se observó con las primeras aplicaciones de mapas, cuando los conductores seguían rutas imposibles solo por fiarse del dispositivo . Ahora el problema se amplía con imágenes generadas y textos que confunden apariencia y realidad.

El psicoterapeuta Javier Labourt s eñaló que la desinformación previa a un viaje altera el propósito mismo de desplazarse . En su opinión, el valor del turismo está en el encuentro real con otros entornos, y las distorsiones provocadas por la IA debilitan esa experiencia antes de empezar . Su recomendación es asumir los imprevistos como parte del trayecto y mantener la curiosidad como guía , incluso cuando la tecnología falle.

Gobiernos de distintos países preparan normas para identificar contenidos creados por algoritmos , con marcas visibles o sistemas de verificación. Según Rayid Ghani, estas medidas ayudarán a reconocer material manipulado, aunque no impedirán que los chatbots inventen información en tiempo real . La única estrategia fiable sigue siendo contrastar cada dato antes de actuar. Y eso, paradójicamente, devuelve al viajero al punto de partida: planificar con criterio propio .