Tot mai mulți turiști folosesc ChatGPT, Google Gemini sau Microsoft Copilot pentru a-și planifica vacanțele. Însă entuziasmul pentru tehnologie se transformă adesea în dezamăgiri costisitoare și chiar pericole reale.
Miguel Angel Gongora Meza, ghid montan și fondator al Evolution Treks Peru, povestește cum a întâlnit doi turiști entuziaști care se pregăteau să pornească singuri spre așa-numitul „Canion Sacru al Humantay”.
Cei doi îi arătaseră capturi de ecran cu indicații detaliate și descrieri pline de superlative generate de ChatGPT. Problema a fost că destinația nu există.
„Numele era o combinație între două locuri diferite, fără legătură între ele. Turistul plătise deja aproape 160 de dolari ca să ajungă pe un drum rural din apropierea localității Mollepata, fără ghid și fără destinație reală”, explică Gongora Meza.
El avertizează că asemenea greșeli nu sunt doar frustrante, ci și extrem de periculoase în zone montane precum Anzii. Altitudinea de peste 4.000 de metri, lipsa semnalului și schimbările bruște de vreme pot pune în pericol viața turiștilor nepregătiți.
Problemele cauzate de „halucinațiile” AI nu se limitează la America de Sud. Dana Yao și soțul ei au trăit o aventură neprevăzută în Japonia.
Folosind ChatGPT, au planificat o excursie romantică pe Muntele Misen, pe insula Itsukushima. Conform instrucțiunilor, au urcat în jurul orei 15:00 pentru a prinde apusul. Dar la coborâre au descoperit surpriza: telecabina fusese deja închisă, deși ChatGPT susținea că programul se încheia la 17:30.
„Am rămas blocați pe vârf. Nu aveam altă opțiune decât să coborâm pe jos”, povestește Dana Yao.
Un caz asemănător a fost relatat în Europa, unde aplicația Layla a recomandat unui turist britanic un maraton imaginar prin nordul Italiei, imposibil de realizat logistic. În alt episod, aceeași aplicație a indicat existența unui „Turn Eiffel” în Beijing.
Conform unui sondaj realizat în 2024, 30% dintre călătorii internaționali folosesc deja instrumente AI pentru planificarea vacanțelor.
Însă entuziasmul vine cu probleme majore:
37% dintre respondenți au declarat că instrumentele nu oferă suficiente informații
33% au raportat că recomandările generate au fost false sau complet inventate
Aceste erori au la bază modul în care funcționează modelele de limbaj. Rayid Ghani, profesor de machine learning la Carnegie Mellon University, explică: „ChatGPT nu știe diferența dintre rețete, rute sau sfaturi de călătorie. El doar generează cuvinte care par logice.”
Rezultatul vine cu o combinație de informații reale cu detalii fabricate, prezentate cu aceeași încredere.
Așa-numitele „halucinații AI” devin vizibile nu doar în turism.
Un cuplu a mers recent în Malaezia pentru a vizita o telecabină spectaculoasă pe care o văzuseră pe TikTok. Ajunși la fața locului, au descoperit că atracția nu exista. Clipul fusese generat integral de inteligență artificială.
În paralel, alte platforme au fost acuzate de intervenții similare:
YouTube a modificat automat imagini din videoclipuri, schimbând haine sau trăsături faciale.
Netflix a stârnit controverse în 2025 după ce încercările de a „remasteriza” sitcomuri din anii ’80-’90 cu AI au distorsionat fețele actorilor.
Pentru călători, astfel de „ajustări” riscă să creeze o imagine falsă despre destinații, unde realitatea nu mai seamănă cu ceea ce au văzut online.
Uniunea Europeană și Statele Unite analizează măsuri pentru a marca vizibil conținutul generat de AI. Se discută despre introducerea de watermark-uri sau etichete speciale care să avertizeze utilizatorii.
Totuși, experții recunosc că aceste soluții sunt limitate.
„Este mai ușor să gestionezi efectele dezinformării decât să previi complet fenomenul”, subliniază Rayid Ghani.
Problema majoră rămâne atunci când un chatbot inventează informații în timp real. Halucinațiile sunt considerate de mulți specialiști, inclusiv de CEO-ul Google Sundar Pichai, drept o caracteristică inerentă a modelelor de limbaj.