Antena 3 CNN High Tech Îți planifici vacanțele cu ChatGPT? Riști să te trimită în locuri care nu există. Exemple reale de turiști păcăliți de halucinațiile IA

Îți planifici vacanțele cu ChatGPT? Riști să te trimită în locuri care nu există. Exemple reale de turiști păcăliți de halucinațiile IA

Ioana Coman
5 minute de citit Publicat la 23:30 30 Sep 2025 Modificat la 00:14 01 Oct 2025
Turiștii folosesc tot mai des instrumente precum ChatGPT pentru idei de itinerarii. Foto: Getty Images

Turiștii folosesc tot mai des instrumente precum ChatGPT pentru idei de itinerarii și sunt puși pe drumuri către locuri care nu există: spre exemplu, un oraș imaginar în Peru sau un Turn Eiffel în Beijing.

Miguel Angel Gongora Meza, fondator și director al Evolution Treks Peru, se afla într-un sat rural din Peru, pregătindu-se pentru o drumeție prin Anzi, când a surprins o conversație neașteptată. Doi turiști neînsoțiți discutau prietenește despre planurile lor de a urca singuri în munți către „Canionul Sacru Humantay”.

„Mi-au arătat captura de ecran, scrisă cu încredere și plină de adjective vii, dar nu era adevărat. Nu există niciun Canion Sacru Humantay!”, povestește Gongora Meza, potrivit BBC. „Numele este o combinație între două locuri care nu au nicio legătură cu descrierea. Turistul a plătit aproape 160 de dolari (118 £) pentru a ajunge pe un drum rural în zona Mollepata, fără ghid sau destinație reală”.

Mai mult, el avertizează că această aparentă eroare ar fi putut fi fatală. „Acest tip de dezinformare este periculos în Peru. Altitudinea, schimbările climatice și accesibilitatea traseelor trebuie planificate. Dacă folosești un program precum ChatGPT, care combină imagini și nume pentru a crea o fantezie, poți ajunge la 4.000 de metri altitudine fără oxigen și fără semnal la telefon”.

În doar câțiva ani, instrumente de inteligență artificială precum ChatGPT, Microsoft Copilot și Google Gemini au trecut de la simpla curiozitate la o parte esențială a planificării călătoriilor pentru milioane de oameni. Potrivit unui sondaj, 30% dintre călătorii internaționali folosesc acum instrumente generative de IA și site-uri specializate precum Wonderplan și Layla pentru a-și organiza excursiile.

Deși aceste programe pot oferi sfaturi valoroase atunci când funcționează corect, ele pot duce și la situații frustrante sau chiar periculoase. Mulți călători învață lecția abia când ajung la destinația „ideală”, doar pentru a descoperi că au primit informații greșite sau au fost direcționați către un loc care există doar în imaginația unui robot.

Dana Yao și soțul ei au experimentat asta recent. Cuplul a folosit ChatGPT pentru a planifica o drumeție romantică până în vârful muntelui Misen, pe insula japoneză Itsukushima. După ce au explorat orașul Miyajima fără probleme, au pornit la ora 15:00 pentru a ajunge la vârf la apus, exact cum le sugerase ChatGPT.

„Atunci a apărut problema”, povestește Yao, creatoare de conținut care administrează un blog despre călătorii în Japonia. „Când eram gata să coborâm cu telecabina, ChatGPT spunea că ultima telecabină pleacă la 17:30, dar în realitate fusese deja închisă. Am rămas blocați în vârful muntelui”.

Un articol BBC din 2024 relata că Layla a spus temporar utilizatorilor că există un Turn Eiffel în Beijing și a sugerat unui turist britanic un traseu de maraton prin nordul Italiei, complet nerealist. „Itinerariile nu aveau sens logic. Am fi petrecut mai mult timp în transport decât vizitând locurile”, spune călătorul.

Potrivit unui sondaj din 2024, 37% dintre cei care au folosit IA pentru planificarea călătoriilor au declarat că aceasta nu oferă suficiente informații, iar circa 33% au spus că recomandările generate de IA conțineau informații false.

Inteligența artificială are halucinații

Aceste probleme provin din modul în care IA generează răspunsurile. Rayid Ghani, profesor distins în machine learning la Carnegie Mellon University, explică: deși programele precum ChatGPT par să ofere sfaturi raționale și utile, nu poți fi niciodată sigur că spun adevărul.

„Nu știe diferența între sfaturi de călătorie, indicații sau rețete. Știe doar cuvinte. Așa că continuă să genereze cuvinte care fac ceea ce spune să pară realist, și de aici apar multe probleme”.

Modelele mari de limbaj precum ChatGPT analizează volume uriașe de text și combină cuvinte și expresii care, statistic, par potrivite. Uneori oferă informații corecte, alteori creează ceea ce experții numesc „halucinații”, inventând pur și simplu lucruri. Iar pentru că IA prezintă halucinațiile și răspunsurile reale la fel, utilizatorii nu pot distinge ușor între ce e adevărat și ce e fals.

În cazul „Canionului Sacru Humantay”, Ghani crede că programul IA a combinat doar câteva cuvinte care păreau potrivite regiunii. Analiza datelor nu echivalează cu o înțelegere reală a lumii fizice: IA poate confunda o plimbare de 4.000 m printr-un oraș cu o urcare de 4.000 m pe munte - și asta fără să luăm în calcul dezinformarea intenționată.

Un articol Fast Company a relatat un incident în Malaysia, unde un cuplu a mers să vadă o telecabină pitorească văzută pe TikTok, doar pentru a descoperi că structura nu exista. Videoclipul fusese generat integral de IA, probabil pentru a atrage audiență sau din alte motive obscure.

Astfel de incidente fac parte dintr-un trend mai larg: IA poate modifica subtil, sau nu atât de subtil, percepția noastră asupra lumii. În august, creatorii de conținut au realizat că YouTube folosea IA pentru a edita videoclipuri fără permisiune, modificând haine, păr sau fețele persoanelor reale. Netflix a intrat și el în atenție la începutul anului 2025 pentru remasterizarea sitcomurilor vechi, care a produs distorsiuni bizare în fețele starurilor din anii ’80 și ’90. Pe măsură ce IA schimbă detalii fără știrea noastră, granița dintre realitate și o lume AI idealizată începe să se estompeze și pentru călători.

Javier Labourt, psihoterapeut și susținător al beneficiilor călătoriei pentru sănătatea mentală și conexiuni sociale, avertizează că aceste probleme pot contracara efectele pozitive ale călătoriei. „Călătoria oferă oportunitatea de a întâlni oameni pe care altfel nu i-ai întâlni și de a învăța direct despre alte culturi, ceea ce crește empatia și înțelegerea. Dar când IA oferă informații false, creează o poveste eronată despre locuri înainte ca oamenii să plece de acasă”.

Există încercări de a reglementa modul în care IA prezintă informațiile, inclusiv propuneri din UE și SUA pentru a introduce watermark-uri sau semne vizibile care să indice că ceva a fost generat sau modificat de IA. Dar, potrivit lui Ghani, este o luptă dificilă: „Se depune mult efort pentru detectarea dezinformării și ajutarea oamenilor să o recunoască, dar soluția cea mai sigură rămâne atenuarea, nu prevenția”.

Dacă astfel de reguli vor fi implementate, ele ar putea ajuta călătorii să identifice imagini sau videoclipuri generate de IA. Dar nu te vor proteja când un chatbot inventează ceva în timpul unei conversații. Experți, inclusiv CEO-ul Google, Sundar Pichai, au spus că halucinațiile pot fi o „trăsătură inerentă” a modelelor mari de limbaj precum ChatGPT sau Gemini. Singura protecție reală este vigilența.

Ghani recomandă să formulezi întrebările cât mai clar și să verifici totul. Totuși, călătorii se confruntă cu o problemă unică: explorează locuri necunoscute. Dacă o sugestie de călătorie pare prea bună ca să fie adevărată, verifică-o de două ori. În multe cazuri, timpul petrecut verificând informațiile IA poate fi la fel de mare ca planificarea tradițională.

Pentru Labourt, cheia unei călătorii reușite - cu sau fără IA - este să ai mintea deschisă și să te adaptezi când apar probleme. „Încearcă să nu vezi dezamăgirea ca pe un păcat al cuiva. Dacă ești acolo, cum poți transforma situația în favoarea ta? Oricum, ești într-o excursie grozavă”.

Citește mai multe din High Tech
» Citește mai multe din High Tech
TOP articole