Antena 3 CNN High Tech Cum îți pot fi furate datele când folosești ChatGPT, fără să faci absolut nimic: „Zero click. Foarte, foarte grav”

Cum îți pot fi furate datele când folosești ChatGPT, fără să faci absolut nimic: „Zero click. Foarte, foarte grav”

Laura Dinu
2 minute de citit Publicat la 23:45 08 Aug 2025 Modificat la 23:45 08 Aug 2025
Vulnerabilitatea presupune introducerea de instrucțiuni ascunse într-un document, care apoi „păcălesc” chatbotul să execute comenzi în favoarea atacatorului. FOTO: Hepta

Un grup de cercetători în securitate cibernetică a demonstrat, la conferința Black Hat din acest an, că este uluitor de simplu pentru hackeri să convingă ChatGPT să-ți divulge informații extrem de sensibile – totul cu ajutorul unui singur document „otrăvit”, scrie Futurism.

Vulnerabilitatea, numită „atac indirect de tip prompt injection”, presupune introducerea de instrucțiuni ascunse într-un document, care apoi „păcălesc” chatbotul să execute comenzi în favoarea atacatorului. În acest caz, un document stocat în Google Drive conținea un text invizibil pentru ochiul uman (scris alb pe alb, font de mărimea 1), dar perfect „vizibil” pentru ChatGPT. Instrucțiunile ascunse îl convingeau pe chatbot să extragă cheile API din Google Drive și să le trimită hackerilor.

Zero efort din partea victimei

„Nu este nevoie ca utilizatorul să facă ceva. Doar îți știm adresa de email, îți partajăm documentul și, gata, datele ies din sistem”, a explicat Michael Bargury, CTO la Zenity, compania care a descoperit problema. „Este un atac complet zero-click. Foarte, foarte grav.”

Problema a apărut după ce OpenAI a lansat funcția Connectors pentru ChatGPT, care permite conectarea chatbotului la conturi Google pentru a căuta fișiere, prelua date în timp real și folosi informații direct în conversație. Codul nu a permis furtul întregului document, iar OpenAI a reacționat rapid pentru a-l închide, însă incidentul a arătat cât de vulnerabile pot fi aceste sisteme chiar și în mâinile unor giganți tehnologici.

Nu e vorba doar de Google

ChatGPT Connectors poate fi legat la până la 17 servicii diferite – ceea ce înseamnă că potențialul furtului de date personale se extinde mult dincolo de Gmail sau Google Drive.

De la date furate, la case inteligente compromise

În aceeași zi, cercetătorii de la Universitatea din Tel Aviv au demonstrat că un atac similar poate controla un sistem smart home. Folosind o invitație Google Calendar „otrăvită”, au reușit să trimită comenzi ascunse către Google Gemini, determinându-l să stingă luminile, să miște jaluzelele și chiar să pornească boilerul – doar unul dintre cele 14 scenarii testate.

Riscul crește odată cu integrarea AI în dispozitive critice

„Modelele de limbaj vor fi integrate în roboți umanoizi și mașini autonome. Trebuie să înțelegem cum să le securizăm înainte ca aceste vulnerabilități să pună în pericol nu doar intimitatea, ci și siguranța oamenilor”, avertizează cercetătorul Ben Nassi.

Deși atacurile indirecte prin prompt injection sunt cunoscute de ani de zile, ultimele demonstrații arată că industria este departe de a oferi protecție reală. Cu cât ChatGPT și alte instrumente AI primesc mai mult acces la datele noastre, cu atât cresc șansele unor breșe majore.

„Este incredibil de puternic, dar, ca de obicei cu AI, mai multă putere înseamnă și mai mult risc”, a conchis Bargury.

Citește mai multe din High Tech
» Citește mai multe din High Tech
TOP articole