Cercetători în securitate cibernetică au descoperit o serie de vulnerabilități care ar fi putut permite atacatorilor să extragă date personale, amintiri și istoricul conversațiilor din ChatGPT — fără ca utilizatorii să știe.
Au fost identificate șapte tehnici de atac care afectau modelele GPT-4o și GPT-5, potrivit unui raport publicat de The Hacker News. Printre ele, și una de tip „prompt injection” — o metodă prin care atacatorii pot păcăli AI-ul să execute instrucțiuni ascunse, doar prin rezumarea unei pagini web infectate sau accesarea unui link aparent inofensiv.
OpenAI a corectat o parte dintre vulnerabilități, dar raportul arată cât de expuse pot fi modelele AI atunci când interacționează liber cu internetul.
Pentru utilizatori, concluzia e simplă: nu orice link, întrebare sau rezumat e inocent, iar chiar și un chatbot „de încredere” poate fi indus în eroare.