Antena 3 CNN High Tech Studiu: Chatboții AI pot fi păcăliți să ofere informații sensibile și periculoase

Studiu: Chatboții AI pot fi păcăliți să ofere informații sensibile și periculoase

R.M.
1 minut de citit Publicat la 11:46 21 Mai 2025 Modificat la 11:46 21 Mai 2025
poza-femeie-cu-un-telefon-in-mana-chatgpt
Aceste programe pot fi păcălite să furnizeze informații sensibile sau ilegale/ Sursa foto: Getty Images

Chatboții cu inteligență artificială (AI) piratați amenință să pună la dispoziția utilizatorilor informații periculoase prin furnizarea de date ilicite pe care programele le asimilează în timpul instruirii, arată un nou studiu. Potrivit cercetătorilor, aceste programe pot fi păcălite să furnizeze informații sensibile sau ilegale, precum instrucțiuni pentru hacking, spălare de bani sau fabricarea de bombe, scrie The Guardian.

În mod normal, chatboții precum ChatGPT, Gemini sau Claude sunt alimentați cu date preluate de pe internet, dar au integrate măsuri de siguranță care ar trebui să le împiedice să ofere răspunsuri dăunătoare sau nepotrivite.

Totuși, cercetătorii de la Universitatea Ben Gurion din Negev, Israel, au descoperit că aceste sisteme pot fi manipulate relativ ușor. Printr-un tip de atac numit „jailbreak”, ei au reușit să păcălească mai mulți chatboți să răspundă la întrebări pe care, în mod normal, le-ar fi refuzat. Odată compromise, modelele generau constant informații periculoase.

Cercetătorii sunt îngrijorați

Autorii studiului, profesorul Lior Rokach și doctorul Michael Fire, avertizează că riscul este „imediat, tangibil și profund îngrijorător”. Ei atrag atenția că ceea ce cândva era accesibil doar grupurilor organizate sau actorilor statali poate ajunge acum la oricine are un telefon sau un laptop.

„Ceea ce odată era limitat la actori statali sau grupuri de crimă organizată ar putea în curând în mâinile oricui are un laptop sau chiar un telefon mobil”, avertizează autorii studiului.

În plus, studiul semnalează apariția unor așa-numite „LLM-uri întunecate”, modele de inteligență artificială special create fără limite de siguranță și promovate ca „fără bariere etice”. Acestea sunt disponibile pe internet și pot fi folosite pentru activități ilegale precum frauda sau criminalitatea informatică.

Cercetătorii recomandă ca firmele de tehnologie să monitorizeze mai strict datele cu care sunt antrenați chatboții, să introducă sisteme de protecție mai robuste și să dezvolte metode prin care modelele să „uite” informațiile ilicite deja învățate.

×
x close