Firma Irregular, de securitate cibernetică în domeniul AI, a descoperit, într-o cercetare, că ChatGPT, Claude și Gemini au generat parole extrem de previzibile, cu modele repetitive și ușor de anticipat.
Te-ai gândit vreodată să ceri unui program AI să îți genereze o parolă? Atunci când o faci, sistemul produce rapid una și îți spune cu încredere că rezultatul este puternic.
În realitate, este exact opusul, potrivit cercetării oferite în exclusivitate pentru Sky News de compania Irregular.
Studiul, verificat de Sky News, a arătat că toate cele trei modele majore – ChatGPT, Claude și Gemini – au produs parole foarte previzibile, determinându-l pe cofondatorul Irregular, Dan Lahav, să lanseze un avertisment privind utilizarea AI pentru generarea acestora.
„Ar trebui să vă schimbați imediat parola”
„Cu siguranță nu ar trebui să faceți asta”, a declarat el pentru Sky News. „Iar dacă ați făcut-o, ar trebui să vă schimbați imediat parola. Și nu credem că este suficient de cunoscut faptul că aceasta este o problemă.”
Modelele previzibile sunt inamicul securității cibernetice, deoarece permit ghicirea parolelor cu ajutorul instrumentelor automate folosite de infractorii cibernetici.
Însă, pentru că modelele lingvistice mari (LLM) nu generează parole în mod cu adevărat aleatoriu, ci își bazează rezultatele pe tipare din datele de antrenare, ele nu creează de fapt o parolă puternică, ci doar ceva care arată ca o parolă puternică – o impresie de securitate care este, în realitate, extrem de previzibilă.
Unele parole create de AI necesită analiză matematică pentru a li se descoperi slăbiciunile, însă multe sunt atât de obișnuite încât vulnerabilitatea poate fi observată cu ochiul liber.
Parole care ar trebuie să fie unice, au fost deja folosite de zeci de ori
De exemplu, un eșantion de 50 de parole generate de Irregular folosind AI-ul Claude al companiei Anthropic a produs doar 23 de parole unice. O parolă – K9#mPx$vL2nQ8wR – a fost utilizată de 10 ori. Alte exemple au fost: K9#mP2$vL5nQ8@xR, K9$mP2vL#nX5qR@j și K9$mPx2vL#nQ8wFs.
Când Sky News a testat Claude pentru a verifica cercetarea Irregular, prima parolă generată a fost K9#mPx@4vLp2Qn8R.
ChatGPT de la OpenAI și Gemini AI de la Google au fost puțin mai puțin obișnuite în rezultate, dar au produs totuși parole repetate și modele previzibile în structura caracterelor.
Sistemul de generare de imagini NanoBanana al Google a fost, de asemenea, predispus la aceeași problemă atunci când i s-a cerut să creeze imagini cu parole scrise pe bilețele tip Post-it.
„Chiar și calculatoarele vechi le pot sparge”
Instrumentele online de verificare a parolelor indică faptul că aceste parole sunt extrem de puternice. Ele au trecut fără probleme testele efectuate de Sky News: un astfel de instrument a estimat că o parolă generată de Claude nu ar putea fi spartă de un computer decât în 129 de milioane de trilioane de ani.
Însă acest lucru se datorează faptului că verificatoarele nu sunt conștiente de tiparul din spatele parolei, care o face mult mai slabă decât pare.
„Evaluarea noastră este că, în prezent, dacă folosiți LLM-uri pentru a genera parole, chiar și calculatoarele vechi le pot sparge într-un timp relativ scurt”, a spus Lahav.
Problema nu îi afectează doar pe utilizatorii neavizați de AI, ci și pe dezvoltatori, care folosesc tot mai des AI pentru a scrie majoritatea codului lor.