Antena 3 CNN Externe Mapamond Infractorii cibernetici au încercat să folosească AI. Și au rămas dezamăgiți

Infractorii cibernetici au încercat să folosească AI. Și au rămas dezamăgiți

A.N.
2 minute de citit Publicat la 18:41 05 Mai 2026 Modificat la 18:41 05 Mai 2026
hacker getty
Imagine cu caracter ilustrativ. sursa foto: Getty

O cercetare recentă a Universității din Edinburgh arată că hackerii au avut rezultate slabe în utilizarea instrumentelor AI în activitatea lor, fie direct în escrocherii, fie în dezvoltarea unor unelte mai eficiente, scrie Euronews.

Infractorii cibernetici se chinuie să integreze inteligența artificială (AI) în activitatea lor, arată o nouă analiză.

Un studiu pre-print al Universității din Edinburgh a analizat peste 100 de milioane de postări de pe forumuri ale infractorilor cibernetici, folosind baza de date CrimeBB, care colectează date din forumuri underground.

Datele au fost analizate atât manual, cât și cu ajutorul unui model lingvistic de mari dimensiuni (LLM).

Deși infractorii cibernetici și-au arătat interesul pentru utilizarea instrumentelor AI, tehnologia nu le-a schimbat semnificativ modul de „lucru", arată studiul.

„Multe dintre recenzii și discuții descriu instrumentele AI ca nefiind deosebit de utile”, se arată în studiu.

Cercetătorii nu au găsit „nicio dovadă semnificativă” că hackerii ar fi reușit să folosească AI pentru a-și îmbunătăți activitatea de hacking, fie ca instrument de învățare, fie pentru a dezvolta unelte mai eficiente.

Asistenții AI pentru programare sunt utili mai ales pentru cei care au deja competențe avansate de coding, astfel încât modelele AI care oferă ajutor la programare nu le aduc hackerilor un avantaj semnificativ atunci când încearcă să spargă dispozitive sau să găsească vulnerabilități de securitate, adaugă studiul.

„Trebuie mai întâi să înveți singur bazele programării înainte să poți folosi AI și să ai un beneficiu REAL din asta”, se arată într-o postare citată de studiu.

Principalul impact pe care AI l-a avut până acum asupra activităților ilegale online este în zonele ușor de automatizat: crearea de boți pe rețele sociale, unele escrocherii sentimentale și fraudele de tip SEO – adică site-uri false împinse în fruntea rezultatelor de căutare pentru a genera bani din publicitate.

Recenziile sugerează că până și cei mai experimentați hackeri folosesc chatboți doar pentru a răspunde la întrebări de programare sau pentru a genera „fițuici” care să-i ajute la coding.

Instrumentele AI care au fost efectiv folosite sunt produse comerciale legitime, precum Claude de la Anthropic sau Codex de la OpenAI, și nu modele AI concepute special pentru infracțiuni cibernetice, cum ar fi WormGPT, creat de hackeri pentru a genera cod malware sau e-mailuri de phishing.

Multe dintre postările analizate de studiu se referă la tehnici de evitare a restricțiilor de securitate ale acestor modele comerciale. Infractorii cibernetici par însă să se lovească de dificultăți serioase în a determina sistemele AI să-și dezactiveze mecanismele de siguranță.

În schimb, sunt nevoiți să se orienteze spre modele AI open source mai vechi și de calitate inferioară, mai ușor de manipulat. Acestea tind să fie mai puțin utile și „necesită resurse considerabile”, au constatat cercetătorii.

Studiul sugerează că barierele de siguranță implementate de companiile AI funcționează – deocamdată.

Ştiri video recomandate
×

Fanatik

Antena Sport

Observator News

Longevity Magazine

x close