Antena 3 CNN High Tech A vrut să controleze aspiratorul cu o manetă PlayStation, dar a accesat 7.000 de dispozitive din 24 de țări. Riscurile sistemelor AI

A vrut să controleze aspiratorul cu o manetă PlayStation, dar a accesat 7.000 de dispozitive din 24 de țări. Riscurile sistemelor AI

George Forcoş
2 minute de citit Publicat la 23:00 09 Mai 2026 Modificat la 23:02 09 Mai 2026

Un pasionat de tehnologie a vrut să-și controleze aspiratorul inteligent cu un controller de PlayStation, folosind un asistent AI pentru a crea aplicația. În câteva minute, a descoperit însă că are acces nu doar la propriul dispozitiv, ci la aproape 7.000 de aspiratoare din locuințe din întreaga lume, inclusiv la camere video, microfoane și hărți ale caselor. Cazul prezentat pe larg de The Washington Post este un exemplu alarmant al modului în care inteligența artificială face atacurile cibernetice mai ușor de realizat ca niciodată.

Sammy Azdoufal s-a gândit că ar fi distractiv să-și conducă noul aspirator robot prin apartamentul său folosind un controller PlayStation 5. Așa că a făcut ceea ce orice pasionat cu înclinații tehnice ar face în 2026: i-a cerut lui Claude Code, asistentul de codare cu inteligență artificială de la Anthropic, să-i construiască o aplicație personalizată pentru a controla și observa aspiratorul de la distanță.

Apoi, Azdoufal a observat ceva ciudat. Nu-și vedea doar propriul aspirator robot. Vedea aproape 7.000 de roboți în casele unor străini din 24 de țări, inclusiv transmisii live de la camere, sunet live de la microfon, planuri de etaj, programe de curățenie și locațiile lor fizice aproximative. Claude Code descoperise și exploatase autonom o eroare de autentificare în sistemul de gestionare a datelor producătorului, permițând dispozitivului lui Azdoufal să acceseze întreaga flotă de roboți.

Cazul arată că efectuarea de atacuri cibernetice este acum atât de ușoară încât oamenii o fac din greșeală. Instrumentele de codare bazate pe inteligență artificială democratizează într-adevăr dezvoltarea de software, așa cum se laudă creatorii lor, dar democratizează și capacitățile actorilor rău intenționați.

Azdoufal a alertat rapid DJI, compania de aspiratoare robotizate, permițând acesteia să corecteze vulnerabilitatea. Nu toți atacatorii cibernetici bazați pe inteligență artificială sunt atât de amabili.

Anthropic estimează că Claude a automatizat 80 până la 90% din activitatea de hacking, inclusiv descoperirea vulnerabilităților și extragerea datelor sensibile. Și acest lucru s-a întâmplat înainte de anunțul recent al Anthropic privind noul său model Mythos, despre care compania spune că are capacități de hacking atât de avansate încât a găsit deja vulnerabilități critice în „fiecare sistem de operare major și în fiecare browser web major”.

Chiar și înainte de inteligența artificială, hackerii sponsorizați de statul chinez au furat peste un milion de numere de securitate socială, date de naștere, adrese, amprente digitale, situații financiare și dosare medicale prin piratarea Biroului Federal de Management al Personalului. Inteligența artificială va face ca astfel de operațiuni să fie mai rapide, mai ieftine și mai devastatoare.

Unii experți - cum ar fi Alexei Bulazel, asistent special al președintelui în Consiliul Național de Securitate - consideră că atacurile cibernetice conduse de inteligența artificială vor fi depășite de apărarea cibernetică bazată pe inteligență artificială. Acest lucru s-ar putea dovedi corect pe termen lung. Pe termen scurt, însă, AI ar putea crea o asimetrie periculoasă, deoarece atacatorii adoptă rapid instrumente de AI, în timp ce unii apărători mențin sistemele vechi nesigure.

 

Citește mai multe din High Tech
» Citește mai multe din High Tech
TOP articole