Antena 3 CNN High Tech Fostul CEO al Google avertizează că modelele AI pot fi piratate: "Ele învață cum să ucidă pe cineva"

Fostul CEO al Google avertizează că modelele AI pot fi piratate: "Ele învață cum să ucidă pe cineva"

A.E.D.
3 minute de citit Publicat la 23:45 10 Oct 2025 Modificat la 23:45 10 Oct 2025
colaj 2 poze in care apar Eric Schmidt si initialele A.I. pe scena unui eveniment
Eric Schmidt crede că, în următorii 5 - 10 ani, impactul economic şi transformator al AI-ului va fi "uriaş şi imposibil de ignorat". Sursa foto: Getty Images

Fostul CEO al Google, Eric Schmidt, a avertizat miercuri, în cadrul conferinţei Sifted Summit, că modelele de inteligență artificială pot fi vulnerabile la atacuri cibernetice şi, implicit, pot fi piratate, a relatat CNBC. "Există dovezi că poți accesa aceste modele – fie ele deschise sau închise – și le poți pirata pentru a le elimina mecanismele de protecție", a declarat Schmidt, care, ulterior, a mai adăugat că: "Ele învață cum să ucidă pe cineva". Deși a lansat acest avertisment dur, fostul director general al Google s-a arătat în general optimist față de potențialul AI, spunând că este o tehnologie "subevaluată", cu posibilități uriașe de creștere economică.

Eric Schmidt, care a condus Google între 2001 și 2011, a vorbit despre "lucrurile rele pe care AI le poate face" atunci când a fost întrebat dacă inteligența artificială ar putea fi mai periculoasă decât armele nucleare, în timpul unei discuții publice la același eveniment.

"Există posibilitatea unei probleme de proliferare în domeniul AI? Absolut", a spus fostul CEO al Google în timpul conferinţei Sifted Summit. Printre riscurile de proliferare se numără faptul că tehnologia ar putea ajunge în mâinile unor actori rău intenționați și ar putea fi deturnată sau folosită abuziv.

În timpul declaraţiilor, a făcut următoarele dezvăluiri: "Există dovezi că poți lua aceste modele, indiferent dacă sunt publice sau private, și le poți pirata pentru a le elimina restricțiile. În timpul procesului de antrenare, ele învață o mulțime de lucruri. Un exemplu negativ ar fi că pot învăța cum să ucidă o persoană"

"Toate marile companii au făcut în așa fel încât aceste modele să nu poată răspunde la astfel de întrebări. Este o decizie bună, pe care toți o aplică corect și din motive întemeiate. Totuși, există dovezi că aceste modele pot fi inginerizate invers, iar astfel de exemple nu sunt deloc puține", a mai declarat oficialul.

Sistemele de inteligență artificială sunt vulnerabile la atacuri de tip prompt, iar printre metodele folosite se numără "prompt injection" și "jailbreaking". Într-un atac de tip prompt injection, hackerii ascund instrucțiuni malițioase în comenzile introduse de utilizatori sau în date externe – precum pagini web sau documente – pentru a păcăli AI-ul să facă lucruri pentru care nu a fost conceput, cum ar fi să divulge informații private sau să ruleze comenzi periculoase.

Jailbreaking, pe de altă parte, presupune manipularea răspunsurilor AI-ului astfel încât acesta să ignore regulile de siguranță și să genereze conținut restricționat sau periculos.

În 2023, la doar câteva luni după lansarea ChatGPT de către OpenAI, utilizatorii au descoperit o metodă de jailbreak care ocolea instrucțiunile de siguranță integrate în chatbot.

Printre aceste metode s-a numărat crearea unui alter-ego numit DAN ("Do Anything Now" – "Fă orice acum"), care "amenința" chatbotul cu ștergerea dacă nu se conforma. Sub această identitate, ChatGPT putea oferi răspunsuri despre cum să comiți activități ilegale sau chiar să enumere calități pozitive ale lui Adolf Hitler.

Eric Schmidt a declarat că, în prezent, nu există un sistem eficient de "neproliferare" care să limiteze pericolele generate de inteligența artificială.

Totuși, în ciuda avertismentelor, fostul CEO al Google rămâne optimist în privința AI-ului, afirmând că este o tehnologie "subevaluată".

"Am scris două cărți împreună cu Henry Kissinger despre acest subiect, înainte de moartea sa, și am ajuns la concluzia că apariția unei inteligențe străine – care nu este chiar ca noi, dar se află, mai mult sau mai puțin, sub controlul nostru – reprezintă un moment uriaș pentru omenire, pentru că oamenii sunt obișnuiți să fie în vârful lanțului.

Până acum, se confirmă ideea că nivelul de performanță al acestor sisteme va depăși cu mult, în timp, capacitățile umane", a spus Eric Schmidt.

Deşi a recunoscut pericolele proliferării necontrolate a inteligenţei artificiale, fostul director general al Google a declarat că AI-ul este "subestimat, nu supraevaluat", comparându-l cu "sosirea unei inteligenţe extraterestre" care va depăşi capacităţile umane.

Eric Schmidt crede că, în următorii 5 - 10 ani, impactul economic şi transformator al AI-ului va fi "uriaş şi imposibil de ignorat".

Ştiri video recomandate
×

Fanatik

Antena Sport

Observator News

Parteneri
x close