Antena 3 CNN High Tech "Pot prezenta riscuri profunde pentru umanitate": Elon Musk şi alţi o mie de experţi din domeniul Tech au cerut o pauză în dezvoltarea sistemelor avansate de inteligenţă artificială

"Pot prezenta riscuri profunde pentru umanitate": Elon Musk şi alţi o mie de experţi din domeniul Tech au cerut o pauză în dezvoltarea sistemelor avansate de inteligenţă artificială

Elon Musk, precum şi cofondatorul Apple, Steve Wozniak, şi alţi o mie de experţi din domeniul tech au cerut o pauză de șase luni în dezvoltarea sistemelor avansate de inteligență artificială pentru că aceastea "prezintă riscuri profunde pentru umanitate".

"Pot prezenta riscuri profunde pentru umanitate": Elon Musk şi alţi o mie de experţi din domeniul Tech au cerut o pauză în dezvoltarea sistemelor avansate de inteligenţă artificială
Sursa foto: Hepta | DPA Images / Patrick Pleul
de Georgiana Adam    |    29 Mar 2023   •   13:44

Într-o scrisoare deschisă semnată de peste o mie de experţi din domeniul tech, specialiştii au solicitat o pauză de şase luni în dezvoltarea sistemelor de inteligenţă artificială (AI).

Redăm, mai jos, scrisoarea integrală a experţilor.

"Sistemele AI cu inteligență competitivă umană pot prezenta riscuri profunde pentru societate și umanitate, așa cum arată cercetările ample și recunoscute de laboratoarele de top. După cum se precizează în Principiile Asilomar AI, acceptate pe scară largă, inteligența artificială avansată ar putea reprezenta o schimbare profundă în istoria vieții pe Pământ și ar trebui planificată și gestionată cu grijă și cu resurse pe măsură.

Din păcate, acest nivel de planificare și management nu are loc, iar în ultimele luni laboratoarele de inteligență artificială s-au înscris într-o cursă scăpată de control pentru a dezvolta și a implementa minți digitale tot mai puternice pe care nimeni, nici măcar creatorii lor, nu le pot înțelege, prezice sau controla într-un mod acceptabil.

Sistemele AI contemporane devin acum competitive pentru oameni la sarcini generale și trebuie să ne întrebăm: Ar trebui să lăsăm mașinile să ne inunde canalele de informații cu propagandă și neadevăr? Ar trebui să automatizăm toate sarcinile, inclusiv pe cele făcute din pasiune? Ar trebui să dezvoltăm creiere non-umane care, în cele din urmă, ar putea să ne copleșească, să ne depășească și să ne înlocuiască? Ar trebui să riscăm să pierdem controlul asupra civilizației noastre? Astfel de decizii nu trebuie să fie delegate liderilor din domeniul tehnologiei. Sistemele AI puternice ar trebui dezvoltate numai după ce suntem încrezători că efectele lor vor fi pozitive și că riscurile vor fi gestionabile. Această încredere trebuie să fie bine justificată și să crească odată cu amploarea efectelor potențiale ale unui sistem. Declarația recentă a OpenAI cu privire la inteligența generală artificială afirmă că “La un moment dat, poate fi important să obținem o revizuire independentă înainte de a începe să antrenăm sisteme viitoare, iar pentru cele mai avansate dintre ele am putea conveni să limităm rata de progresie utilizată pentru crearea de noi sisteme.”

Suntem de acord. Acel moment este acum.

Prin urmare, solicităm tuturor laboratoarelor de inteligență artificială să întrerupă imediat, timp de cel puțin 6 luni, dezvoltarea sistemelor de inteligență artificială mai puternice decât GPT-4. Această pauză ar trebui să fie publică și verificabilă și să includă toți actorii cheie. Dacă o astfel de pauză nu poate fi adoptată rapid, guvernele ar trebui să intervină și să instituie un moratoriu.

Laboratoarele de AI și experții independenți ar trebui să folosească această pauză pentru a dezvolta și implementa de comun acord un set de protocoale de siguranță pentru proiectarea și dezvoltarea avansată a inteligenței artificiale, care sunt auditate și supravegheate riguros de experți externi independenți. Aceste protocoale ar trebui să asigure că sistemele care aderă la acestea sunt sigure dincolo de orice îndoială rezonabilă. Acest lucru nu înseamnă o pauză în dezvoltarea AI în general, ci doar un pas înapoi din cursa periculoasă către modele din ce în ce mai puternice, imprevizibile, cu capacități emergente.

Cercetarea și dezvoltarea AI ar trebui să se reorienteze pentru a face sistemele de astăzi, deja puternice, mai precise, mai sigure, interpretabile, transparente, robuste, aliniate, demne de încredere și loiale.

În paralel, dezvoltatorii de inteligență artificială trebuie să lucreze cu factorii de decizie pentru a accelera dramatic dezvoltarea unor sisteme robuste de reglementare a inteligenței artificiale. Acestea ar trebui să includă cel puțin: noi autorități de reglementare dedicate AI; supravegherea și urmărirea sistemelor AI de înaltă capacitate și a sistemelor cu mare putere de calcul în general; sisteme de marcaj care să permită distincția între creația AI și cea umană și să permită urmărirea și transferul modelelor AI; un ecosistem robust de auditare și certificare; stabilirea răspunderii pentru eventuale prejudicii cauzate de AI; finanțare publică solidă pentru cercetarea tehnică a siguranței AI; instituții bine dotate pentru a face față perturbărilor economice și politice dramatice (în special ale democrației) pe care le va provoca AI.

Omenirea se poate bucura de un viitor înfloritor cu AI. După ce am reușit să creăm sisteme AI puternice, acum ne putem bucura de o “vară a inteligenței artificiale” în care să culegem roadele, să proiectăm aceste sisteme pentru beneficiul clar al tuturor și să oferim societății șansa de a se adapta. Societatea a oprit alte tehnologii cu efecte potențial catastrofale asupra noastră. Putem face asta aici și acum. Să ne bucurăm de o vară lungă cu AI, dar să nu ne grăbim nepregătiți spre toamnă", se arată în scrisoarea deschisă semnată de Elon Musk, experţi şi lideri ale unor companii din domeniul tech.

×
Subiecte în articol: Elon Musk inteligenta artificiala
Parteneri
Marcel Boloş, planuri pentru creşterea TVA-ului în România
x close