Progresele rapide în domeniul inteligenței artificiale îi determină pe oameni să se întrebe care sunt limitele fundamentale ale tehnologiei. Din ce în ce mai mult, oamenii de știință și experții iau în considerare în mod serios un subiect care a aparținut cândva SF-ului, și anume noțiunea de „super inteligența artificială” sau ASI, potrivit Live Science.
Ideea că mașinile ar putea într-o zi să egaleze sau chiar să depășească inteligența umană are o lungă istorie. Cu toate acestea, ritmul progreselor realizate în domeniul inteligenței artificiale în ultimele decenii a conferit o nouă urgență subiectului, în special de la lansarea unor modele lingvistice mari (LLM) puternice de către companii precum OpenAI, Google și Anthropic, printre altele.
Experții au opinii extrem de diferite cu privire la cât de fezabilă este această idee de „superinteligență artificială” (ASI) și când ar putea apărea, însă unii sugerează că astfel de mașini hiper-capabile sunt chiar după colț. Cert este că, dacă și când va apărea ASI, aceasta va avea implicații enorme pentru viitorul omenirii.
„Ca în cazul oricărei tehnologii semnificative din istorie, există un potențial risc”
„Cred că am intra într-o nouă eră a descoperirilor științifice automatizate, a creșterii economice extrem de accelerate, a longevității și a experiențelor de divertisment inedite”, a declarat Tim Rocktäschel, profesor de inteligență artificială la University College London și cercetător principal la Google DeepMind pentru Live Science, oferind o opinie personală și nu poziția oficială a Google DeepMind. Cu toate acestea, el a avertizat, de asemenea: „Ca în cazul oricărei tehnologii semnificative din istorie, există un potențial risc”.
Ce este superinteligența artificială (ASI)
În mod tradițional, cercetarea în domeniul IA s-a axat pe reproducerea capacităților specifice pe care le prezintă ființele inteligente. Acestea includ lucruri precum capacitatea de a analiza vizual o scenă, de a descifra un limbaj sau de a naviga într-un mediu. În unele dintre aceste domenii restrânse, AI a atins deja performanțe supraomenești, a declarat Rocktäschel, în special în jocuri precum go și șah.
Cu toate acestea, obiectivul major al domeniului a fost întotdeauna reproducerea formei mai generale de inteligență observată la animale și oameni, care combină mai multe astfel de capacități. Acest concept a primit mai multe denumiri de-a lungul anilor, inclusiv „inteligență artificială puternică” sau „inteligență artificială universală”, dar astăzi este cel mai frecvent denumit inteligență generală artificială (AGI).
„Pentru o lungă perioadă de timp, AGI a fost o stea nordică îndepărtată pentru cercetarea AI”, a declarat Rocktäschel. „Cu toate acestea, odată cu apariția modelelor de fundație (n.r. un alt termen pentru LLM-uri), avem acum AI care poate trece o gamă largă de examene de admitere la universitate și poate participa la concursuri internaționale de matematică și codare.”
„Dacă putem ajunge la AGI, vom ajunge la ASI în scurt timp”
Acest lucru îi determină pe oameni să ia mai în serios posibilitatea inteligenței artificiale, a declarat Rocktäschel. Și, în mod esențial, odată ce vom crea inteligență artificială care să egaleze oamenii într-o gamă largă de sarcini, s-ar putea să nu treacă mult timp până când aceasta va atinge capacități supraumane în toate domeniile. Oricum, aceasta este ideea.
„Odată ce inteligența artificială atinge capacități de nivel uman, vom putea să o folosim pentru a se îmbunătăți într-un mod autoreferențial”, a declarat Rocktäschel. „Personal, cred că dacă putem ajunge la AGI, vom ajunge la ASI în scurt timp, poate la câțiva ani după aceea.”
Odată ce această piatră de hotar va fi atinsă, am putea asista la ceea ce matematicianul britanic Irving John Good a numit în 1965 o „explozie a inteligenței”. El a susținut că, odată ce mașinile vor deveni suficient de inteligente pentru a se îmbunătăți singure, acestea vor atinge rapid niveluri de inteligență mult peste cele ale oricărui om. El a descris prima mașină ultra-inteligentă drept „ultima invenție pe care omul trebuie să o facă vreodată”.
Renumitul futurist Ray Kurzweil a susținut că acest lucru ar conduce la o „singularitate tehnologică” care ar transforma brusc și ireversibil civilizația umană. Termenul face o paralelă cu singularitatea din inima unei găuri negre, unde înțelegerea noastră a fizicii cedează. În același mod, apariția ASI ar conduce la o creștere tehnologică rapidă și imprevizibilă, care ar fi dincolo de înțelegerea noastră.
Momentul exact în care ar putea avea loc o astfel de tranziție este discutabil. În 2005, Kurzweil a prezis că AGI va apărea până în 2029, iar singularitatea va urma în 2045, predicție pe care a respectat-o de atunci. Alți experți în inteligență artificială oferă previziuni extrem de variate - de la acest deceniu până la niciodată. Însă un sondaj recent efectuat pe 2 778 de cercetători în domeniul IA a arătat că, în total, aceștia cred că există 50% șanse ca ASI să apară până în 2047. O analiză mai amplă a confirmat că majoritatea oamenilor de știință sunt de acord că AGI ar putea apărea până în 2040.
Ce ar însemna ASI pentru omenire
Implicațiile unei tehnologii precum ASI ar fi enorme, determinând oamenii de știință și filosofii să dedice timp considerabil pentru a cartografia promisiunile și potențialele capcane pentru umanitate.
Din punct de vedere pozitiv, o mașină cu o capacitate de inteligență aproape nelimitată ar putea rezolva unele dintre cele mai presante provocări ale lumii, a declarat Daniel Hulme, CEO al companiilor de inteligență artificială Satalia și Conscium. În special, mașinile superinteligente ar putea „elimina fricțiunea din crearea și diseminarea alimentelor, educației, asistenței medicale, energiei, transportului, atât de mult încât am putea aduce costul acestor bunuri la zero”, a declarat el pentru Live Science.
Speranța este că astfel oamenii nu vor mai fi nevoiți să muncească pentru a supraviețui și își vor putea petrece timpul făcând lucruri care îi pasionează, a explicat Hulme. Dar, dacă nu sunt instituite sisteme de sprijin pentru cei ale căror locuri de muncă sunt disponibilizate de inteligența artificială, rezultatul ar putea fi mai sumbru. „Dacă acest lucru se întâmplă foarte repede, economiile noastre ar putea să nu fie capabile să se reechilibreze și ar putea duce la tulburări sociale”, a spus el.
Aceasta presupune, de asemenea, că am putea controla și dirija o entitate mult mai inteligentă decât noi - ceea ce mulți experți au sugerat că este puțin probabil. „Nu prea subscriu la ideea că ne va supraveghea, va avea grijă de noi și se va asigura că suntem fericiți”, a spus Hulme. „Pur și simplu nu-mi pot imagina că i-ar păsa”.
Posibilitatea unei superinteligențe asupra căreia nu avem niciun control a generat temeri că inteligența artificială ar putea reprezenta un risc existențial pentru specia noastră. Acest lucru a devenit un motiv popular în SF, filme precum „Terminator” sau „The Matrix” înfățișând mașini răuvoitoare hotărâte să distrugă omenirea.
ASI ar putea avea motivații care ne sunt complet străine
Însă filosoful Nick Bostrom a subliniat faptul că un ASI nici măcar nu ar trebui să fie ostil în mod activ oamenilor pentru ca diversele scenarii apocaliptice să aibă loc. Într-o lucrare din 2012, el a sugerat că inteligența unei entități este independentă de obiectivele sale, astfel încât ASI ar putea avea motivații care ne sunt complet străine și care nu sunt aliniate cu bunăstarea oamenilor.
Bostrom a dezvoltat această idee cu ajutorul unui experiment de gândire în care o inteligență artificială super-capabilă primește sarcina aparent inofensivă de a produce cât mai multe agrafe de hârtie. Dacă nu se aliniază valorilor umane, aceasta poate decide să elimine toți oamenii pentru a-i împiedica să o oprească sau pentru a putea transforma toți atomii din corpurile lor în mai multe agrafe.
Rocktäschel este mai optimist. „Construim sistemele AI actuale pentru a fi utile, dar și asistenți inofensivi și onești prin design”, a spus el. „Ele sunt adaptate pentru a urma instrucțiunile oamenilor și sunt instruite pe baza feedback-ului pentru a oferi răspunsuri utile, inofensive și oneste”.
Deși Rocktäschel a admis că aceste măsuri de protecție pot fi eludate, el este încrezător că vom dezvolta abordări mai bune în viitor. De asemenea, el crede că va fi posibilă utilizarea IA pentru a supraveghea alte IA, chiar dacă acestea sunt mai puternice.
Hulme a declarat că majoritatea abordărilor actuale privind „alinierea modelelor” - eforturile de a se asigura că IA este aliniată cu valorile și dorințele umane - sunt prea grosolane. De obicei, acestea fie oferă reguli pentru modul în care ar trebui să se comporte modelul, fie îl antrenează pe baza unor exemple de comportament uman. Dar el crede că aceste garduri de protecție, care sunt fixate la sfârșitul procesului de formare, ar putea fi ușor ocolite de ASI.
Resursele de calcul necesare pentru a realiza ASI pot fi prohibitive
În schimb, Hulme crede că trebuie să construim un AI cu un „instinct moral”. Compania sa Conscium încearcă să facă acest lucru prin evoluția inteligenței artificiale în medii virtuale care au fost concepute pentru a recompensa comportamente precum cooperarea și altruismul. În prezent, ei lucrează cu inteligență artificială foarte simplă, „la nivel de insectă”, dar dacă abordarea poate fi extinsă, ar putea face alinierea mai robustă. „Încorporarea moralei în instinctul unei inteligențe artificiale ne pune într-o poziție mult mai sigură decât dacă am avea doar un fel de bariere de protecție”, a declarat Hulme.
Cu toate acestea, nu toată lumea este convinsă că trebuie să începem încă să ne facem griji. O critică comună a conceptului de ASI, a spus Rocktäschel, este că nu avem exemple de oameni care sunt foarte capabili într-o gamă largă de sarcini, astfel încât s-ar putea să nu fie posibil să realizăm acest lucru într-un singur model. O altă obiecție este că resursele de calcul necesare pentru a realiza ASI pot fi prohibitive.
Mai practic, modul în care măsurăm progresul în domeniul inteligenței artificiale ne poate induce în eroare cu privire la cât de aproape suntem de superinteligență, a declarat Alexander Ilic, directorul Centrului ETH AI de la ETH Zurich, Elveția. Majoritatea rezultatelor impresionante obținute în ultimii ani în domeniul inteligenței artificiale au fost obținute prin testarea sistemelor la mai multe teste extrem de sofisticate privind competențele individuale, cum ar fi codificarea, raționamentul sau înțelegerea limbajului, pe care sistemele sunt instruite în mod explicit să le treacă, a declarat Ilic.
El compară acest lucru cu înghesuiala pentru examene la școală. „Ți-ai încărcat creierul pentru a face acest lucru, apoi ai scris testul, iar apoi ai uitat de el”, a spus el. „Ai fost mai inteligent prin participarea la curs, dar testul în sine nu este un bun indicator al cunoștințelor reale”.
Inteligența artificială capabilă să treacă multe dintre aceste teste la niveluri supraumane ar putea fi doar la câțiva ani distanță, a spus Ilic. Dar el crede că abordarea dominantă de astăzi nu va conduce la modele care să poată îndeplini sarcini utile în lumea fizică sau să colaboreze eficient cu oamenii, ceea ce va fi crucial pentru ca acestea să aibă un impact larg în lumea reală.