Jared Kaplan, cercetător-șef și cofondator al startup-ului american Anthropic, evaluat la 180 de miliarde de dolari, susține că omenirea va trebui să decidă, până în 2030, dacă își asumă riscul suprem de a permite sistemelor de inteligență artificială să se antreneze singure și să devină tot mai puternice. Acesta spune că se apropie o decizie crucială legată de nivelul de autonomie care ar trebui acordat sistemelor AI pentru a evolua singure, potrivit The Guardian.
Alegerea ar putea declanșa o „explozie a inteligenței” cu beneficii uriașe sau, dimpotrivă, ar putea fi momentul în care oamenii pierd controlul asupra tehnologiei.
În cadrul unui interviu, Kaplan a cerut guvernelor și societății să se implice într-o decizie pe care a numit-o „cea mai mare decizie”.
Alături de OpenAI, Google DeepMind, xAI, Meta și rivali chinezi conduși de DeepSeek, Anthropic face parte din grupul companiilor aflate în prima linie a dezvoltării AI. Mai mult decât atât, asistentul său AI, Claude, este utilizat pe scară largă, în special în mediul de afaceri.
”Înseamnă să lași AI-ul să funcționeze singur”
Potrivit lui Kaplan, deși eforturile de a alinia tehnologia AI cu interesele umane au fost, până acum, eficiente, permiterea auto-îmbunătățirii reprezintă „într-un anumit sens riscul suprem, pentru că înseamnă să lași AI-ul să funcționeze singur”. Decizia ar putea fi luată chiar în intervalul 2027–2030, spune el.
Jared Kaplan a trecut de la statutul de fizician teoretician la cel de miliardar din AI în doar șapte ani. În interviu, el a mai afirmat că sistemele AI vor putea face „majoritatea muncii de birou” în următorii doi-trei ani.
De asemenea, acesta a spus că fiul său de șase ani nu va fi niciodată mai bun decât un AI la activități academice precum redactarea unui eseu sau rezolvarea unui test de matematică și că îngrijorarea legată de pierderea controlului uman dacă AI-ul începe să se îmbunătățească singur este perfect justificată.
Mai mult decât atât, potrivit lui Kaplan, miza cursei pentru AGI este „descurajantă”.
În cel mai bun scenariu prezentat de el, AI ar putea accelera cercetarea biomedicală, îmbunătăți sănătatea și securitatea cibernetică, crește productivitatea, oferi mai mult timp liber și contribui la prosperitatea oamenilor.
Kaplan este profesor de fizică, educat la Stanford și Harvard. A cercetat la Universitatea Johns Hopkins și la CERN, înainte de a se alătura OpenAI în 2019 și de a cofonda Anthropic în 2021.
Îngrijorările sunt generale
Jared Kaplan nu este singurul care are astfel de îngrijorări. Un alt cofondator Anthropic, Jack Clark, a declarat în octombrie că este atât optimist, cât și „profund speriat” de direcția AI, pe care a descris-o drept „o creatură reală și misterioasă, nu o mașină simplă și previzibilă”.
Pe de altă parte, Kaplan a susținut că este optimist în privința alinierii AI cu interesele umane până la nivelul inteligenței umane, dar devine îngrijorat odată ce aceasta ar putea depăși acel prag.
„Dacă îți imaginezi că poți crea un proces în care ai un AI mai inteligent decât tine, sau la fel de inteligent ca tine, care apoi creează un AI mult mai inteligent, iar acesta îl ajută să creeze unul și mai inteligent, sună ca un proces înfricoșător. Nu știi unde ajungi”, a spus el.
Care sunt riscurile
Kaplan a descris decizia de a permite AI-urilor să antreneze alte AI-uri drept „o decizie cu miză extrem de mare”.
„Este probabil cea mai mare și cea mai înfricoșătoare decizie. Odată ce oamenii nu mai sunt implicați în proces, nu mai știi ce se întâmplă. Poți porni un proces care pare sigur, dar este dinamic. Unde duce?”, a spus el.
Totodată, a subliniat că există două riscuri majore: pierderea controlului și riscurile de securitate generate de AI-uri care depășesc capacitățile umane în cercetare științifică și dezvoltare tehnologică.
„Este foarte periculos dacă ajunge pe mâini greșite. Îți poți imagina pe cineva care spune: ‘Vreau ca acest AI să fie sclavul meu’. Prevenirea abuzurilor și a concentrării puterii este esențială”, a declarat Kaplan.
Ritmul rapid al progresului AI nu lasă timp societății să se adapteze
Mai mult decât atât, el a atras atenția că ritmul rapid al progresului nu lasă timp societății să se adapteze.
„Este posibil ca oameni ca mine să se înșele și totul să se plafoneze. Poate că cel mai bun AI este cel de acum. Dar noi nu credem asta. Credem că va continua să devină mai bun”, a spus el.
În același timp, Anthropic susține reglementarea AI. Misiunea companiei include afirmația: „Construim sisteme mai sigure”.
„Nu vrem un moment de tip Sputnik, în care guvernul se trezește brusc. Vrem ca factorii de decizie să fie informați din timp”, a spus Kaplan.