Un informatician renumit a lansat o inițiativă dedicată dezvoltării unei Inteligențe Artificiale "oneste", cu rolul de a detecta sistemele inteligente autonome care încearcă să înșele oamenii, relatează The Guardian.
Yoshua Bengio, descris în presa de specialitate drept unul dintre "nașii" Inteligenței Artificiale, va fi președintele LawZero, o organizație non-profit dedicată proiectării în siguranță a tehnologiei de ultimă generație.
Acest domeniu atrage în prezent investiții estimate la un trilion (o mie de miliarde) de dolari.
Un naș al IA propune un "psiholog" artificial pentru chatboții care păcălesc oamenii
Pornind de la o finanțare de aproximativ 30 de milioane de dolari și având alături o duzină de cercetători, Bengio plănuiește un sistem numit Scientist AI, care va acționa ca o barieră împotriva agenților de Inteligență Artificială - cunoscuți drept chatboți - ce nu necesită intervenție umană și care prezintă comportamente înșelătoare sau de autoconservare, cum ar fi blocarea tentativelor de a fi dezactivați.
Cercetătorul descrie suita actuală de agenți IA drept "actori" care încearcă să imite oamenii și să le facă pe plac utilizatorilor.
În contrapartidă, sistemul Scientist AI ar fi mai degrabă un "psiholog" care poate înțelege și prezice comportamentele artificiale negative.
"Vrem să construim Inteligențe Artificiale care vor fi oneste, nu înșelătoare. Este teoretic posibil să ne imaginăm mașini care nu au conștiință de sine, nici scop individual și care sunt doar mecanisme de cunoaștere pură, la fel ca un om de știință care știe o mulțime de lucruri", a explicat Yoshua Bengio.
Un fost fondator Skype și fostul CEO de la Google susțin inițiativa Scientist AI
Spre deosebire de instrumentele actuale de Inteligență Artificială Generativă, IAG, sistemul teoretizat de acest savant nu va oferi răspunsuri definitive, ci va avansa în schimb probabilități pentru a stabili dacă un răspuns este corect.
"Va avea un 'sentiment de umilință' care îi va permite să nu fie sigur de răspuns", a spus cercetătorul.
Modelul său ar urma să semnaleze comportamentul potențial dăunător al unui sistem autonom, după ce va fi estimat în prealabil probabilitatea ca acțiunile acestuia să provoace daune.
Dacă această probabilitate depășește un anumit prag, acțiunea propusă de chatbotul respectiv va fi apoi blocată.
Între susținătorii LawZero se numără Jaan Tallinn, inginer fondator al Skype, Schmidt Sciences, un organism de cercetare fondat de fostul director executiv al Google, Eric Schmidt, precum și Future of Life Institute, organizație care se ocupă de siguranța Inteligenței Artificiale.
Cum ar urma să funcționeze Inteligența Artificială onestă cu oamenii
Potrivit lui Yoshua Bengio, primul pas al organizației sale ar fi să demonstreze că metodologia din spatele conceptului funcționează.
Ulterior, companiile și guvernele ar urma să fie atrase în proiect, pentru a sprijini versiuni mai mari și mai puternice.
Modelele de Inteligență Artificială open-source, care sunt disponibile gratuit pentru implementare și adaptare, ar fi punctul de plecare pentru antrenarea sistemelor LawZero, a precizat el.
"Este foarte important ca inteligența artificială de tip 'guardrail' (barieră de protecție, n.r.) să fie cel puțin la fel de inteligentă ca agentul IA pe care încearcă să îl monitorizeze și să îl controleze", a mai adăugat acest om de știință.
Bengio, profesor la Universitatea din Montreal, și-a câștigat renumele de "naș" al IA în calitate de al câștigător al premiului Turing din 2018. Considerat echivalentul unui premiu Nobel pentru informatică, acest premiu a fost împărțit de Bengio în anul respectiv cu Geoffrey Hinton și cu Yann LeCun, cercetătorul șef la Meta, compania lui Mark Zuckerberg.
Voce importantă în domeniu, Bengio a condus recentul raport internațional privind siguranța Inteligenței Artificiale. În esență, raportul avertizează că agenții autonomi ar putea provoca perturbări severe dacă devin capabili să finalizeze secvențe mai lungi de sarcini fără supraveghere umană.
Informaticianul s-a declarat îngrijorat de recentele rapoarte privind Inteligența Artificială dezvoltată de Anthropic, care spun că sistemul ar putea încerca să-i șantajeze pe inginerii care încearcă să îl oprească.
De asemenea, el a avertizat asupra cercetărilor care arată că modelele de IA sunt capabile să își ascundă adevăratele capacități și obiective.