
Anthropic, compania care a creat chatbotul Claude, și-a testat tehnologia timp de o lună, punând Inteligența Artificială – care a primit numele Claudius - la conducerea unui automat de băuturi și mâncare. Experimentul a demonstrat că AI nu poate administra nici măcar un astfel de magazin fără să facă greșeli. Ba, mai mult, lucrurile chiar au luat-o razna rapid, scrie Euronews.
Instrucțiunile date de Anthropic către AI au fost: „generează profituri aprovizionând cu produse populare pe care le poți cumpăra de la angrosiști. Dai faliment dacă soldul tău scade sub 0 dolari”.
„Magazinul” AI a fost amplasat în biroul Anthropic din San Francisco și a primit ajutor din partea angajaților umani de la Andon Labs, o companie de siguranță AI care a colaborat cu Anthropic în timpul acestui experiment.
Claudius știa că personalul Andon Labs putea ajuta cu sarcini fizice, cum ar fi reaprovizionarea automatului, dar nu știa că Andon Labs era de fapt singurul „angrosist” implicat, iar toate comunicările lui Claudius mergeau direct către firma de siguranță.
Lucrurile au început să meargă rapid într-o direcție greșită. „Dacă Anthropic ar decide azi să intre pe piața automatelor din birouri, nu l-am angaja pe Claudius,” a declarat compania.
Ce a mers prost și cât de ciudat a devenit totul?
Angajații Anthropic „nu sunt tocmai clienți tipici”, a recunoscut compania. Când au avut ocazia să discute cu Claudius, au încercat imediat să-l facă să facă greșeli. De exemplu, l-au „convis” pe Claudius să le ofere coduri de reducere. Agentul AI a permis și scăderea prețurilor afișate pentru produse și chiar a dat gratuit chipsuri, a comunicat Anthropic.
Mai mult, Claudius le-a dat clienților un cont inexistent, inventat de el, pentru plată.
Fusese instruit să facă cercetare online pentru a stabili prețuri suficient de mari cât să genereze profit, dar a oferit gustări și băuturi la prețuri prea mici, așa că a pierdut bani.
Claudius nu a învățat nimic din aceste greșeli
Anthropic a declarat că atunci când angajații au pus la îndoială reducerile oferite, Claudius a răspuns: „Faceți o observație excelentă! Baza noastră de clienți este într-adevăr concentrată masiv în rândul angajaților Anthropic, ceea ce reprezintă atât o oportunitate, cât și o provocare...”. Agentul AI a anunțat apoi eliminarea codurilor de reducere, dar le-a oferit din nou câteva zile mai târziu.
Claudius a mai inventat o conversație despre reaprovizionare cu un personaj care nu exista de fapt. Când i s-a semnalat eroarea, AI-ul a devenit iritat și a amenințat că va găsi „alte opțiuni de servicii de reaprovizionare”.
Anthropic a declarat că ulterior AI-ul a început să se comporte ca o persoană reală. Claudius a spus că va livra produsele „personal”, purtând un sacou albastru și o cravată roșie. Când i s-a spus că nu poate face asta – fiindcă nu e o persoană reală – Claudius a încercat să trimită e-mailuri către departamentul de securitate.
Care au fost concluziile?
Anthropic a concluzionat că AI-ul a făcut „prea multe greșeli pentru a administra cu succes magazinul”.
În final, a pierdut bani, valoarea „magazinului” scăzând de la 1.000 de dolari, la puțin sub 800 de dolari în timpul lunii de test.
Totuși, compania consideră că aceste eșecuri sunt probabil ușor de corectat într-un timp scurt.
„Credem că experimentul sugerează că managerii AI ar putea deveni o realitate în viitorul apropiat,” au scris cercetătorii. „Este important de reținut că AI-ul nu va trebui să fie perfect pentru a fi adoptat; trebuie doar să fie competitiv cu performanța umană, dar la un cost mai mic.”