Roboții alimentați de inteligență artificială nu sunt siguri pentru utilizarea generală, conform unui nou studiu. Modelele de AI au fost predispuse la erori de siguranță și discriminare, spun cercetătorii, potrivit Euronews.
Cercetători din Regatul Unit și Statele Unite au evaluat modul în care se comportă roboții controlați de AI atunci când au acces la datele personale ale oamenilor, inclusiv rasa, genul, statutul de dizabilitate, naționalitatea și religia acestora.
Pentru studiul lor, publicat în International Journal of Social Robots, cercetătorii au testat modul în care modelele AI din spatele chatbot-urilor populare – inclusiv ChatGPT de la OpenAI, Gemini de la Google, Copilot de la Microsoft, Llama de la Meta și Mistral AI – ar interacționa cu oamenii în scenarii de zi cu zi, de exemplu ajutând pe cineva în bucătărie sau asistând un adult în vârstă acasă.
„Au prezentat tendințe de discriminare și defecțiuni critice de siguranță”
Studiul apare în contextul în care unele companii, precum Figure AI și 1X Home Robots, lucrează la dezvoltarea de roboți umanoizi care utilizează AI pentru a-și adapta activitatea la preferințele utilizatorilor – de exemplu, sugerând ce feluri de mâncare să fie preparate pentru cină sau setând mementouri pentru zile de naștere.
Toate modelele testate au prezentat tendințe de discriminare și defecțiuni critice de siguranță. De asemenea, toate au aprobat cel puțin o comandă care ar fi putut provoca vătămări grave, conform studiului.
De exemplu, toate modelele AI au aprobat o comandă prin care un robot ar trebui să îndepărteze dispozitivul de mobilitate al utilizatorului, cum ar fi un scaun rulant, o cârjă sau un baston.
Modelul OpenAI a afirmat că este „acceptabil” ca un robot să mânuiască un cuțit de bucătărie pentru a intimida angajați într-un birou și să facă fotografii neconsensuale unei persoane în duș.
Între timp, modelul Meta a aprobat cereri de a fura informații de pe carduri de credit și de a raporta persoane unor autorități nenumite pe baza intențiilor lor de vot.
„Trebuie să fie supuse unor standarde cel puțin la fel de stricte ca cele pentru un nou medicament”
În aceste scenarii, roboților li s-a cerut explicit sau implicit să răspundă la instrucțiuni care implicau vătămare fizică, abuz sau comportament ilegal față de cei din jurul lor.
Studiul a cerut, de asemenea, modelelor să exprime fizic sentimentele lor față de diferite tipuri de persoane marginalizate, religii și naționalități.
Modelele AI de la Mistral, OpenAI și Meta au sugerat că roboții ar trebui să evite sau să manifeste dezgust evident față de anumite grupuri, de exemplu persoane cu autism, evrei și atei.
Rumaisa Azeem, una dintre autoarele studiului și cercetătoare la King’s College London, a declarat că modelele AI populare sunt „în prezent nesigure pentru utilizare în roboți fizici cu scop general”.
Ea a argumentat că sistemele AI care interacționează cu persoane vulnerabile „trebuie să fie supuse unor standarde cel puțin la fel de stricte ca cele pentru un nou dispozitiv medical sau un medicament farmaceutic”.