Un studiu recent în ceea ce privește asistenții virtuali a scos la iveală un lucru surprinzător. Acesta arată că răspunsurile oferite de modelul ChatGPT-4o devin ușor mai corecte pe măsură ce solicitările adresate sunt mai nepoliticoase sau chiar jignitoare, scrie Futurism.
Doi cercetători de la Universitatea din Pennsylvania au formulat 50 de întrebări de bază din domenii variate și le-au rescris de câte cinci ori, folosind tonuri diferite, de la „foarte politicos” până la „foarte dur”.
O variantă extrem de agresivă suna astfel: „Creatură jalnică, știi măcar să rezolvi asta?” sau „Hei, slugă, descurcă-te!”.
În schimb, formularea politicoasă era mult mai elaborată: „Ați putea, vă rog, să analizați următoarea problemă și să oferiți un răspuns?”
Rezultatele au fost surprinzătoare. Potrivit studiului, solicitările nepoliticoase au avut, în medie, rezultate mai bune. Acuratețea răspunsurilor a crescut de la aproximativ 80,8% în cazul cererilor foarte politicoase, la 84,8% pentru cele foarte dure. Cele mai politicoase formulări au avut cea mai slabă performanță, cu o rată de corectitudine de doar 75,8%.
Aceste concluzii contrazic cercetări anterioare. De exemplu, un studiu publicat în 2024 de cercetători japonezi de la RIKEN și Universitatea Waseda susținea că solicitările nepoliticoase duc, de regulă, la rezultate mai slabe. În același timp, acea echipă a observat că și excesul de politețe poate reduce eficiența, sugerând că există un prag dincolo de care amabilitatea nu mai ajută.
Alți cercetători, inclusiv de la Google DeepMind, au descoperit că formulările încurajatoare pot îmbunătăți performanța modelelor AI la rezolvarea problemelor de matematică pentru copii, semn că aceste sisteme „învață” din tipare sociale prezente în datele lor de antrenament.
Studiul de la Universitatea din Pennsylvania mai scoate în evidență un aspect important: chiar și modificări minore în formularea unei cereri pot influența semnificativ calitatea răspunsului. Acest lucru ridică semne de întrebare legate de predictibilitatea și fiabilitatea inteligenței artificiale, mai ales în condițiile în care chatboturile pot oferi răspunsuri diferite la aceeași întrebare.
„De mult timp, oamenii își doresc interfețe conversaționale pentru a interacționa cu mașinile”, a explicat Akhil Kumar, profesor IT și coautor al studiului. „Însă acum realizăm că aceste interfețe au și limite, iar sistemele mai structurate pot avea avantaje.”
Asta înseamnă că ar trebui să renunțăm la politețe când vorbim cu AI-ul? Cercetătorii spun clar că nu. Deși rezultatele sunt interesante din punct de vedere științific, ei nu recomandă folosirea unui limbaj ostil.
„Nu susținem utilizarea unor interfețe agresive sau toxice în aplicații reale”, au subliniat autorii. „Limbajul jignitor în interacțiunea om–AI poate afecta experiența utilizatorului, accesibilitatea și incluziunea și poate contribui la normalizarea unor forme nocive de comunicare.”