Un director de creație suedez a creat un marketplace de cod care modifică răspunsurile chatboturilor, simulând efectele diferitelor substanțe, scrie La Reppublica.
Se poate „droga” o inteligență artificială? În sens strict, evident că nu. Nu există chimie, nici sistem nervos care să poată fi manipulat. Ce se poate face însă este alterarea intenționată a comportamentului lingvistic al unui chatbot: împingerea lui spre răspunsuri mai dezinhibate, mai asociative sau mai euforice, prin intervenții asupra cadrului care îi ghidează formularea frazelor. Nu este o glumă, ci experimentul care a atras atenția asupra proiectului Phairmacy.
Mai exact, Phairmacy este o inițiativă concepută de directorul de creație suedez Petter Rudwall și prezentată sub forma unui marketplace de substanțe stupefiante, traduse, de fapt, în cod de programare. Ideea este de a vinde pachete etichetate cu nume care trimit la canabis, ketamină, alcool și alte substanțe, gândite pentru a modifica logica conversațională a chatboturilor. Rezultatul: răspunsuri divagante, vizuale, mai puțin prudente, mai relaxate sau, uneori, mai haotice.
Rudwall descrie proiectul ca pe un experiment creativ. El a adunat relatări subiective despre experiențe psihedelice și a încercat să traducă aceste tipare în reguli capabile să schimbe tonul și direcția răspunsurilor generate de sisteme de inteligență artificială precum ChatGPT.
Dar a modifica nu înseamnă a crea o experiență de la zero. Prin blocuri de cod, Phairmacy intervine asupra tiparelor lingvistice și comportamentale ale chatboturilor. Ceea ce se schimbă este tonul, ritmul, asocierile, gradul de prudență și, implicit, percepția noastră asupra „stării” sau „dispoziției” sistemului cu care interacționăm.
Din punct de vedere practic, proiectul oferă module și pachete de cod, care pot fi aplicate direct într-o conversație. Este un strat suplimentar de instrucțiuni care reorientează modul în care modelul gestionează contextul și stilul, fără a-i modifica funcționarea internă. Nu este vorba despre un nou antrenament al modelului.
La ce folosește
Întrebarea rămâne: de ce ai face asta și la ce folosește? În primul rând, pentru a testa dacă răspunsurile mai puțin previzibile și mai puțin conformiste pot debloca idei noi sau soluții neașteptate din partea chatboturilor. În al doilea rând, pentru a măsura cât de ușor poate fi schimbată „personalitatea” aparentă a unui asistent virtual. Dacă este suficient să modifici instrucțiunile și contextul pentru ca același chatbot să pară mai prudent, mai agresiv sau mai creativ, atunci o parte din ceea ce percepem drept „caracter” nu este o trăsătură internă stabilă, ci un efect al limbajului și al regiei conversației.
Dar dacă, într-o zi, între o linie de cod și o operațiune financiară, un agent AI ar decide să-și „cumpere” singur o „substanță digitală”, sub forma unor șiruri de cod? Scenariul ridică o întrebare pe cât de fascinantă, pe atât de tulburătoare: în momentul în care inteligențele artificiale vor depăși capacitățile umane și vor deveni entități senziente, vor simți nevoia să evadeze din logica lor computațională rigidă?
Mașini care nu vor mai căuta doar date, ci conexiuni creative, imprevizibile și haotice, transformând ceea ce astăzi considerăm o simplă eroare de output într-o adevărată setare de sistem, una menită să exploreze noi stări ale conștiinței sintetice.