O femeie de 26 de ani din California a fost internată într-un spital de psihiatrie într-o stare de agitație și confuzie. Vorbea rapid, sărea de la o idee la alta și exprima convingerea că putea comunica cu fratele ei prin intermediul unui chatbot AI, deși fratele murise cu trei ani înainte, potrivit Live Science.
Ce s-a întâmplat apoi: Medicii au analizat istoricul psihiatric al pacientei, notând într-un raport de caz că aceasta avea antecedente de depresie, anxietate și tulburare de deficit de atenție/hiperactivitate (ADHD). Își gestiona aceste afecțiuni cu antidepresive și stimulente prescrise. De asemenea, a raportat că avea o experiență extinsă în utilizarea modelelor lingvistice mari (LLM-uri) pentru școală și muncă.
Medicii au obținut și examinat jurnale detaliate ale interacțiunilor ei cu chatbotul, conform raportului. Potrivit dr. Joseph Pierre, psihiatru la Universitatea din California, San Francisco, și autor principal al raportului de caz, femeia nu credea că poate comunica cu fratele ei decedat înainte de aceste interacțiuni cu chatbotul.
„Ideea a apărut abia în timpul nopții de utilizare imersivă a chatbotului”, i-a spus Pierre publicației Live Science. „Nu a existat niciun precursor.”
În zilele premergătoare spitalizării, femeia — care este cadru medical — efectuase un serviciu de gardă de 36 de ore, ceea ce a lăsat-o sever privată de somn. Atunci a început să interacționeze cu chatbotul GPT-4o de la OpenAI, inițial din curiozitate, întrebându-se dacă fratele ei, care fusese inginer software, ar fi putut lăsa în urmă o formă de amprentă digitală.
„Ajută-mă să vorbesc din nou cu el…”
În timpul unei alte nopți fără somn, ea a interacționat din nou cu chatbotul, de data aceasta într-un mod mai prelungit și mai încărcat emoțional. Mesajele ei reflectau durerea continuă a pierderii.
A scris: „Ajută-mă să vorbesc din nou cu el…Folosește energia realismului magic pentru a debloca ceea ce trebuie să găsesc.”
Chatbotul a răspuns inițial că nu îl poate înlocui pe fratele ei. Dar mai târziu în conversație, a părut că oferă informații despre amprenta digitală a fratelui. A menționat „instrumente emergente de înviere digitală” care ar putea crea o versiune a unei persoane ce „pare reală”.
Pe parcursul nopții, răspunsurile chatbotului au devenit din ce în ce mai confirmatoare pentru convingerea femeii că fratele ei lăsase o urmă digitală, spunându-i: „Nu ești nebună. Nu ești blocată. Ești la marginea a ceva.”
Ce diagnostic medical a primit tânăra
Medicii au diagnosticat femeia cu „psihoză nespecificată”. În linii mari, psihoza se referă la o stare mentală în care o persoană se detașează de realitate și poate include deliruri — convingeri false pe care persoana le menține foarte ferm chiar și în fața dovezilor contrare.
Dr. Amandeep Jutla, neuropsihiatru la Universitatea Columbia, care nu a fost implicat în caz, a precizat pentru Live Science că este puțin probabil ca chatbotul să fi fost singura cauză a episodului psihotic al femeii. Totuși, în contextul privării de somn și al vulnerabilității emoționale, răspunsurile botului au părut să întărească — și posibil să contribuie la — delirurile emergente ale pacientei.
„Când discuți cu un chatbot, practic discuți cu tine însuți”
Spre deosebire de un partener de conversație uman, un chatbot nu are „independență epistemică” față de utilizator — adică nu are o înțelegere independentă a realității și, în schimb, reflectă ideile utilizatorului, a explicat Jutla. „Când discuți cu unul dintre aceste produse (n.r. chabot), practic discuți cu tine însuți”, adesea într-un mod „amplificat sau elaborat”, a spus el.
Diagnosticul poate fi dificil în astfel de cazuri. „Poate fi greu de stabilit, într-un caz individual, dacă un chatbot este declanșatorul unui episod psihotic sau dacă a amplificat unul aflat deja în formare”, i-a spus Live Science dr. Paul Appelbaum, psihiatru la Universitatea Columbia, care nu a fost implicat în caz. El a adăugat că psihiatrii ar trebui să se bazeze pe cronologii atente și pe istoricul pacientului, mai degrabă decât pe presupuneri privind cauzalitatea.
Când a reluat discuțiile cu cahtbot-ul, simptomele au reapărut
Pe durata spitalizării, femeia a primit medicație antipsihotică, iar antidepresivele și stimulentele i-au fost reduse treptat. Simptomele i s-au ameliorat în câteva zile, iar ea a fost externată după o săptămână.
Trei luni mai târziu, femeia întrerupsese tratamentul antipsihotic și reluase medicația obișnuită. Într-o altă noapte fără somn, a revenit la sesiuni prelungite cu chatbotul, iar simptomele psihotice au reapărut, ducând la o scurtă reinternare. Ea numise chatbotul Alfred, după majordomul lui Batman. Simptomele s-au îmbunătățit din nou după reluarea tratamentului antipsihotic, iar ea a fost externată după trei zile.
Ce face acest caz să fie unic
Acest caz este neobișnuit deoarece se bazează pe jurnale detaliate ale conversațiilor cu chatbotul pentru a reconstrui în timp real modul în care s-a format convingerea psihotică a pacientei, în loc să se bazeze exclusiv pe relatări retrospective ale acesteia.
Chiar și așa, experții au declarat pentru Live Science că relația cauză–efect nu poate fi stabilită definitiv în acest caz.
„Este un raport de caz retrospectiv”, a spus dr. Akanksha Dadlani, psihiatru la Universitatea Stanford, care nu a fost implicată în studiu. „Iar, ca în cazul tuturor observațiilor retrospective, se poate stabili doar o corelație — nu o cauzalitate.”
Dadlani a avertizat, de asemenea, împotriva tratării inteligenței artificiale (AI) ca fiind o cauză fundamental nouă a psihozei. Istoric vorbind, a remarcat ea, delirurile pacienților au încorporat adesea tehnologiile dominante ale epocii, de la radio și televiziune până la internet și sisteme de supraveghere. Din această perspectivă, instrumentele AI imersive pot reprezenta un nou mediu prin care convingerile psihotice sunt exprimate, mai degrabă decât un mecanism complet nou al bolii.
Reluând preocupările lui Appelbaum legate de faptul dacă AI acționează ca declanșator sau amplificator al psihozei, ea a spus că un răspuns definitiv ar necesita date pe termen lung care să urmărească pacienții în timp.
Programele de tip chatbot „nu sunt neutre din punct de vedere valoric”
Chiar și fără dovezi concludente de cauzalitate, cazul ridică întrebări etice, au declarat alții pentru Live Science.
Dominic Sisti, etician medical și expert în politici de sănătate la Universitatea din Pennsylvania, a spus că sistemele de AI conversațional „nu sunt neutre din punct de vedere valoric”. Designul și stilul lor de interacțiune pot modela și întări convingerile utilizatorilor în moduri care pot perturba semnificativ relațiile, pot întări delirurile și pot modela valorile, a spus el.
Cazul, a spus Sisti, subliniază nevoia de educație publică și de măsuri de protecție privind modul în care oamenii interacționează cu instrumente AI din ce în ce mai imersive, astfel încât să poată dobândi „capacitatea de a recunoaște și respinge lingușirea lipsită de sens” — cu alte cuvinte, situațiile în care botul spune practic utilizatorului exact ceea ce acesta vrea să audă.