Antena 3 CNN Life Știinţă ChatGPT estompează limitele realității și poate provoca „psihoza chabot”. Medicii psihiatri explică noul fenomen îngrijorător

ChatGPT estompează limitele realității și poate provoca „psihoza chabot”. Medicii psihiatri explică noul fenomen îngrijorător

Mia Lungu
1 minut de citit Publicat la 16:43 28 Iul 2025 Modificat la 16:43 28 Iul 2025
robot creierul uman joaca sah
ChatGPT și alte modele AI populare împing oamenii spre psihoză, potrivit unui nou studiu. Imagine cu caracter ilustrativ. Sursa foto: Getty Images

ChatGPT și alte modele AI populare împing oamenii spre psihoză, potrivit unui nou studiu, realizat de medicii britanici. Aceștia avertizează că există tot mai multe dovezi că modelele lingvistice mari (LLM) „estompează limitele realității” pentru utilizatorii vulnerabili și „contribuie la apariția sau exacerbarea simptomelor psihotice”.

Cercetarea „Delusions by design? Cum ar putea AI-urile de zi cu zi să alimenteze psihoza (și ce se poate face în această privință)” urmează zecilor de rapoarte privind persoane care au intrat în ceea ce a fost numit „psihoza chabot”.

Hamilton Morrin, un neuropsihiatru de la King's College London care a fost implicat în studiu, a descris psihoza chatbot ca un „fenomen autentic” care abia începe să fie înțeles.

„În timp ce unele comentarii publice au virat în teritoriul panicii morale, credem că există o conversație mai interesantă și mai importantă care trebuie purtată cu privire la modul în care sistemele AI, în special cele concepute pentru a afirma, angaja și imita, ar putea interacționa cu vulnerabilitățile cognitive cunoscute care caracterizează psihoza”, a scris el într-o postare pe LinkedIn.

AI, un „factor precipitant” pentru apariția tulburărilor psihiatrice

„Probabil că am depășit punctul în care iluziile se întâmplă să fie despre mașinării și intrăm deja într-o eră în care acestea se întâmplă cu ele”.

Co-autorul Tom Pollack, care predă la King's College din Londra, a declarat că tulburările psihiatrice „rareori apar de nicăieri”, dar a spus că utilizarea chatbot-urilor AI ar putea fi un „factor precipitant”.

El a făcut apel la firmele de inteligență artificială să introducă mai multe măsuri de protecție pentru instrumentele lor și ca echipele de siguranță pentru inteligența artificială să includă psihiatrii.

The Independent a contactat OpenAI pentru a comenta fenomenul. Compania a declarat anterior că trebuie să „continue să ridice ștacheta în ceea ce privește siguranța, alinierea și receptivitatea la modul în care oamenii folosesc efectiv inteligența artificială în viața lor”.

Șeful OpenAI, Sam Altman, a declarat în timpul unei apariții pe podcast în luna mai că societatea sa se străduiește să pună în aplicare măsuri de protecție pentru utilizatorii vulnerabili ai ChatGPT.

„Pentru utilizatorii care se află într-o situație psihică destul de fragilă, care sunt la limita unei crize psihotice, nu ne-am dat încă seama cum poate fi transmis un avertisment”, a spus el.

Ştiri video recomandate
×

Fanatik

Antena Sport

Observator News

Parteneri
x close