Antena 3 CNN Life Un bărbat a făcut o boală rară după ce a cerut sfaturi medicale de la ChatGPT

Un bărbat a făcut o boală rară după ce a cerut sfaturi medicale de la ChatGPT

I.C.
2 minute de citit Publicat la 18:18 12 Aug 2025 Modificat la 18:22 12 Aug 2025
Un bărbat a făcut o boală rară după ce a întrebat ChatGPT cum să renunțe la sarea de masă. Foto: Getty Images

O revistă medicală americană avertizează asupra folosirii ChatGPT pentru informații medicale, după ce un bărbat a dezvoltat o afecțiune rară în urma unei discuții cu chatbotul despre eliminarea sării din alimentație, scrie The Guardian.

Un articol publicat în Annals of Internal Medicine descrie cazul unui bărbat de 60 de ani care a făcut bromism - intoxicație cu bromură - după ce a consultat ChatGPT.

Bromismul era considerat, la începutul secolului XX, o afecțiune bine cunoscută, responsabilă, potrivit estimărilor, pentru aproape unul din zece internări în spitalele de psihiatrie ale vremii.

Pacientul le-a spus medicilor că, după ce a citit despre efectele negative ale clorurii de sodiu (sarea de masă), a întrebat ChatGPT cum ar putea elimina clorura din alimentație. A început apoi să ia bromură de sodiu timp de trei luni, deși găsise menționat că „clorura poate fi înlocuită cu bromură, deși probabil în alte scopuri, cum ar fi curățarea”. Bromura de sodiu era folosită ca sedativ în primele decenii ale secolului trecut.

Autorii articolului, de la Universitatea din Washington (Seattle), spun că acest caz arată cum folosirea inteligenței artificiale poate contribui la apariția unor probleme de sănătate care ar putea fi prevenite.

Ei precizează că nu au putut verifica exact ce sfat a primit pacientul, pentru că nu au avut acces la istoricul conversației din ChatGPT. Totuși, când au întrebat ei înșiși chatbotul cu ce poate fi înlocuit clorura, printre opțiuni apărea și bromura, fără un avertisment medical clar și fără întrebări despre motivul pentru care căutau această informație - așa cum, spun autorii, ar fi făcut probabil un medic.

Cercetătorii atrag atenția că ChatGPT și alte aplicații de inteligență artificială pot genera informații științifice incorecte, nu pot analiza critic rezultatele și pot alimenta răspândirea dezinformării.

Săptămâna trecută, compania care dezvoltă ChatGPT a lansat o nouă versiune a programului, spunând că acesta este acum bazat pe modelul GPT-5 și ar răspunde mai bine la întrebări medicale, inclusiv prin avertismente proactive în caz de probleme grave de sănătate fizică sau psihică. Totuși, compania subliniază că ChatGPT nu înlocuiește ajutorul medical de specialitate și nu este destinat diagnosticării sau tratării unor boli.

Articolul din Annals of Internal Medicine, publicat înaintea lansării GPT-5, indică faptul că pacientul folosise o versiune mai veche a chatbotului. Autorii notează că, deși inteligența artificială poate fi un mijloc de a face legătura între oameni de știință și public, există și riscul de a transmite informații scoase din context și că este foarte puțin probabil ca un medic să fi recomandat bromura de sodiu ca înlocuitor pentru sarea de masă.

Concluzia cercetătorilor este că medicii ar trebui să întrebe pacienții de unde își iau informațiile și să ia în calcul și utilizarea inteligenței artificiale ca sursă.

Pacientul cu bromism a ajuns la spital spunând că vecinul îl otrăvește și că are multiple restricții alimentare. Deși era foarte însetat, refuza apa oferită, fiind suspicios. A încercat să fugă din spital în primele 24 de ore și, după ce a fost internat forțat, a primit tratament pentru psihoză. Când starea i s-a stabilizat, a relatat și alte simptome specifice bromismului, precum acnee pe față, sete excesivă și insomnie.

 

Citește mai multe din Life
» Citește mai multe din Life
TOP articole