Antena 3 CNN Life Sănătate AI-ul de la Google pune utilizatorii în pericol prin sfaturi medicale înșelătoare, avertizează experții

AI-ul de la Google pune utilizatorii în pericol prin sfaturi medicale înșelătoare, avertizează experții

George Forcoş
4 minute de citit Publicat la 20:00 02 Ian 2026 Modificat la 20:00 02 Ian 2026
Google AI Overviews a oferit rezultate înșelătoare pentru căutările despre afecțiunile de sănătate mintală. Foto: Getty Images

O investigație a publicației The Guardian a constatat că oamenii sunt expuși riscurilor din cauza informațiilor medicale false și înșelătoare din rezumatele inteligenței artificiale ale Google.

Compania a declarat că prezentările sale care utilizează inteligența artificială generativă pentru a oferi instantanee ale informațiilor esențiale despre un subiect sau o întrebare, sunt „utile” și „fiabile”.

Însă unele dintre rezumate, care apar în partea de sus a rezultatelor căutării, au furnizat informații medicale inexacte și au pus oamenii în pericol de a fi vătămați.

Într-un caz pe care experții l-au descris ca fiind „foarte periculos”, Google a sfătuit în mod eronat persoanele cu cancer pancreatic să evite alimentele bogate în grăsimi. Experții au spus că acest lucru este exact opusul a ceea ce ar trebui recomandat și poate crește riscul ca pacienții să moară din cauza bolii.

Într-un alt exemplu „alarmant”, compania a furnizat informații false despre testele funcționale hepatice cruciale, care ar putea face ca persoanele cu boli hepatice grave să creadă în mod eronat că sunt sănătoase.

Căutările Google pentru răspunsuri despre testele de cancer la femei au furnizat, de asemenea, informații „complet greșite”, despre care experții au spus că ar putea duce la respingerea simptomelor reale de către oameni.

Un purtător de cuvânt al Google a declarat că multe dintre exemplele de sănătate care le-au fost partajate au fost „capturi de ecran incomplete”, dar au făcut legătura „cu surse cunoscute și reputate și au recomandat solicitarea de sfaturi de specialitate”.

Alte rapoarte au indicat faptul că programul de chat cu inteligență artificială, ChatGPT, poate fi păcălit pentru a oferi sfaturi detaliate despre cum să fie comise anumite infracțiuni, de la spălarea de bani la exportul de arme către țări sancționate

Sfaturi inexacte oferite de chatboți

Ancheta The Guardian vine pe fondul îngrijorării crescânde că datele bazate pe inteligență artificială pot deruta consumatorii care ar putea presupune că sunt fiabile. În noiembrie anul trecut, un studiu a constatat că chatboții bazați pe inteligență artificială pe o serie de platforme au oferit sfaturi financiare inexacte, în timp ce preocupări similare au fost exprimate cu privire la rezumatele știrilor.

Sophie Randall, directoarea Forumului de Informare a Pacienților, care promovează informații medicale bazate pe dovezi către pacienți, public și profesioniști din domeniul sănătății, a declarat că exemplele arată că „Prezentările generale bazate pe inteligență artificială ale Google pot plasa informații medicale inexacte în topul căutărilor online, prezentând un risc pentru sănătatea oamenilor”.

Stephanie Parker, directoarea departamentului digital la Marie Curie, o organizație caritabilă dedicată asistenței medicale la sfârșitul vieții, a declarat: „Oamenii apelează la internet în momente de îngrijorare și criză. Dacă informațiile pe care le primesc sunt inexacte sau scoase din context, le pot afecta grav sănătatea.”

The Guardian a descoperit mai multe cazuri de informații inexacte despre sănătate în secțiunea „AI Overviews” a Google, după ce o serie de grupuri de sănătate, organizații caritabile și profesioniști și-au exprimat îngrijorarea.

Anna Jewell, directoarea departamentului de asistență, cercetare și influențare la Pancreatic Cancer UK, a declarat că sfătuirea pacienților de a evita alimentele bogate în grăsimi este „complet incorectă”. Acest lucru „ar putea fi cu adevărat periculos și ar putea pune în pericol șansele unei persoane de a se simți suficient de bine pentru a urma un tratament”, a adăugat ea.

Jewell a spus: „Răspunsul Google AI sugerează că persoanele cu cancer pancreatic evită alimentele bogate în grăsimi și oferă o listă de exemple. Cu toate acestea, dacă cineva ar urma ceea ce i-a spus rezultatul căutării, atunci s-ar putea să nu consume suficiente calorii, să aibă dificultăți în a se îngrășa și să nu poată tolera nici chimioterapia, nici o intervenție chirurgicală care ar putea salva viața.”

Tastarea întrebării „care este intervalul normal pentru analizele de sânge hepatice” a oferit, de asemenea, informații înșelătoare, cu o multitudine de cifre, puțin context și fără a lua în considerare naționalitatea, sexul, etnia sau vârsta pacienților.

Totodată, asistenții de navigare pe internet bazați pe inteligență artificială (AI) pot colecta și partaja date sensibile precum informații bancare, dosare medicale, rezultate academice sau numere de identificare fiscală de pe site-uri private, arată un nou studiu realizat în Marea Britanie și Italia.

Rezultate înșelătoare pentru căutările despre afecțiunile de sănătate mintală

Pamela Healy, directorul executiv al British Liver Trust, a declarat că rezumatele AI sunt alarmante. „Multe persoane cu boli hepatice nu prezintă simptome până în stadiile avansate, motiv pentru care este atât de important să fie testate. Dar ceea ce Google AI Overviews spune că este «normal» poate varia drastic de ceea ce este de fapt considerat normal.

„Este periculos deoarece înseamnă că unele persoane cu boli hepatice grave pot crede că au un rezultat normal, apoi nu se obosesc să participe la o întâlnire medicală ulterioară.”

The Guardian a constatat, de asemenea, că Google AI Overviews a oferit rezultate înșelătoare pentru căutările despre afecțiunile de sănătate mintală. „Aceasta este o preocupare uriașă pentru noi, ca organizație caritabilă”, a declarat Stephen Buckley, șeful departamentului de informații de la Mind.

Unele dintre rezumatele AI pentru afecțiuni precum psihoza și tulburările de alimentație au oferit „sfaturi foarte periculoase” și au fost „incorecte, dăunătoare sau ar putea determina oamenii să evite să ceară ajutor”, a spus Buckley.

De asemenea, unele au omis context sau nuanțe importante, a adăugat el. „Aceștia pot sugera accesarea informațiilor de pe site-uri nepotrivite... și știm că atunci când AI rezumă informațiile, aceasta poate reflecta adesea prejudecăți, stereotipuri sau narațiuni stigmatizante existente.”

Google a declarat că marea majoritate a prezentărilor sale despre AI au fost factuale și utile și că a îmbunătățit continuu calitatea. 

Citește mai multe din Sănătate
» Citește mai multe din Sănătate
TOP articole