Antena 3 CNN High Tech Riscurile folosirii inteligenţei artificiale când vrem să ne punem singuri un diagnostic

Riscurile folosirii inteligenţei artificiale când vrem să ne punem singuri un diagnostic

N.B.
3 minute de citit Publicat la 13:47 05 Aug 2025 Modificat la 13:47 05 Aug 2025
medic cu o tableta in maini care proiecteaza anatomia omului
Platformelor de inteligență artificială tind să îi ia locul, înlocuind, cel puțin inițial, rolul medicului generalist în găsirea unui diagnostic. Sursa foto: Getty Images (poza cu caracter ilustrativ)

Autoritatea italiană pentru protecția datelor îndeamnă la prudență atunci când se utilizează inteligența artificială pentru consultații medicale și procese de diagnostic, îndemnând utilizatorii să fie atenţi atunci când încarcă datele.

Dacă până acum câțiva ani căutarea simptomelor și interpretărilor rapoartelor medicale pe Google era o practică obișnuită , acum platformelor de inteligență artificială tind să îi ia locul, înlocuind, cel puțin inițial, rolul medicului generalist în găsirea de răspunsuri rapide la îndoielile și temerile utilizatorilor, în speranța obținerii unui diagnostic, relatează Corriere della Sera.

Acum este obișnuit să cerem clarificări de la ChatGPT și platformelor similare cu privire la erupții cutanate, teste radiologice sau un anumit rezultat al analizei de sânge care nu pare corect, încredințându-ne preocupările răspunsurilor, nu întotdeauna exhaustive și corecte din punct de vedere științific, oferite de modelele de inteligență artificială.

Autoritatea italiană pentru protecția datelor (Garante Privacy) a tras un semnal de alarmă cu privire la tendința din ce în ce mai răspândită de a pune întrebări inteligenței artificiale despre propria sănătate, expunând inclusiv dosarele medicale. Prin publicarea recentă a unei declarații oficiale, aceasta îndeamnă utilizatorii să folosească aceste platforme de inteligență artificială cu prudență și să ia măsurile de precauție adecvate pentru eventualele consultații medicale.

Riscuri potențiale ale acestui fenomen

Protecția datelor cu caracter personal este, fără îndoială, primul factor pe care Autoritatea îl semnalează. Citirea politicii de confidențialitate pare crucială pentru utilizarea în siguranță a platformelor de inteligență artificială de către pacienți: orice test de diagnostic sau raport încărcat online poate fi utilizat pentru antrenarea inteligenței artificiale, cu excepția cazului în care se specifică altfel în politica expusă.

Printre multitudinea de platforme de inteligență artificială disponibile în prezent pe piață, este, prin urmare, recomandabil să se aleagă servicii care permit pacienților să aleagă în mod activ soarta datelor partajate, cu opțiunea de a le șterge odată ce au primit consultația. Acesta este un aspect asupra căruia Regulamentul european privind inteligența artificială și Consiliul Național de Sănătate din Italia sunt, de asemenea, de acord.

Prin urmare, utilizarea inteligenței artificiale în domeniul medical poate prezenta riscuri serioase de securitate pentru datele medicale, introduse în modele respective, cu toate riscurile potențiale pe care acest lucru le-ar putea prezenta pentru pacienți.

La aceasta se adaugă riscul potențial pentru sănătatea pacienților înșiși, care ar putea cădea victime unor potențiale evaluări greșite și indicații incorecte din partea sistemelor de inteligență artificială, care, deși din ce în ce mai precise și sofisticate, pot oferi, totuşi, rezultate greșite. 

Cele mai comune platforme de inteligență artificială de pe piață (cum ar fi ChatGPT sau Gemini, ca să numim doar câteva) nu sunt special concepute pentru medicină, iar acesta este un aspect care nu ar trebui subestimat atunci când li se "încredințează" propria sănătate.

Având în vedere aceste considerații, Autoritatea italiană pentru protecția datelor a stabilit că este întotdeauna o idee bună să se verifice și să se infirme răspunsurile furnizate de platforma de inteligență artificială în cauză sub supravegherea unui profesionist medical calificat, capabil să confirme sau, eventual, să infirme, în funcție de fiecare caz în parte raționamentul clinic dezvoltat de modelele lingvistice de mari dimensiuni.

Inteligenţa artificială folosită în medicină

Pentru medici, inteligența artificială a devenit din ce în ce mai mult un aliat, un instrument suplimentar util în mâinile acestora pentru a oferi undiagnostic și, în unele cazuri, chiar şi terapii. Utilizarea unor algoritmi specifici de IA a permis identificarea extrem de sensibilă a tumorilor și a altor formațiuni cu risc ridicat în diverse tipuri de examinări radiologice, dovedindu-se a fi un aliat valoros în interpretarea umană și raportarea ulterioară.

Acest lucru a fost relevat recent odată cu adoptarea de către Spitalul Districtual Harrogate a unui nou software bazat pe IA, capabil să detecteze cancerul pulmonar (și a sute de alte anomalii care s-ar putea transforma în malignități, cum ar fi nodulii pulmonari) prin "citirea" unei radiografii toracice în mai puţin de 30 de secunde.
Aceste programe utilizează un sistem inovator de învățare automată, care le permite să învețe și să rafineze acuratețea diagnosticului pe baza a mii și mii de radiografii anterioare și a rapoartelor ulterioare furnizate.

Depistarea precoce a tumorilor sau a metastazelor ar reduce întârzierile diagnostice și ar avansa tratamentul, crescând astfel speranța de viață a pacienților.

Apoi, există MAI-DxO, noua superinteligență medicală creată de Microsoft care "orchestrează" diferite modele de IA și este astfel capabilă să atingă o precizie de diagnostic de peste 80%, potrivit lui Mustafa Suleyman, șeful diviziei de IA a companiei.
Medicul rămâne, însă, și va fi întotdeauna în centrul consultaţiei medicale.

În ciuda progreselor uimitoare realizate de inteligența artificială în ultimii ani, oamenii vor avea întotdeauna ultimul cuvânt în deciziile de diagnostic și terapeutice. Bazându-se pe ani de experiență profesională și clinică, ei vor fi responsabili pentru filtrarea adecvată a contribuțiilor inteligenței artificiale.

Ştiri video recomandate
×

Fanatik

Antena Sport

Observator News

Parteneri
x close