Antena 3 CNN High Tech Pericolul ChatGPT: Ce să nu îi spui niciodată unui chatbot AI

Pericolul ChatGPT: Ce să nu îi spui niciodată unui chatbot AI

Laura Dinu
2 minute de citit Publicat la 10:00 02 Aug 2025 Modificat la 10:00 02 Aug 2025
femeie cu telefonul si laptopul in fata care converseaza cu AI
Orice informație trimisă către un serviciu cloud public ar trebui considerată, din start, informație publică. Foto: Getty Images

ChatGPT a schimbat radical modul în care lucrăm și comunicăm. Potrivit statisticilor recente, peste 100 de milioane de persoane îl folosesc zilnic, generând peste un miliard de solicitări, scrie Forbes.

Totuși, în ciuda popularității sale, acest chatbot AI a fost numit de unii experți un „aspirator de confidențialitate”, din cauza modului în care colectează și procesează datele introduse de utilizatori – un aspect care a dus chiar la o interdicție temporară în Italia.

OpenAI, compania care a creat ChatGPT, recunoaște deschis că datele introduse pot fi revizuite de oameni sau utilizate pentru a îmbunătăți modelul. Iar orice informație trimisă către un serviciu cloud public ar trebui considerată, din start, informație publică.

Așadar, iată 5 lucruri pe care NU ar trebui niciodată să le spui unui chatbot AI precum ChatGPT:

Solicitări ilegale sau imorale

Majoritatea chatbot-urilor AI au filtre care încearcă să prevină folosirea lor în scopuri imorale sau ilegale. Solicitările privind comiterea de infracțiuni, fraude sau manipulări dăunătoare nu doar că sunt blocate – dar pot atrage consecințe legale grave.

De exemplu:

  • În China, este interzisă folosirea AI pentru a submina autoritatea statului;

  • În UE, legea AI obligă ca „deepfake-urile” să fie etichetate ca atare;

  • În UK, legea Online Safety interzice distribuirea imaginilor generate de AI fără consimțământ.

Prin urmare, evită să soliciți informații despre substanțe ilegale, hacking, metode de înșelătorie sau orice alt tip de comportament dăunător.

Date de autentificare: parole și username-uri

Agentul AI, capabil să opereze în mod autonom, este tot mai des folosit pentru a accesa servicii externe. Dar introducerea parolelor și a credențialelor în chat-uri publice este extrem de riscantă.

Au existat deja cazuri în care datele personale introduse de un utilizator au apărut, accidental, în conversațiile altora. Dacă nu ești sigur că folosești un sistem securizat, nu oferi acces la conturile tale prin intermediul AI-ului.

Informații financiare (carduri, conturi bancare)

Nu introduce niciodată în chatbot-uri AI date precum numere de carduri bancare, conturi curente, CNP-uri sau coduri PIN.

Sistemele de AI publice nu criptează aceste date și nici nu garantează ștergerea lor automată. Informațiile pot fi folosite de hackeri pentru fraudă, furt de identitate sau atacuri ransomware.

Informații confidențiale sau secrete comerciale

Mulți profesioniști – medici, avocați, contabili, dar și angajați obișnuiți – au obligații legale de confidențialitate.

Trimiterea prin AI a notițelor de ședință, documentelor interne sau înțelegerilor comerciale poate însemna divulgarea de secrete comerciale. Un exemplu notoriu este cel al angajaților Samsung care au introdus în ChatGPT informații sensibile – ceea ce a dus la o criză de securitate internă.

Informații medicale personale

Chiar dacă este tentant să întrebi ChatGPT despre simptome sau tratamente, trebuie să știi că nu este un medic, nu oferă confidențialitate medicală, și poate memora și corela date din conversații anterioare (mai ales dacă funcția de „memorie” e activată).

Pentru companiile din domeniul sănătății, riscurile sunt și mai mari: pot atrage amenzi uriașe și pierderi de imagine dacă divulgă datele pacienților prin AI.

Gândește de două ori înainte să trimiți informații în AI

La fel ca în cazul oricărui alt serviciu online, nu există garanția că datele tale vor rămâne private pentru totdeauna. Așa că, dacă nu ai vrea ca o informație să devină publică, nu o scrie într-un chatbot.

Ştiri video recomandate
×

Fanatik

Antena Sport

Observator News

Parteneri
x close