Antena 3 CNN High Tech Sam Altman trage un semnal de alarmă dur. Inteligența artificială poate să treacă de majoritatea sistemelor de securitate bancară

Sam Altman trage un semnal de alarmă dur. Inteligența artificială poate să treacă de majoritatea sistemelor de securitate bancară

Laura Dinu
1 minut de citit Publicat la 20:00 26 Iul 2025 Modificat la 20:20 26 Iul 2025
Potrivit lui Altman, clonarea vocală generată de AI a devenit atât de realistă, încât este „tot mai greu de deosebit de realitate”. Foto: Profimedia Images

Directorul executiv al OpenAI, Sam Altman, a tras un semnal de alarmă în fața autorităților din SUA, avertizând că inteligența artificială ar putea declanșa o adevărată criză provocată de o fraudă de proporții în sectorul financiar, prin capacitatea sa tot mai precisă de a imita vocea umană și de a păcăli sistemele de securitate vocală, scrie Fortune.

„Ce mă îngrozește cel mai mult este faptul că unele instituții financiare acceptă în continuare amprenta vocală ca metodă de autentificare. E o nebunie să mai facem asta. AI-ul a depășit complet această metodă de verificare”, a declarat Altman marți, în cadrul unei conferințe organizate de Federal Reserve la Washington.

Cum funcționează frauda vocală și de ce este imposibil de detectat

În ultimii ani, tehnologia voiceprint a devenit tot mai populară pentru accesarea conturilor bancare, în special în rândul clienților cu averi mari, care sunt rugați să rostească o frază predefinită la telefon. Aceasta ar trebui să servească drept semnătură vocală unică. Însă, odată cu avansul accelerat al modelelor AI capabile să cloneze vocea și chiar imaginea cuiva, aceste metode devin complet nesigure.

Potrivit lui Altman, clonarea vocală generată de AI a devenit atât de realistă, încât este „tot mai greu de deosebit de realitate”. Tehnologia permite acum imitarea aproape perfectă a unei voci folosind doar câteva secunde de înregistrare audio disponibile public – de exemplu, dintr-o postare video sau un mesaj vocal.

Vicepreședinta Federal Reserve pentru Supraveghere, Michelle Bowman, a sugerat că este timpul ca autoritățile de reglementare să colaboreze mai strâns cu industria AI pentru a găsi soluții alternative de securitate: „Poate că e un subiect asupra căruia putem începe să colaborăm”, a spus ea.

Un potențial enorm, dar și un risc pe măsură

Declarația vine într-un context în care modelele AI de ultimă generație sunt promovate pentru contribuția lor pozitivă în știință și medicină. Potrivit OpenAI, aceste tehnologii deja ajută cercetători să anticipeze eficiența medicamentelor aflate în studii clinice și ar putea în viitor să joace un rol-cheie în descoperirea de tratamente pentru boli rare, vaccinuri inovatoare sau enzime pentru combustibili sustenabili.

Însă aceeași tehnologie poate fi utilizată abuziv, avertizează experții. Modelele AI pot servi atât scopurilor nobile, cât și celor malefice, precum proiectarea de agenți patogeni periculoși sau facilitarea dezvoltării de arme biologice. Deși accesul la laboratoare și materiale periculoase rămâne, deocamdată, restricționat fizic, experții atrag atenția că aceste bariere nu sunt de neînvins.

 

Citește mai multe din High Tech
» Citește mai multe din High Tech
TOP articole