Antena 3 CNN Externe Mapamond Un avocat își cere scuze după ce AI a generat citate false într-un caz de crimă din Australia

Un avocat își cere scuze după ce AI a generat citate false într-un caz de crimă din Australia

A.E.D.
2 minute de citit Publicat la 15:39 15 Aug 2025 Modificat la 15:41 15 Aug 2025
poza in care apare un barbat imbracat intr un costum in timp ce foloseste un laptop si AI
O întârziere de 24 de ore a fost cauzată de erorile generate de AI în derularea cazului din Australia. *Imagine cu caracter ilustrativ. Sursa foto: Getty Images

Un avocat a fost nevoit să își ceară scuze după ce inteligența artificială (AI) a generat citate false și hotărâri inventate în concluziile pe care le-a depus într-un proces de crimă în fața unei instanțe australiene, a relatat Euronews. Documentele false depuse conțineau citate fabricate dintr-un discurs adresat legislativului statului și trimiteri la cauze inexistente, atribuite în mod fals Curții Supreme.

Avocatul apărării Rishi Nathwani, care deține prestigiosul titlu juridic de King’s Counsel, și-a asumat "întreaga responsabilitate" pentru depunerea de informații incorecte în observațiile în cazul unui adolescent acuzat de crimă în fața Curții Supreme a statului Victoria din Melbourne.

"Ne pare profund rău și suntem jenați pentru ceea ce s-a întâmplat", i-a spus Nathwani judecătorului James Elliott miercuri, în numele echipei de apărare.

Potrivit jurnaliştilor de la Euronews, memoriile false includeau citate inventate dintr-un discurs rostit în fața legislativului statului și citate de cazuri inexistente care ar fi provenit de la Curtea Supremă.

Erorile au fost descoperite de asociații lui Elliott, care nu au putut găsi cazurile și au solicitat avocaților apărării să furnizeze copii.

Avocații au recunoscut că citatele "nu există" și că prezentarea conținea "citate fictive", conform documentelor judiciare. În plus, aceştia au explicat că au verificat citatele inițiale și au presupus că și celelalte erau corecte.

Erorile generate de AI au provocat o întârziere de 24 de ore în soluționarea unui caz pe care judecătorul James Elliott spera să îl încheie miercuri.

Judecătorul Elliott a decis joi că clientul lui Nathwani, care nu poate fi identificat, întrucât este minor, nu este vinovat de crimă din cauza deficienței mintale.

"Cu riscul de a fi subestimat, modul în care s-au desfășurat aceste evenimente este nesatisfăcător. Capacitatea instanței de a se baza pe acuratețea memoriilor prezentate de avocați este fundamentală pentru buna administrare a justiției", le-a spus judecătorul James Elliott avocaților joi.

Concluziile au fost trimise și procurorului Daniel Porceddu, care nu a verificat acuratețea acestora.

Judecătorul a menționat că Curtea Supremă a publicat anul trecut orientări cu privire la modul în care avocații utilizează inteligența artificială.

"Nu este acceptabil ca inteligența artificială să fie utilizată decât dacă produsul acestei utilizări este verificat independent și temeinic", a mai precizat James Elliott.

Acesta nu este primul caz de halucinație judiciară cu AI

Într-un caz comparabil din Statele Unite în 2023, un judecător federal a impus amenzi de 5.000 de dolari (4.270 de euro) pentru doi avocați și o firmă de avocatură, după ce ChatGPT a fost învinuit pentru prezentarea de către aceștia a unor cercetări juridice fictive într-o cerere de despăgubire pentru vătămări aviatice.

Judecătorul P Kevin Castel a declarat că aceștia au acționat cu rea-credință, dar le-a acceptat scuzele și măsurile de remediere în locul unei sentințe mai aspre.

Mai târziu în același an, mai multe hotărâri judecătorești fictive inventate de AI au fost citate în documentele juridice depuse de avocații lui Michael Cohen, un fost avocat personal al președintelui american Donald Trump.

Cohen și-a asumat vina, afirmând că nu și-a dat seama că instrumentul Google pe care îl folosea pentru cercetarea juridică era, de asemenea, capabil de așa-numitele halucinații ale AI.

Judecătoarea Victoria Sharp de la Înalta Curte din Regatul Unit a avertizat în iunie că furnizarea de materiale false ca și cum ar fi autentice ar putea fi considerată dispreț față de instanță sau, în "cele mai grave cazuri", pervertirea cursului justiției, care atrage după sine o pedeapsă maximă de închisoare pe viață.

Într-o hotărâre de reglementare adoptată ca urmare a zecilor de citații false generate de inteligența artificială prezentate instanțelor în mai multe cazuri din Regatul Unit, Sharp a afirmat că problema ridică "implicații grave pentru… încrederea publicului în sistemul de justiție în cazul în care inteligența artificială este utilizată în mod abuziv".

Ştiri video recomandate
×

Fanatik

Antena Sport

Observator News

Parteneri
x close