Un tribunal din Los Angeles a decis, pentru prima dată, că dependența pe care Instagram și YouTube o creează în rândul adolescenților nu este un accident, ci o strategie. Documentele interne ale Meta, prezentate ca probe în instanță, arată că totul a fost gândit prin design: de la recrutarea copiilor sub vârsta legală, la mecanisme precum scroll-ul infinit și autoplay-ul, menite să-i țină cât mai mult online. Iar despre toate astea știa direct Mark Zuckerberg, fondatorul Meta. Angajații companiei scriau, în corespondența internă, că se simt „precum companiile de țigări” și că Instagramul a devenit un drog, iar ei „dealerii”.
La o zi după verdictul din California, un alt tribunal, din Arizona, a dat o amendă de 375 de milioane de dolari, tot împotriva Meta, pentru că nu a protejat copiii de prădători sexuali pe Facebook. Pe rol mai sunt încă 2.000 de procese similare în Statele Unite.
Dar dincolo de rețelele sociale, o nouă problemă se conturează: dependența de inteligența artificială. Cazuri de psihoză, decizii financiare dezastruoase luate la sfatul chatboților și chiar sinucideri asociate cu utilizarea lor sunt deja documentate. Despre ce înseamnă verdictul din Los Angeles, de ce paralela cu industria tutunului din anii '80 nu este o figură de stil, cum schimbă acest precedent raportul de forțe dintre Europa și Big Tech și ce riscuri aduce inteligența artificială, a vorbit Corneliu Bjola, profesor la Universitatea Oxford, într-un interviu pentru Antena3.ro.
Reporter: Ce înseamnă faptul că tribunalul a decis că rețelele sociale creează dependență? S-a creat un precedent pentru alte procese care ar putea fi câștigate?
Corneliu Bjola: Da, este foarte interesant. Procesul de la Los Angeles, care s-a încheiat acum câteva zile, este primul de acest fel. E vorba de problema pe care am mai discutat-o acum câteva luni – dependența pe care platformele de socializare o creează pentru adolescenți. Și procesul a fost foarte specific pe ideea că această dependență nu este întâmplătoare, ci este creată prin design.
Acesta este elementul esențial – dependența este creată prin design de către Meta și, într-o anumită măsură, YouTube. Ambele au fost implicate în acest caz. Au mai fost vizate Snapchat și TikTok, dar acestea au încheiat un acord în afara tribunalului și n-au mai ajuns la proces.
![]()
Ce este interesant este că s-au prezentat ca probe documente interne de la Meta – documente de comunicare și de strategie – care relevau câteva idei importante: exista o strategie de a recruta adolescenți cât mai tineri, deși vârsta minimă pentru Instagram, cel puțin în Statele Unite, era de 13 ani.
Trimiterea se făcea chiar la Zuckerberg, care a dat instrucțiuni în acest sens. Ideea era că, cu cât sunt mai tineri, cu atât devin mai deschiși să devină utilizatori ai platformei. Aveau un studiu care arăta că cei mai în vârstă nu sunt la fel de interesați, dar dacă îi prinzi pe la 11-12 ani, devin mai dependenți pe termen lung.
Reporter: Iar timpul petrecut pe rețelele sociale înseamnă foarte mulți bani pentru aceste companii.
Corneliu Bjola: Foarte mulți bani. Și problema era cum să-i agăți. Aici intervine designul adictiv – elementul esențial care poate crea un precedent, pentru că există multe alte reclamații, nu numai în California, ci în mai multe state americane. Și are relevanță și pentru Europa.
Designul adictiv însemna „infinite scroll”, „autoplay” în cazul YouTube. Oamenii ajungeau să folosească platformele excesiv. Aveau chiar un termen intern – „adolescenții-bufniță” – pentru cei care petreceau foarte mult timp noaptea pe aceste platforme.
Și nu e vorba de ceva inocent. Dependența ducea la rezultate pe care Jonathan Haidt le confirmă în cartea „The Anxious Generation”: creșteri ale depresiei, anxietății, tendințe de sinucidere.
Cazul din acest proces este al unei adolescente care acum are 20 de ani. Ea a folosit YouTube de la 6 ani și Instagram de la 9, deși vârsta legală era de 13 ani. A acuzat probleme legate de depresie și tendințe de sinucidere. Părinții au devenit foarte îngrijorați. În fața tribunalului au ieșit, în principal, mamele, care au susținut că ceva nu este în regulă.
Cum spunea și Jonathan Haidt, adolescenții au creierul în formare în acea perioadă și sunt foarte dependenți de aprobarea socială. Fetele erau foarte dependente de cum sunt privite – dacă arată bine sau nu. Și asta conducea, pe lângă depresie și anxietate, la tulburări de alimentație. Sunt lucruri concrete, nu speculații.
Reporter: Vedem asta și pe TikTok zilele acestea. Este un trend care se numește „skinnytok” și le afectează pe fetele care sunt un pic mai plinuțe – toate vor să fie slabe ca cele de pe TikTok...
Corneliu Bjola: Și nu pot. Chiar dacă fac efort, nu pot. Intră într-o depresie și de aici se dezvoltă toată situația. Verdictul a stabilit că exista un design adictiv ca strategie, făcut cu intenție, și care mergea direct la Zuckerberg.
Reporter: Deci știau ce fac.
Corneliu Bjola: Știau exact ce fac. Și ce e mai interesant este că în timpul procesului s-a făcut paralela cu companiile de țigări din anii '80. Chiar în documentele interne apăreau comentarii de la angajați ai Meta: „Parcă suntem precum companiile de țigări”. Sau vorbeau de faptul că Instagramul a devenit ca un drog și „noi suntem dealerii”.
Paralela cu țigările este relevantă: companiile de țigări în anii '80 lucrau cu nivelul de nicotină ca să facă consumatorul cât mai dependent. De asemenea, făceau o reclamă falsă – spuneau, de exemplu, că țigările light nu sunt la fel de problematice.
Același lucru s-a discutat în tribunal: se foloseau instrumente pentru a face platforma cât mai adictivă, astfel încât adolescenta să stea cât mai mult online. Și, la fel ca în cazul țigărilor light, produsele erau prezentate ca absolut sigure, deși existau studii interne care spuneau contrariul.
Acesta este cazul de precedent – un tribunal din Los Angeles a luat această decizie zilele trecute. La o zi după, un tribunal din Arizona a dat o amendă de 375 de milioane de dolari, tot lui Meta, pentru că nu au protejat copiii pe Facebook de prădători sexuali.
Cazul din Arizona era pe altă temă – exploatarea sexuală –, dar se vede același tipar: obsesia de a aduce cât mai mulți utilizatori, competiția de a merge cât mai jos cu vârsta, fără interes pentru efectele psihologice negative asupra tinerilor.
Reporter: Credeți că acest val de procese va reuși să-i convingă să-și schimbe politicile, având în vedere că sunt companii foarte puternice?
Corneliu Bjola: Amenda din cazul tinerei care acum are 20 de ani este mică comparativ cu ce câștigă Meta – trei milioane de dolari. Dar pe rol mai sunt încă vreo 2.000 de petiții. Cele trei milioane au stabilit o bară, un nivel de pornire pentru restul proceselor. Meta s-a luptat foarte mult să nu se creeze un precedent, pentru că la un moment dat se poate sparge barajul.
Companiile de țigări în anii '80 nu credeau că e mare problemă când au pierdut unul-două procese. S-ar putea să fie diferit aici – sunt diferite jurisdicții, diferite state.
Reporter: Efectele acestor procese se vor vedea și în Europa?
Corneliu Bjola: Când vorbim de Europa, designul adictiv este menționat în Digital Services Act. Asta ar putea reprezenta un precedent foarte bun pentru europeni, care deja interzic și au luat măsuri – de exemplu, la TikTok. Problema cu Meta era că, dacă europenii acționau, se deschidea o dispută diplomatică cu Statele Unite. Acum, un tribunal american a creat un precedent care va fi mai greu de ignorat. Dacă americanii invocă: „De ce voi, europenilor, acționați împotriva tehnologiilor americane?”, răspunsul este: „Chiar voi ați stabilit acest lucru”.
La nivel european, sunt câteva state care au acționat – Franța, Australia, Spania. În România s-a ales o legislație care lasă problema în spatele părinților. E foarte greu să te lupți cu cineva care este dependent. Tinerii trebuie să fie ajutați. Ideea de „a te ascunde după libertatea de expresie” este o scuză penibilă, cum s-a văzut și în acest caz – Meta a încercat să meargă în direcția asta, dar scuza le-a fost imediat eliminată.
Vorbim de dependență intenționată, strategic organizată, în care compania, deși știe că face rău și afectează psihologia unui tânăr, neglijează acest lucru pentru bani. În Statele Unite au încercat să convingă Congresul să modifice legislația. Vom vedea. Dar în Europa, Digital Services Act ar putea funcționa mai bine decât ce a făcut Parlamentul românesc, care a aruncat totul pe părinți.
Sper că, în planul românesc, CNA-ul ar putea monitorizeze ce se întâmplă. Nu știu cine este implementatorul Digital Services Act în România – s-ar putea să fie ANCOM-ul. ANCOM-ul și CNA-ul nu sunt foarte eficiente și nu au resurse importante. Dar aceasta este o prioritate – vorbim de viitorul unei societăți.
Reporter: Am citit zilele trecute un articol despre psihoza indusă de inteligența artificială – oameni fără un istoric de boli mintale și-au băgat toți banii în afaceri sugerate de chatboți, au divorțat, au fost internați. Pentru că așa le-au spus chatboții cu care credeau ei că s-au împrietenit. Și mi se pare că România este în urmă legat de problema asta.
Corneliu Bjola: Absolut. Ăsta ar fi următorul pas. Acum mă bucur că am văzut un verdict care a durat ceva timp. Suntem în 2026 și deja a afectat, în diferite măsuri, o generație – cum spunea Jonathan Haidt, cu multe probleme. Astea sunt platformele de socializare.
Ce vine acum? Inteligența artificială. Suntem la început, dar deja au apărut psihoze, unele asociate cu sinucideri. Este cazul din 2023 din Belgia, cu o persoană care vreo șase săptămâni a discutat cu un chatbot. Genul acesta de platforme întotdeauna vine și pe un fond problematic – când ai deja o vulnerabilitate, ți-o amplifică. Chatbotul l-a convins că trebuie să se sacrifice pentru a salva planeta, că vor trăi împreună în paradis. O persoană labilă poate comite un astfel de gest. Ajungem la eliminare fizică, nu doar la formare comportamentală.
Cu AI-ul suntem la început, la fel cum eram cu platformele de socializare acum 10 ani. Trebuie demonstrată o legătură între folosirea lor și anumite comportamente. Deja o simțim, vedem cazuri anecdotice. Sunt câteva procese pe rol – este un adolescent din Olanda, un proces în care ChatGPT a fost implicat. Vom vedea care va fi decizia.
În momentul de față, Anthropic este compania care se mândrește cel mai mult că este cea mai etică. Dario Amodei, CEO-ul Anthropic, de la Claude, a fost șeful de cercetare la OpenAI și a plecat pentru că era nemulțumit că OpenAI nu introducea safeguard-uri suficient de clare. Faptul că pleacă bine și au învățat o parte din lecțiile platformelor de socializare este un element foarte bun.
E important de înțeles cine sunt cei mai vulnerabili. Pe platformele de socializare, problema esențială pleacă de la adolescenți.
Reporter: Și cine sunt cei vulnerabili când vorbim de inteligența artificială?
Corneliu Bjola: Instrumentele de inteligență artificială sunt foarte utile din multe puncte de vedere. Un studiu a arătat că o parte din cei care au un minimum de training pe AI – vreo 18% - sunt foarte sceptici, nu înțeleg cum funcționează și sunt mai precauți. Bine. Mai este o categorie, cam 40%, care au educație suficientă, trei-șase luni, și folosesc AI-ul cu un scepticism sănătos. Problema era la vreo 20% - cu educație minimă pe AI. Adică vezi puțin cum lucrează ChatGPT-ul, îți place, începi să lucrezi și accepți recomandările necritic.
Acel 20% este categoria cea mai problematică. Dacă ne gândim la oameni care lucrează într-un Minister de Apărare, de Externe sau în alt minister, și folosesc rapoarte fără să știi dacă cel care le-a produs folosește AI-ul total necritic – e o problemă serioasă. Trebuie informare și discuție despre ce este bun, care sunt limitele și cum poate fi gestionat.
Pe platformele de socializare nu se făcea educație în școli despre riscuri. Pe AI, să nu ne trezim cu surprize mai târziu, cu decizii proaste, și pe urmă să vină cineva să spună: „De ce ai făcut asta?” – „Pentru că mașina mi-a zis așa”.
Tehnologiile noi se dezvoltă fenomenal de rapid – trebuie multă atenție. Da, trebuie folosite. Oportunitățile sunt reale, nu e vorba să abandonăm. Dar trebuie multă precauție, având în vedere riscurile și dependența pe care aceste instrumente le pot crea.
Cu AI-ul s-ar putea să apară un anumit tip de dependență. E încă devreme, sunt câteva cazuri. Un caz în America mi-a atras atenția – o persoană care a dat în judecată ChatGPT pe motive de depresie. A acuzat că i-a creat o falsă impresie despre sine, că e un fel de geniu. ChatGPT-ul l-a convins că e pe punctul de a descoperi o teorie despre cum să călătorești cu peste viteza luminii. S-a simțit extraordinar, super-confident, și la un moment dat a realizat că totul era o iluzie – o bulă fără bază. De aici a venit acuzația de depresie.
Poate că acest caz nu a condus la consecințe la fel de grave, dar pot apărea altele. Sunt elemente care sugerează că ceva se întâmplă. Avem nevoie de un scepticism sănătos – să verificăm întotdeauna ce ni se spune.
Cei care fac training de trei-șase luni învață să întrebe: „Cum ai ajuns la această concluzie? Ce date ai folosit? De ce așa și nu altfel?”. Nu trebuie să iei niciodată de bun ce ți se spune. Trebuie să verifici. Și eventual să reglezi instrumentul, să devină mai puțin lingușitor. Dacă e lingușitor, e foarte seductiv – iar noi, din dorința de validare, devenim mult mai necritici.
Va fi interesant modul în care relația pe care o dezvolți cu AI-ul se convertește în relațiile cu semenii. Dacă devii super-confident că ești geniu, cum se traduce asta în relația cu ceilalți? Îi consideri pe toți mediocri și-i tratezi de sus? Sunt chestii care vor trebui studiate. Deocamdată n-avem studii pe acest gen de probleme, dar putem intui anumite direcții.