Utilizarea instrumentelor de inteligență artificială pentru a permite atacuri asupra Iranului anunță o nouă eră a bombardamentelor mai rapide decât „viteza gândirii”, au declarat experții, pe fondul temerilor că factorii de decizie umani ar putea fi marginalizați.
Se pare că modelul de inteligență artificială al Anthropic, Claude, a fost folosit de armata americană în avalanșa de atacuri, deoarece tehnologia „scurtează lanțul uciderii” - adică procesul de identificare a țintei până la aprobarea legală și lansarea atacului, scrie The Guardian.
SUA și Israelul, care anterior foloseau inteligența artificială pentru a identifica ținte în Gaza, au lansat aproape 900 de atacuri asupra țintelor iraniene doar în primele 12 ore, inclusiv rachetele israeliene care l-au ucis pe liderul suprem al Iranului, ayatollahul Ali Khamenei.
Analiștii care studiază domeniul spun că inteligența artificială reduce timpul de planificare necesar pentru atacuri complexe – un fenomen cunoscut sub numele de „compresie a deciziilor”, despre care unii se tem că ar putea duce la simpla aprobare a planurilor de atac automate de către experți militari și juridici umani.
În 2024, Anthropic și-a implementat modelul Claude în cadrul Pentagonului și al altor agenții de securitate națională ale SUA, pentru a accelera planificarea războiului. Claude a devenit parte a unui sistem dezvoltat de compania de tehnologie militară Palantir împreună cu Pentagonul pentru a „îmbunătăți consistent analiza informațiilor și a facilita procesele decizionale ale oficialilor”.
„Inteligența Artificială face recomandări cu privire la ce să țintească, ceea ce este de fapt mult mai rapid în anumite privințe decât viteza gândirii”, a spus Craig Jones, lector senior în geografie politică la Universitatea din Newcastle și expert în lanțuri de ucidere, intervievat de jurnbaliștii de la The Guardian. „Deci ai scară și ai viteză, [execuți] atacuri de tip asasinat în același timp în care decapitezi capacitatea regimului de a răspunde cu toate rachetele balistice aeriene. Asta ar fi putut dura zile sau săptămâni în războaiele istorice. [Acum] faci totul deodată.”
Cele mai noi sisteme de inteligență artificială pot analiza rapid munți de informații despre potențiale ținte, de la filmări cu drone la interceptări de telecomunicații, precum și informații umane. Sistemul Palantir folosește învățarea automată pentru a identifica și prioritiza țintele și a recomanda armament, ținând cont de stocuri și de performanța anterioară împotriva unor ținte similare. De asemenea, folosește raționamentul automat pentru a evalua temeiurile legale ale unui atac.
„Aceasta este următoarea eră a strategiei militare și a tehnologiei militare”, a declarat David Leslie, profesor de etică, tehnologie și societate la Universitatea Queen Mary din Londra, care a observat demonstrații ale sistemelor militare cu inteligență artificială. De asemenea, el a avertizat că dependența de inteligența artificială poate duce la o „descărcare cognitivă”. Oamenii însărcinați cu luarea unei decizii de atac se pot simți detașați de consecințele acesteia, deoarece efortul de a o analiza a fost depus de o mașină.
Nu se știe ce sisteme de inteligență artificială, dacă există, a integrat Iranul în mașinăria sa de război, deși a susținut în 2025 că folosește inteligența artificială în sistemele sale de țintire a rachetelor. Propriul său program de inteligență artificială, împiedicat de sancțiuni internaționale, pare neglijabil în comparație cu superputerile de inteligență artificială ale SUA și Chinei.
În zilele dinaintea atacurilor iraniene, administrația americană a declarat că va elimina Anthropic din sistemele sale după ce a refuzat să permită utilizarea inteligenței artificiale pentru arme complet autonome sau pentru supravegherea cetățenilor americani. Dar aceasta rămâne în uz până la eliminarea sa treptată. Rivalul Anthropic, OpenAI, a semnat rapid propriul acord cu Pentagonul pentru utilizarea militară a modelelor sale.
„Avantajul constă în viteza de luare a deciziilor, în reducerea planificării de la ceea ce ar fi putut dura zile sau săptămâni înainte la câteva minute sau secunde”, a spus Leslie. „Aceste sisteme produc un set de opțiuni pentru factorii de decizie umani, dar [au] un interval de timp mult mai restrâns... pentru a evalua recomandarea.”
„Implementarea inteligenței artificiale se extinde”, a declarat Prerana Joshi, cercetător la Royal United Services Institute, un grup de experți în domeniul apărării. „Aceasta se realizează în toate sistemele de apărare ale țărilor... în logistică, instruire, managementul deciziilor, mentenanță.”
Ea a adăugat: „IA este o tehnologie care va permite factorilor de decizie și oricui din acest lanț să îmbunătățească productivitatea și eficiența a ceea ce fac. Este o modalitate de a sintetiza datele într-un ritm mult mai rapid, care este utilă factorilor de decizie.”