
Războiul SUA–Israel împotriva Iranului a fost descris drept „primul război al IA”. Însă utilizările recente ale inteligenței artificiale reprezintă, de fapt, cea mai nouă etapă dintr-o lungă istorie a dezvoltărilor tehnologice care pun accent pe nevoia de viteză în „procesul militar de ucidere” (eng. kill chains).
„Șaizeci de secunde – atât a fost nevoie”, a susținut un fost agent al Mossadului israelian despre atacurile care l-au ucis pe liderul suprem al Iranului, ayatollahul Ali Khamenei, pe 28 februarie 2026, în prima zi a războiului SUA–Israel împotriva Iranului.
Viteza și amploarea războiului au fost semnificativ amplificate prin utilizarea sistemelor de IA. Dar această nevoie de viteză aduce riscuri serioase atât pentru civili, cât și pentru combatanții militari.
Operațiunile militare moderne produc și se bazează pe o cantitate enormă de informații. Aceasta include interceptarea de apeluri telefonice și mesaje text, supravegherea în masă a Internetului (cunoscută sub denumirea de SIGINT - signals intelligence), precum și imagini satelitare și fluxuri video de la drone care survolează zona. Toate aceste informații pot fi privite ca date, iar problema este că sunt prea multe.
Încă din 2010, Forțele Aeriene ale SUA erau preocupate de faptul că „înoată în senzori și se îneacă în date”. Prea multe ore de filmări și prea mulți analiști care să le examineze manual.
Sistemele de IA pot accelera dramatic analiza informațiilor militare. Brad Cooper, șeful Comandamentului Central al SUA (CentCom), a confirmat recent utilizarea unor instrumente de IA în războiul împotriva Iranului, afirmând că „Aceste sisteme ne ajută să filtrăm cantități uriașe de date în câteva secunde, astfel încât liderii noștri să poată elimina zgomotul și să ia decizii mai inteligente mai rapid decât poate reacționa inamicul… Instrumentele avansate de IA pot transforma procese care înainte durau ore și uneori chiar zile în câteva secunde”.
În 2024, o investigație a Universității Georgetown a constatat că Corpul 18 Aeropurtat al armatei SUA a utilizat IA pentru a sprijini procesarea informațiilor – reducând o echipă de 2.000 de oameni la doar 20.
Atracția vitezei
În al Doilea Război Mondial, ciclul de stabilire a țintelor – de la colectarea imaginilor până la elaborarea pachetelor de ținte, completate cu rapoarte de informații – putea dura săptămâni sau chiar luni. Dar, în deceniile următoare, armata SUA a urmărit ceea ce a numit „comprimarea procesului de ucidere” – scurtarea timpului dintre identificarea unei ținte și folosirea forței împotriva acesteia.
În timpul primului război din Golf, în 1991, președintele Irakului, Saddam Hussein, a folosit lansatoare mobile de rachete care se deplasau prin deșert și lansau rachete Scud. Până când radarul SUA identifica locația, lansatorul putea fi deja la kilometri distanță. Această tactică de tip „trage și fugi” a impus dezvoltarea unor noi tehnologii pentru urmărirea acestor ținte mobile.
Un progres esențial a venit la scurt timp după atacurile din 11 septembrie, sub forma dronei Predator înarmate.
În noiembrie 2002, CIA l-a vizat și l-a ucis în Yemen pe liderul Al-Qaida, Qaed Salim Sinan al-Harithi. Acest moment a inaugurat o nouă eră a războiului, în care drone pilotate din baze militare din SUA survolau de la distanță cerul Yemenului, Somaliei, Pakistanului, Irakului, Afganistanului și altor regiuni.
Camerele puternice ale dronelor puteau capta imagini video de înaltă rezoluție și le transmiteau înapoi în SUA prin satelit în câteva secunde, permițând operatorilor să urmărească ținte mobile. Aceeași dronă care avea ținta în vizor putea lansa rachete pentru a o distruge.
Cu cât viteza este mai mare, cu atât riscul crește
În urmă cu două decenii, ideea că epoca viitoare a războiului cibernetic ar putea aduce „bombardamente la viteza gândului” – expresie formulată de istoricul american Nick Cullather în 2003 – putea fi ușor respinsă ca exagerare. Totuși, odată cu apariția războiului bazat pe IA, ceea ce părea de neconceput a devenit aproape depășit.
O parte din impulsul pentru utilizarea IA provine din convingerea că gândirea umană nu poate concura cu viteza de procesare a sistemelor de IA. Strategia de inteligență artificială a Departamentului Apărării al SUA afirmă: „IA militară va fi o cursă în viitorul previzibil și, prin urmare, viteza câștigă … Trebuie să acceptăm că riscurile de a nu acționa suficient de rapid depășesc riscurile unei alinieri imperfecte.”
Deși utilizările precise ale IA de către SUA și alte armate sunt învăluite în secret, au fost făcute publice informații care evidențiază riscurile pentru populația civilă.
În Gaza, potrivit unor surse din serviciile de informații israeliene, sistemele de IA Lavender și Gospel au fost programate să accepte până la 100 de victime civile (și uneori chiar mai multe) pentru o lovitură asupra unui singur presupus combatant Hamas. Se estimează că peste 75.000 de oameni au fost uciși acolo din 7 octombrie 2023.
În februarie 2024, un atac aerian al SUA a ucis un student de 20 de ani, Abdul-Rahman al-Rawi. La momentul respectiv, un oficial american de rang înalt a recunoscut că atacurile au folosit un proces de identificare a țintei bazat pe IA – deși, în mod confuz, armata SUA afirmă acum că „nu are cum să știe” dacă IA a fost utilizată în anumite lovituri aeriene.
Riscul este ca IA să reducă pragul sau costul declanșării războiului, pe măsură ce oamenii ajung să joace un rol tot mai pasiv în verificarea și aprobarea automată a deciziilor generate de IA.
Integrarea IA în lanțurile de ucidere militare se intersectează cu alte evoluții îngrijorătoare. După ani de inacțiune, armata SUA a petrecut peste un deceniu dezvoltând o infrastructură menită să evite victimele civile în război, însă aceasta a fost aproape complet demontată în timpul administrației Trump.
Juriștii care oferă consultanță armatei în operațiunile de țintire, inclusiv privind respectarea dreptului internațional și a regulilor de angajare, au fost marginalizați sau concediați.
Între timp, de la începutul războiului din Iran, peste 1.200 de civili au fost uciși, potrivit Ministerului Sănătății din Iran. Pe 28 februarie, armata SUA a lovit o școală primară din sudul Iranului, ucigând cel puțin 175 de persoane, majoritatea copii.
Secretarul american al apărării, Pete Hegseth, a fost clar în privința obiectivului militar în Iran: „letalitate maximă, nu legalitate timidă. Efect violent, nu corectitudine politică”.
Cu o astfel de atitudine și prin privilegierea vitezei în detrimentul deliberării, victimele civile devin inevitabile, iar responsabilitatea tot mai greu de stabilit.
Traducere după Iran war shows how AI speeds kill chains de Craig Jones - lector universitar senior în geografie politică la Departamentul de Geografie al Universității Newcastle, și Helen M. Kinsella - profesoară de științe politice și drept în cadrul Departamentului de Științe Politice al Universității din Minnesota.
