L’ AI e il Nuovo Modello di Guerra
di DELFINA ANGELONI ♦
La guerra in Ucraina, Il conflitto fra Israele e Iran e la continuazione strategica del genocidio di Gaza hanno posto in essere e messo in luce nuove prospettive sistemiche e di efficacia per gli interventi militari e la partecipazione ai conflitti. Non solo la strumentazione tecnica dei sistemi d’arma, le dinamiche e le leggi che normano lo stato di guerra, ma anche le premesse di un conflitto e le enormi riformulazioni e aspetti che un conflitto può assumere per essere definito tale.
Il piano della cybersicurezza e l’utilizzo dell’ AI anche nei sistemi d’ armi autonome, si intersecano in prospettive di scontro che potrebbero molto più facilmente evidenziare le vulnerabilità dell’ ecosistema di funzionamento delle nostre strutture sociali e le difficoltà di attribuzione per un attacco cyber; la digitalizzazione nelle nostre società e piani intersecati di funzionamento dei tessuti come quello energetico, dei trasporti, burocratico e di sicurezza si strutturano infatti in dialogo costante e coordinamento grazie al cyber-linguaggio.
La guerra ibrida, operata dalla Russia prima dell’invasione dell’Ucraina anche con campagne di disinformazione e attacchi successivi ai sistemi di approvvigionamento energetico del paese, è stato il più aggiornato e sofisticato metodo per declinare una nuova forma di conflitto in grado di destabilizzare la dimensione sociotecnica della quale le infrastrutture e i sistemi di funzionamento dello Stato si avvalgono. La guerra algoritmica e di attacco cyber non è però l’unica frontiera la cui diretta operatività causata dall’ urgenza strategica di Kiev restringe e in alcuni casi omette le procedure di test, valutazione, verifica e convalida di un’arma. L’operazione che ha consentito all’intelligence israeliana di individuare, monitorare e attaccare la struttura di comando dei Guardiani della Rivoluzione e che ha determinato la morte di Khomeini ha dimostrato la sofisticatezza, la precisione e la vulnerabilità degli attacchi programmati e automatizzati nei processi decisionali e di progettazione grazie alle tecnologie di intelligenza artificiale.
L’ IRIAD L’ istituto Ricerche Internazionali e Archivio Disarmo nel suo rapporto dedicato alla necessità di normare l’utilizzo e il funzionamento dell’AI in ambito militare di Maggio 2025, ha sottolineato la delicata accelerazione di inserimento operativo dell’AI nei circuiti di C2, comando e controllo, dei sistemi d’arma autonomi. A partire da un sistema in cui l’uomo controlla e gestisce le procedure di funzionamento dell’AI in un sistema d’arma, passando ad un circuito di parziale delega decisionale all’ AI e fino ad arrivare rapidamente a sistemi man out of loop, ossia totalmente indipendenti e passivamente ratificati dall’ uomo nel loro impianto decisionale. Il livello di sofisticazione di questi strumenti come di tutti i sistemi d’arma, corre al passo con la loro vulnerabilità e il loro aggiornamento di funzionamento richiederebbe le premesse adeguate nella formazione del personale tecnico specializzato nella loro gestione oltre che delicate problematiche di collegamento e coordinamento operativo con i sistemi d’arma ancora in uso di vecchie tecnologie; un attacco di poisoning, di alterazione degli obiettivi indicati o agli stessi modelli di funzionamento di un sistema AI sarebbe di difficile attribuzione e in un conflitto potrebbe rivelarsi non solo un fatale errore di crisi umanitaria su larga scala ma anche una complicata gestione della responsabilità giuridica che ne consegue; l’ opacità dei sistemi algoritmici e la sfumata partecipazione attiva umana nei processi di comando e controllo e decisionali nei sistemi d’arma, potrebbero rendere ancora più complessa l’attribuzione di responsabilità di un attacco soprattutto in assenza di una normativa e regolamentazione nell’ impiego militare condivisa e a causa di una rapida urgenza di efficacia strategica che l’utilizzo di questi strumenti consente. Rapidità e precisione d’attacco sono le caratteristiche più apprezzate nelle nuove tecnologie dei sistemi d’arma autonomi e vengono considerati elementi di rimodulazione ed equilibrio nella deterrenza.
Oltre a imporre una questione di urgenza etica, lo sviluppo della tecnologia AI per i sistemi d’arma e in ambito generale anche prima della soglia del conflitto fisico con la guerra ibrida, necessita di modulare una normativa adeguata e condivisa anche come fattore di inibizione nel rischio di iper-proliferazione di questi strumenti, nelle urgenti necessità storiche di possibile intervento militare viste nella recente pratica di guerra che ha dissestato le misure e la natura dello scontro giuridicamente stabilite dal Diritto Internazionale: L’Ucraina in tal senso, si è ritrovata a dover produrre circa 4 milioni di droni l’anno anche se per la gran parte artigianali o adattati da tecnologia commerciale. Lo sviluppo e la diffusione della guerra asimmetrica è un rischio molto probabile nello sviluppo di questi sistemi.
In tal senso la deterrenza in ambito nucleare merita un discorso a parte. I sistemi di monitoraggio e di gestione delle emergenze nucleari operate dagli apparati del Pentagono, si avvalgono ad oggi solo parzialmente dell’algoritmo in accentramento che nella sua sensibilità e opacità di processo, renderebbe ancora più farraginosa l’individuazione di falsi attacchi nucleari segnalati come emergenza reale dai sistemi o di attacchi cyber ai modelli di funzionamento così da rendere pericolosa e offuscata anche la valutazione del secondo attacco nucleare di risposta, come prevede il protocollo di funzionamento nello scontro nucleare.
I codici della tecnologia quantica, nel frattempo, potrebbero strutturare una migliorata comunicazione militare sia in termini di rapidità che in termini quantitativi e qualitativi. Rendendo le escalation molto più accelerate.
Il Libro Bianco del 2025 è l’accordo europeo di investimento condiviso sulla creazione di un sistema di difesa integrato e modulare senza rischio di duplicazione con le funzioni della NATO. Il documento intende far procedere gli Stati Europei all’ aggiornamento dei sistemi d’arma anche grazie a fondi economici che evitino il rischio di deficit, sostengano investimenti privati e scambi interni al mercato Europeo, lo sviluppo di infrastrutture logistiche militari digitalizzate, la creazione di infrastrutture di mobilità militare che consentano lo spostamento dei comparti in territorio europeo, la cybersicurezza e i finanziamenti per la nuova aerea operativa; lo spazio.
Sebbene non esistano indicazioni dirette e condivise sull’utilizzo e una normativa che regoli l’impiego dell’AI in ambito militare, L’ Europa è chiamata a raggiungere gli obiettivi proposti da questo documento entro il 2030.
Le numerose criticità stanno nella scarsità dei fondi, nella ritrosia degli Stati a cedere la propria sovranità nazionale per un progetto di difesa condiviso e integrato e nella gestione del consenso elettorale in merito alle scelte sulla difesa come espressione di una volontà politica.
Nel frattempo, le ampie e recenti possibilità di utilizzo dell’AI in ambito militare sperimentate dal governo americano e lo sviluppo di questa tecnologia da parte anche della Cina, dimostrano l’accelerazione spontanea che il suo impiego potrebbe rischiare se le minacce di intervento di guerra renderanno urgente un coinvolgimento di più Stati.
La piramide degli interessi di potere globali e dello spostamento degli asset politici internazionali si è manifestatamente espressa con gli Epstein File e la praticabilità militare già operativa nell’ utilizzo dell’ AI rischia di aumentare la forbice sociale anche politica, delegando alla sola comunità internazionale l’appello ai valori di una humanitas condivisa e garantita.
L’ assenza di comunicazioni, di internet e la recente minaccia di annichilimento infrastrutturale di Donald Trump al regime dei Pasdaran, dimostra come non sia in realtà possibile escludere la dimensione sociotecnica e quindi il funzionamento e la sopravvivenza della società civile iraniana e internazionale senza una adeguata proporzionalità nelle scelte di attacco militare. Il lento controllo e il difficile intervento americano per una nuova formula politica della governance iraniana realisticamente prevedono un isolamento del tessuto civile e un isolamento della governance del regime senza tener conto del pericoloso potenziale di minaccia alle potenze occidentali che Teheran agisce con la chiusura di Hormuz e gli attacchi ai sistemi di approvvigionamento energetico nella penisola arabica. Questa evidente cecità dimensionale del conflitto ha visto anche l’impiego dell’AI da parte dell’America. Il popolo e la cultura persiana resistono al ricatto americano e alle esecuzioni giornaliere del regime in una società all’ interno della quale è realistico che si stiano formulando soluzioni politiche endogene non necessariamente compiacenti verso l’intervento americano. Continuano i contatti indiretti fra Iran e Stati Uniti, modulati dalle rispettive intelligence incalzate dall’ escalation dei due governi non disposti ad una diplomazia più compenetrata.
Le potenzialità strategiche e tattiche, il rischio paese in uno scenario di guerra e le dimensioni di partecipazione in un conflitto oggi si misurano anche così; nel controllo del funzionamento del tessuto sociotecnico delle strutture cyber e nello sviluppo intersezionale delle tecnologie di intelligenza artificiale in ambito militare, ad oggi un territorio impervio e sperimentale che rischia una operatività “on-fire” su larga scala incontrollato.
DELFINA ANGELONI
