Riportiamo in traduzione italiana l’editoriale di Ray Acheson dal titolo Taking on the War-Builders apparso il 14 marzo nel volume 11, n. 2 del “CCW Report” (CCW, Convention on Certain Conventional Weapons) a cura della WILPF e del suo programma per il disarmo, Reaching Critical Will (pp. 1-4). Una traduzione è apparsa recentemente anche in “DEP. Deportate, esuli, profughe”, rubrica Finestra sul presente. Si tratta di un resoconto dell’ultima riunione del GGE (Group of Governmental Experts) tenutasi nel marzo scorso a Ginevra sul tema delle armi autonome (quelle costruite per attaccare gli obiettivi senza l’intervento umano). Ray Acheson, direttrice del programma per il disarmo della WILPF e autrice di due importanti volumi sul rapporto tra femminismo e disarmo – Banning the Bomb, Smashing the Patriarcy (2021) e Abolishing State Violence: A World Beyond Bombs, Borders, and Cages (2022) – negli ultimi anni ha esposto la sua visione femminista sulle armi autonome in due rapporti di Reaching Critical Will (RCW) pubblicati con il sostegno di Stop Killer Robots: Autonomous Weapons and Patriarchy e Autonomous Weapons and Gender Based Violence.
La prima sessione del 2023 del GGE (Gruppo di esperti governativi) sui sistemi d’arma autonomi (AWS), organizzata nell’ambito della CCW, si è riunita dal 6 al 10 marzo a Ginevra. Sulla base di una nuova serie di proposte per l’esame e il dialogo su una serie di questioni chiave, la settimana ha visto alcuni notevoli sviluppi nelle posizioni degli Stati, come ha osservato Stop Killer Robots nelle sue osservazioni conclusive. Tuttavia, gli Stati fortemente militarizzati e alcuni dei loro alleati continuano a bloccare attivamente lo sviluppo di norme giuridicamente vincolanti, nonostante il sostegno da parte di una maggioranza schiacciante per un nuovo strumento volto a vietare e regolamentare i sistemi di armi autonome a protezione dell’umanità.
Resta da vedere cosa riuscirà a fare il GGE quest’anno; lo attendono ancora cinque giorni di lavoro formale e due consultazioni informali virtuali. Ma in base alle discussioni della scorsa settimana, non c’è ancora un chiaro percorso di avanzamento per la CCW che si basa sul diritto di veto.
Mezze misure e tautologie
Mentre alcune proposte e dichiarazioni presentate in questa sessione del GGE indicano un avanzamento nel modo di pensare e di affrontare la questione dei sistemi d’arma autonomi, altre hanno evidenziato ancora una volta quanto alcuni governi siano disposti a fare per impedire qualsiasi limitazione allo sviluppo o all’uso di queste armi.
Una categoria di Stati si colloca a metà strada tra la volontà di bloccare qualsiasi progresso e quella di concedere qualche avanzamento significativo. Il Canada, ad esempio, nonostante il mandato governativo che impegna a sostenere la messa al bando delle armi autonome, ha scelto di appoggiare la proposta avanzata dagli Stati Uniti volta a stabilire linee guida su base volontaria per l’attuazione del diritto internazionale umanitario in relazione ai sistemi d’arma autonomi. La delegazione canadese ha sostenuto la scorsa settimana che tali linee guida o impegni politici non si escludono a vicenda in caso di un futuro strumento giuridicamente vincolante quando gli Stati avranno raggiunto un accordo sulle definizioni di AWS. Tuttavia, questa argomentazione non tiene conto del fatto che la ricerca di definizioni comuni è stata intenzionalmente differita da alcuni Stati per impedire lo sviluppo di norme giuridiche che potrebbero impedire la produzione e l’uso di queste armi.
Un altro attore che si colloca a metà strada è la Francia che continua a insistere sul suo orientamento a due livelli secondo il quale le armi completamente autonome dovrebbero essere proibite, mentre tutte le altre armi autonome dovrebbero essere regolamentate. Tuttavia, la sua concezione di arma completamente autonoma è quella di un’arma che opera completamente al di fuori di ogni controllo umano e di una catena di comando responsabile. Come osserva l’organizzazione non-governativa Articolo 36, questa è una “base fantastica e non utile per una distinzione”. Verosimilmente, i sistemi di armi autonome che questa caratterizzazione potrebbe includere non possono esistere perché un’arma non può essere sviluppata, dispiegata o utilizzata senza una qualche forma di impegno umano all’interno di una catena di comando; in altri termini, nessun sistema rientrerebbe nella categoria di armi completamente autonome, ad eccezione forse di quelle costruite e dispiegate da altre macchine. Questa potrebbe essere una questione nel futuro distopico che alcuni di questi Stati stanno tenacemente cercando di costruire, ma non è il problema attuale.
Il problema, in questo momento, è che sono gli esseri umani a cercare di costruire macchine in grado di selezionare autonomamente i bersagli (inclusi gli esseri umani) e di colpirli (uccidendo, ferendo, o facendo esplodere le infrastrutture) sulla base di sensori e software e non del giudizio umano. Alcuni governi, come Israele, insistono addirittura sul fatto che non è necessaria alcuna forma di controllo umano sulle armi. Il controllo umano non è un obbligo previsto dal diritto internazionale umanitario (DIU), ha sostenuto la delegazione israeliana la scorsa settimana, affermando che le norme del DIU non prescrivono le modalità che gli stati dovrebbero adottare per il loro rispetto.
Naturalmente, è per questo motivo che gli Stati hanno cercato di creare orientamenti per l’attuazione del diritto internazionale umanitario attraverso altri trattati e accordi, tra cui la proibizione e la regolamentazione delle armi attraverso la CCW.
Come hanno osservato le delegazioni di Messico e Cile, l’idea che non sia necessaria alcuna ulteriore regolamentazione dei sistemi d’arma autonomi annulla la motivazione stessa dell’esistenza del CCW o di altri trattati sul disarmo e sul controllo degli armamenti. Il mondo sarebbe abbandonato a un aumento di morte, distruzione e discriminazione poiché i governi fortemente militarizzati e violenti perseguono lo sviluppo di mezzi e metodi di guerra che allontanano sempre più l’umanità da sé stessa.
“Siamo pronti per un mondo in cui le decisioni sulle vite umane saranno sostituite dall’apprendimento automatico?”, ha chiesto la scorsa settimana la delegazione del Perù, che ha espresso il proprio rifiuto allo sviluppo e all’uso di armi che “sparano da sole” o in cui un software di intelligenza artificiale “preme il grilletto” utilizzando il riconoscimento facciale per determinare i propri obiettivi. L’Irlanda ha affermato che “cedere il controllo agli algoritmi non è un’opzione” e ha aggiunto che delegare alle macchine la decisione di togliere la vita non è coerente con le leggi, le norme o i valori che l’umanità ha sviluppato collettivamente. L’Ecuador ha rilevato che gli AWS disumanizzerebbero ulteriormente i conflitti armati e li favorirebbero, mentre il Cile e il Messico hanno ribadito che queste armi aggraverebbero le discriminazioni, rappresenterebbero una grave minaccia per la pace e la sicurezza internazionale, faciliterebbero una nuova corsa agli armamenti, incoraggerebbero l’uso di altre armi disumane e destabilizzanti e comprometterebbero gli impegni per il raggiungimento del disarmo generale e completo.
Ma gli Stati che stanno cercando di sviluppare e impiegare gli AWS si rifiutano di riconoscere una qualsiasi di queste preoccupazioni. Al contrario, come nel caso della Francia, sono disposti a proibire armi che non possono esistere. La Russia, facendo una proposta altrettanto inverosimile, ha suggerito che le proibizioni sono necessarie solo per le armi per le quali è chiaramente dimostrato che il loro uso sarebbe così distruttivo che in nessun caso potrebbero rispettare i principi chiave del diritto internazionale umanitario. Ma, ha argomentato la Russia, poiché ci sono molte armi che già operano con alti livelli di autonomia, è possibile che esse in determinate circostanze siano utilizzate.
Si tratta di un’argomentazione contorta che, ancora una volta, fissa uno standard talmente elevato da rendere impossibile la proibizione delle armi autonome. Questo approccio implica anche che la Russia e gli altri Stati militarmente violenti usino sempre le loro armi in conformità con il diritto internazionale umanitario, il che chiaramente non è vero, nonostante le loro ripetute affermazioni di tenere il diritto internazionale umanitario nella massima considerazione. Alcune delegazioni, come quelle degli Stati Uniti e del Giappone, sostengono addirittura che l’adozione delle armi autonome favorirà il rispetto del DIU. Il Giappone ha ribadito la sua fiducia nei benefici delle armi autonome poiché consentiranno un’analisi e un’elaborazione più rapida dei dati, contribuendo a migliorare la precisione, l’accuratezza e la velocità della mira.
Costruire un mondo di guerra
Alla base di tutte le argomentazioni di questi Stati c’è la visione di un mondo in guerra. Invece di lavorare per costruire un mondo di pace, essi stanno attivamente costruendo un mondo di guerra e sostengono che un’elaborazione più rapida dei dati in guerra è un fatto positivo: permetterà loro di uccidere di più e di distruggere più rapidamente. Con questa premessa alla base dello sviluppo delle armi, le revisioni legali nazionali, “le vigorose sperimentazioni sul campo” e l’addestramento degli operatori di sistema non faranno la differenza. Le armi non salvano le vite. Le armi sono progettate e utilizzate per uccidere e distruggere; aumentare la loro autonomia aggiungendo algoritmi o software di apprendimento automatico non cambia questo fatto fondamentale, ma toglie solo il controllo dell’uccisione agli esseri umani.
Come ha affermato la delegazione del Venezuela, è controproducente affermare che potrebbero esistere alcuni sistemi di armi che potrebbero migliorare l’attuazione del diritto internazionale umanitario, perché lo scopo del diritto internazionale umanitario è quello di limitare la sofferenza umana, che è insita nei conflitti armati, e le armi non regolamentate portano a violazioni del diritto internazionale umanitario.
La sfida di “confidare nel processo”
In risposta a coloro che continuano a sostenere che il diritto internazionale umanitario esistente è sufficiente o che non sono necessarie norme giuridicamente vincolanti, la Palestina ha osservato che tutte le condizioni riconosciute virtualmente importanti da tutti gli Stati che partecipano al GGE – la prevedibilità, la comprensibilità, la rintracciabilità e altro ancora – non sono codificate nel diritto internazionale umanitario esistente, perché l’umanità non ha dovuto confrontarsi con l’autonomia quando il diritto internazionale umanitario è stato formulato per la prima volta. Quando nasce una nuova tecnologia, ha sostenuto la Palestina, è naturale che sorgano nuovi aspetti che devono essere codificati. Il diritto internazionale umanitario non esisteva prima della sua formulazione, il che significa che coloro che fissarono le norme del diritto internazionale umanitario non hanno sostenuto che, quando le regole non esistono, non dovremmo svilupparle. Mentre il mondo si evolve, le regole per vivere al suo interno non possono rimanere statiche.
La Palestina ha anche esortato tutte le delegazioni ad impegnarsi in un esperimento di immaginazione supponendo di non conoscere quale Paese stiano rappresentando – grande o piccolo, produttore o importatore di armi, in guerra o in pace. Da questa prospettiva, ha chiesto il delegato palestinese, cosa farebbe ogni delegazione? I sistemi di armi autonome devono essere analizzati da questo punto di vista, non già a partire da ristretti interessi nazionali, ma concentrandosi sugli interessi dell’umanità nel suo complesso.
In risposta alla Palestina, gli Stati Uniti hanno affermato che gli Stati dovrebbero “confidare nel processo” multilaterale in cui si trovano in questo momento, il che implica che ogni delegazione si presenterà con prospettive diverse. La stragrande maggioranza degli Stati, ovviamente, ha cercato di avere fiducia nel processo. Per dieci anni si sono impegnati nelle discussioni della CCW, anche se le opzioni della stragrande maggioranza vengono bloccate ogni singolo anno dagli interessi ristretti di una piccola minoranza. Ma è sempre più difficile confidare in un processo che non riesce nemmeno ad adottare rapporti che riflettano le opinioni della maggioranza su argomenti chiave, per non parlare di iniziare a lavorare su un risultato concreto nonostante il suo mandato lo preveda.
È anche estremamente difficile fidarsi degli Stati che stanno attivamente ritardando o impedendo l’azione per lo sviluppo di regole giuridicamente vincolanti, quando questi paesi stanno bombardando città e paesi in violazione del diritto internazionale umanitario, quando hanno usato droni armati per colpire matrimoni e funerali, quando stanno già impiegando il riconoscimento facciale sui droni e quando hanno passato gli ultimi otto decenni a costruire enormi complessi militari-industriali, a trarre profitto dalla produzione e dalla vendita di armi e a sperimentare e modernizzare le armi nucleari in violazione del diritto internazionale. È difficile “confidare nel processo” quando gli Stati che sviluppano sistemi di armi autonome affermano che solo il diritto internazionale umanitario è applicabile e che questo forum non può prendere in considerazione l’applicazione del diritto internazionale dei diritti umani mentre militarizzano le loro forze di polizia e introducono dispositivi esplosivi autonomi, come i cani robot, o software discriminatori di polizia predittiva e algoritmi di riconoscimento facciale nei loro dipartimenti di polizia e nei meccanismi di applicazione delle norme alle frontiere.
È difficile confidare nel processo quando gli Stati Uniti costruiscono Cop City, un complesso per addestrare la polizia di tutto il mondo alle tecniche di guerra urbana con le più recenti attrezzature militari; o mentre l’esercito statunitense contratta con le università per sviluppare e sperimentare armi autonome nei campus di tutto il Paese. È difficile confidare nel processo quando Israele utilizza l’intelligenza artificiale sulle armi ai posti di blocco e rade al suolo illegalmente i quartieri palestinesi per espandere il proprio Stato coloniale in violazione del diritto internazionale; o quando la Russia, che ha lanciato una guerra contro l’Ucraina, da un anno bombarda senza sosta i civili e usa armi proibite. Solo per fare qualche esempio.
Come è stato già osservato, questi Paesi stanno costruendo un mondo di guerra, per la guerra. Stanno creando attivamente sia le condizioni per i conflitti, sia gli strumenti di violenza per reprimerli. Più questi governi investono in questo mondo, più ci allontaniamo dal diritto internazionale, dall’etica, dalla morale, dai diritti e dalla dignità. Le norme per la pace, la giustizia e l’uguaglianza che l’umanità ha costruito collettivamente nel corso di molti anni vengono distrutte da chi cerca potere e profitto dalla sofferenza umana.
Come ha osservato la scorsa settimana il progetto AutoNorms del Centro per gli studi sulla guerra dell’Università della Danimarca meridionale, “mentre un numero crescente di tecnologie autonome di intelligenza artificiale viene integrato in diverse piattaforme di armi e queste piattaforme proliferano a livello globale, un certo grado di diminuzione del controllo umano rischia di diffondersi e affermarsi silenziosamente e diventare normativo! Questa diffusione silenziosa di norme che si allontanano dal controllo umano sta avvenendo al di fuori della GGE e dell’opinione pubblica. Mentre “il processo” in cui dovremmo avere fiducia langue a Ginevra, i sistemi di armi autonome vengono impiegati nel mondo reale.
In questo contesto, le mezze misure poco ambiziose proposte dagli Stati “di mezzo” sono insufficienti e il rifiuto da parte degli Stati fortemente militarizzati di riconoscere la necessità di qualsiasi misura è inaccettabile. L’incontro regionale tenutosi in Costa Rica a febbraio sull’impatto sociale e umanitario delle armi autonome ha dimostrato ciò che si può e si deve fare. È chiaro che c’è una crescente convergenza sulla necessità di proibire e regolamentare i sistemi di armi autonome attraverso strumenti giuridicamente vincolanti. Gli Stati devono tracciare una chiara linea morale e legale contro le macchine che uccidono gli esseri umani e contro ulteriori investimenti nel mondo della guerra. È finito il tempo della mancanza di determinazione e delle mezze misure; è arrivato il momento della negoziazione per un trattato.
Questo articolo è stato pubblicato su Comune il 9 aprile 2023