Skip to main content

Sistemi d’arma autonomi e il rispetto dei diritti internazionali

di Paolo Di Marcantonio


La ricerca scientifica in campo militare è stata, sin dall’antichità, oggetto di grande interesse da parte di Imperi e Stati che, nel corso del tempo, hanno investito sempre più ingenti quantità di denaro e risorse al fine di raggiungere una egemonia tecnologica che, tra i vari vantaggi, permettesse di avere un peso geopolitico rilevante rispetto alle loro controparti a livello globale.

Ad oggi, molte delle tecnologie da noi utilizzate giornalmente in campo civile, sono derivazioni di ricerche ed invenzioni inizialmente ideate ed implementate con uno scopo esclusivamente militare. Basti pensare, ad esempio, alla rete internet. Originariamente denominata ARPAnet, negli anni ’60 collegava le varie basi militari dislocate nel territorio degli Stati Uniti, con il fine di trasmettere informazioni in maniera decisamente più veloce e sicura rispetto ai vari canali di trasmissione sino a quel momento utilizzati.

1. Droni e l’avvento degli Autonomous Weapons Systems (AWS)

Tra le innovazioni tecnologiche di più recente diffusione in ambito civile, il prodotto sicuramente più conosciuto ed apprezzato risulta il drone, termine con il quale viene comunemente identificato un veivolo pilotato da remoto che permette di semplificare l’acquisizione di informazioni tramite vedute aeree attorno agli operatori che ne controllano il funzionamento.

Inizialmente sviluppati per operazioni di ricognizione militare i droni hanno visto evolversi, nel corso degli ultimi decenni, in strumenti considerati fondamentali per le attività di combattimento “mirate”, ovvero finalizzate a neutralizzare uno specifico bersaglio (o un ristretto gruppo di bersagli) in località considerate non accessibili dalle forze militari “convenzionali”. L’assenza di un pilota, tuttavia, non rende il drone un’arma del tutto autonoma in quanto, con particolare riferimento all’attività decisionale riguardante l’uso della forza, spetta comunque alla catena di comando militare decidere se colpire o meno un determinato obiettivo. L’azione umana, difatti, espone gli Stati – e per esso i soggetti che hanno autorizzato l’operazione militare – a conseguenze giuridiche di diritto internazionale (sul punto, interessante l’articolo[1] pubblicato sul sito da Alessio Azzariti) e di diritto umanitario.

Negli ultimi anni, tuttavia, gli stati più tecnologicamente avanzati hanno iniziato una corsa all’automatizzazione ed indipendenza dei droni[2], unendo il deep machine learning e l’artificial intelligence a sistemi d’arma – sino ad ora pilotati da remoto – che permetta agli stessi di interagire con l’ambiente esterno senza l’intervento diretto di un soggetto che ne controlli l’operato.

Lo sviluppo di questi nuovi sistemi d’arma autonomi ha da subito scosso le organizzazioni civili e gli esperti di diritto internazionale ed umanitario, tanto da spingere le nazioni partecipanti alla revisione della “Convenzione delle Nazioni Unite su certe armi convenzionali” (CCW)[3], nel 2016, alla costituzione di un gruppo di lavoro specifico, formato da esperti governativi individuati delle nazioni partecipanti al progetto, e finalizzato allo studio della effettiva legalità di tali sistemi d’arma in ipotetici futuri conflitti armati.

Il gruppo di lavoro, riunendosi con cadenza annuale, ha visto (come prevedibile), la polarizzazione di due posizioni, riferite al grado di avanzamento dello studio e dello sviluppo di tali sistemi d’arma da parte dei singoli paesi partecipanti[4].

Gli Stati favorevoli all’utilizzo dei sistemi d’arma autonomi in ambito militare portano, a sostegno della legalizzazione, la tesi per la quale i vantaggi introdotti dagli AWS riguardino una minore percentuale di commissione di errori da parte dei droni, in quanto questi ultimi, non essendo spinti da emozioni, porterebbero automaticamente ad una notevole diminuzione di vittime civili e militari nei conflitti armati, soprattutto in situazioni considerate “stressanti” per un operatore umano.

Di opinione opposta sono gli Stati – e le organizzazioni non governative – che si oppongono ad un utilizzo di tali sistemi d’arma. Questi ultimi basano la loro opposizione sul principio del Meaningful Human Control (MHC), il quale può essere riassunto in questi due dettati:

  1. Non è permissibile ad una macchina usare una forza letale senza un diretto controllo umano.
  2. Un operatore che prema il pulsante di “fuoco” a seguito di una indicazione, comunicata questa da un computer, senza che l’operatore possa valutare l’attività decisionale comunicatagli dal computer stesso, non è sufficiente ad essere considerata come un controllo umano sull’operato della macchina[5].

2. La responsabilità in caso di errore – un vuoto giuridico da colmare

Tralasciando la posizione degli Stati sulla legittimità o meno degli AWS, è indubbio come, ad oggi, una totale autonomia decisionale dei droni, con particolare riferimento ai conflitti armati, non possa essere condivisa. Sino a che non verrà adottata una convenzione finalizzata ad individuare i soggetti responsabili per gli errori commessi dagli AWS, le attività poste in essere durante una operazione militare dovranno essere necessariamente giudicate e valorizzate dall’operato e dalla scelta degli esseri umani che, in caso di errore, saranno responsabili per le violazioni di diritto internazionale compiute mediante l’utilizzo dei droni.

Ad oggi, infatti, il diritto internazionale vede nell’attività di “comando” un concetto chiave delle operazioni militari e, di conseguenza, della responsabilità di uno Stato nella violazione di leggi da parte di un proprio veicolo. Ad esempio, secondo l’art. 29 della “Convenzione delle Nazioni Unite sui diritti del Mare”[6], una nave da guerra, per essere considerata tale, deve – tra le varie caratteristiche che la contraddistinguono dalla controparte civile – essere «posta sotto il comando di un Ufficiale di Marina al servizio dello stato e iscritto nell’apposito ruolo degli Ufficiali o in documento equipollente, il cui equipaggio sia sottoposto alle regole della disciplina militare». Stesse regole potrebbero essere individuate con riferimento ai velivoli militari i quali, benché non specificamente regolati da una normativa specifica, individuano le caratteristiche di identificazione negli usi internazionali e nelle normative codificate ma mai ratificate, tra le quali, ad esempio, le “Regole di Hague per il Conflitto Aereo”[7] nel quale si considera, quale requisito essenziale necessario ad identificare un velivolo militare, la presenza di un soldato «debitamente arruolato nel servizio militare dello Stato»[8].

Di conseguenza, gli AWS, qualora risultassero totalmente indipendenti dal controllo umano, porterebbero una macchina a decidere, sulla base degli algoritmi inizialmente installati e sugli autonomi apprendimenti degli stessi sul territorio oggetto del conflitto armato, se e quali condizioni utilizzare la forza letale, accettando un minimo margine di errore che, in talune situazioni, non sarebbe umanamente accettabile – nonché in violazione dei principi cardine di diritto umanitario -. Tuttavia, la totale assenza della figura dell’Ufficiale al comando di questi mezzi porterebbe, come conseguenza, ad una “teorica” deresponsabilizzazione degli Stati in merito alle violazioni realizzate in quanto, come scritto in precedenza, tali veicoli non possono essere individuati (ma nei fatti lo sono) come mezzi militari di una determinata nazione in quanto carenti di un elemento fondamentale per la loro caratterizzazione, il Comando diretto di un Ufficiale appartenente ad una forza armata di uno Stato.

Nonostante queste siano solo alcune delle numerose criticità evidenziate, lo sviluppo di tali armamenti non subirà un arresto. Sono difatti in fase di testing avanzato i primi prototipi di navi da combattimento autonome e di sistemi di difesa terrestre nei confini delle regioni del globo considerate “zone calde” dagli analisti militari. Al momento, quindi, possiamo solo sperare che i programmatori, nell’implementazione degli algoritmi necessari al funzionamento degli AWS, riflettano e considerino le “Tre leggi della Robotica”, stese 70 anni fa, nel 1950 da Isaac Asimov e di seguito riportate:

  1. Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.
  2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge.
  3. Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.

[1] Alessio Azzariti; Attacchi con droni: profili di diritto internazionale –  https://www.cyberlaws.it/2018/attacchi-con-i-droni-profili-di-diritto-internazionale/

[2] Autonomous Weapons Systems (AWS) o talvolta Lethal Autonomous Weapons Systems (LAWS)

[3] Per le pubblicazioni e gli approfondimenti svolti dal Gruppo di Esperti: https://www.unog.ch/80256EE600585943/(httpPages)/8FA3C2562A60FF81C1257CE600393DF6

[4] Interessante l’articolo di Andrea Spagolo, La regolamentazione delle armi autonome: letteratura o diritto?, Fascicolo N. 7 (2018): CONFLITTO, SICUREZZA UMANA E NUOVE TECNOLOGIE, https://www.ojs.unito.it/index.php/human-security/article/view/3579

[5] Roff Heater M. and Moyes Richard, Meaningful Human Control, Artificial Intelligence and Autonomous Weapons – Paper prepared for the Information Meeting of Expert on Lethal Autonomous Weapons Systems, April 2016

[6] LA CONVENZIONE DELLE NAZIONI UNIUTE SUI DIRITTI DEL MARE – 10 dicembre 1982 – Montego Bay

[7] Hague Rules Of Aerial Warfare – Febbraio 1922 – The Hague

[8] Eve Massingham, Simon McKenzie and Rain Liivoja; AI and Machine Learning Symposium: Command in the Age of Autonomy–Unanswered Questions for Military Operations – https://opiniojuris.org/2020/05/01/ai-and-machine-learning-symposium-command-in-the-age-of-autonomy-unanswered-questions-for-military-operations/


Autore:

 

it_IT