14 dicembre 2021 09:57

Un “robot assassino” è un’arma letale autonoma capace di decidere di aprire il fuoco senza alcun intervento umano. Oggi non esistono macchine del genere in attività, ma il progresso tecnologico è tale che presto si porrà il problema di come gestire apparecchi di questo tipo.

Fin dal 2014 si discute di vietare i robot assassini. Il 13 dicembre è cominciata a Ginevra una conferenza internazionale che riunisce 125 stati sotto l’egida delle Nazioni Unite, ma nonostante una campagna internazionale che può contare sull’appoggio di numerosi paesi e ong, oltre a quello del segretario generale in persona, le possibilità di successo sono scarse.

Alla vigilia dell’evento il delegato degli Stati Uniti Josh Dorosin si è detto favorevole all’introduzione di un codice di condotta non vincolante, che a suo parere sarebbe uno strumento per incoraggiare un “comportamento responsabile” da parte degli stati. Ma i militanti antirobot respingono questa posizione considerandola ipocrita, e citano il diritto internazionale umanitario per chiedere l’interdizione totale di armi che potrebbero decidere da sole se un essere umano deve vivere o morire.

Armi autonome
Lo sviluppo dell’intelligenza artificiale e di altre tecnologie associate rende possibile una trasformazione degli armamenti paragonabile alla comparsa dell’aviazione o alla proliferazione nucleare. Questa evoluzione permetterà la comparsa di armi programmate che successivamente saranno autonome nel decidere di aprire il fuoco su un obiettivo.

Attualmente un drone armato, anche a centinaia di chilometri di distanza, è comunque controllato da un pilota che decide se aprire il fuoco. Un pilota francese di droni ha raccontato nel dettaglio una missione in Mali al podcast Le collimateur dell’Istituto di ricerca strategica della scuola militare francese: solitamente diversi operatori incrociano le informazioni e attendono una decisione al livello superiore prima di aprire il fuoco. Questo non impedisce irregolarità e vittime collaterali, ma esistono degli individui che controllano il processo.

Affinché un trattato sugli armamenti funzioni serve un minimo di fiducia

Se le armi diventassero autonome sarebbero automatizzati anche le preoccupazioni etiche, i dubbi e il rispetto delle regole della guerra (già oggi difficili da affrontare durante un’azione militare), mentre gli esseri umani sarebbero privati di ogni responsabilità. Questo è precisamente ciò che contestano i sostenitori del divieto.

Le possibilità di ottenere un bando al momento sono minime, anche considerando il clima di tensione internazionale. Affinché un trattato sugli armamenti funzioni serve un minimo di fiducia. “Trust and verify” (fidatevi ma verificate), dicevano i negoziatori del disarmo durante la guerra fredda.

Un approccio simile è molto più difficile nell’era digitale, soprattutto quando la fiducia non esiste. Gli statunitensi sostengono di non voler essere i primi a introdurre armi autonome, ma precisano che se i loro avversari lo faranno allora non potranno permettere che acquisiscano un vantaggio. Cinesi e russi assumeranno senz’altro la stessa posizione. E che dire della Turchia, dell’Iran o della Corea del Nord, potenziali possessori di questa tecnologia?

Il problema è di natura morale ma anche legale. Chi può essere responsabile di un crimine di guerra se l’azione è stata condotta da un’arma autonoma? Inoltre emerge il tema filosofico del rapporto tra essere umano e macchina. L’argomento, insomma, è molto vasto e meriterebbe una mobilitazione dell’opinione pubblica.

(Traduzione di Andrea Sparacino)

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it