10 settembre 2015 17:25

Una volta una delle mie figlie mi ha detto che avrei dovuto indossare una maglietta con su scritto: “Non sostengo la guerra, ma la guerra sostiene me”. In effetti è proprio così.

Mi occupo anche di un sacco di altre cose, ma studio la guerra, scrivo di guerra e vado in guerra (anche se non ho mai combattuto) da sempre, in parte perché le relazioni internazionali sono così pesantemente militarizzate, ma anche perché, per chiunque s’interessi al comportamento degli esseri umani, la guerra è tanto orribile quanto affascinante.

Per questo forse penserete che sia passato subito all’azione quando ho scoperto che quasi tremila “ricercatori, esperti e imprenditori” hanno firmato una lettera aperta per chiedere di fermare lo sviluppo dell’intelligenza artificiale destinata ai “sistemi d’arma letali autonomi” (Laws), ovvero i robot militari, per capirci. Invece, mi è venuto da sbadigliare. I colpi dell’artiglieria pesante sono molto più spaventosi di Terminator.

Tra i firmatari della lettera c’erano alcune celebrità del mondo della scienza e dell’alta tecnologia come Elon Musk di Tesla, il cofondatore di Apple Steve Wozniak, lo scienziato Stephen Hawking, il cofondatore di Skype Jaan Tallinn, il capo di Google DeepMind Demis Hassabis e naturalmente Noam Chomsky. La lettera è stata presentata alla fine di luglio alla Conferenza internazionale congiunta sull’intelligenza artificiale, che quest’anno si è tenuta a Buenos Aires.

C’è il rischio di una corsa globale agli armamenti dotati di intelligenza artificiale

Era chiaro cosa li spaventava: “Il dilemma cruciale per l’umanità oggi è se lanciarsi in una corsa globale agli armamenti dotati d’intelligenza artificiale o scongiurarla. Se una qualsiasi potenza militare decide di portare avanti lo sviluppo di armi con intelligenza artificiale, una corsa globale agli armamenti è praticamente inevitabile, e il punto d’arrivo di questo percorso tecnologico è ovvio: i sistemi autonomi di armamento diventeranno i kalashnikov di domani”.

“Contrariamente alle armi nucleari, esse non hanno bisogno di materie prime costose e rare. Diventeranno quindi onnipresenti e la loro produzione sarà economica per qualsiasi potenza militare. Sarà solo una questione di tempo prima che appaiano sul mercato nero, nelle mani di terroristi, di dittatori che vogliono più controllo sui loro cittadini, di signori della guerra decisi a fare pulizia etnica e così via”.

“Le armi autonome sono ideali per assassinare, destabilizzare nazioni, sottomettere popoli e sterminare in maniera selettiva un particolare gruppo etnico. Per questo motivo riteniamo che una corsa militare agli armamenti dotati d’intelligenza artificiale non sarebbe di beneficio all’umanità”.

Effettivamente no, non sarebbe di beneficio all’umanità. Poche corse agli armamenti lo sono. Ma produrre o meno i sistemi di armi autonome è davvero “il dilemma cruciale per l’umanità oggi”? Probabilmente no.

L’ennesimo e odioso sistema di armamenti

Nel mondo sono in ballo altre questioni che appaiono molto più “cruciali”, come i cambiamenti climatici, le nove guerre civili in paesi musulmani (l’Afghanistan, l’Iraq, la Siria, il sudest della Turchia, lo Yemen, la Libia, la Somalia, il Sudan e il nordest della Nigeria) e, naturalmente, le armi nucleari.

Gli scienziati e gli esperti che hanno firmato la lettera aperta avevano certamente ragione nel chiedere un accordo internazionale che vieti l’ulteriore sviluppo delle armi autonome: un altro strumento ad alta tecnologia con cui uccidere la gente non è esattamente ciò di cui abbiamo bisogno.

Non è impossibile, peraltro, che riescano nel loro obiettivo, anche se sarà molto più difficile che vietare le armi laser accecanti o le bombe a grappolo.

Ma le armi autonome che sono attualmente sviluppate non cambieranno drasticamente il mondo. Non sono “la terza rivoluzione bellica, dopo la polvere da sparo e le armi nucleari”, come un esperto militare le ha enfaticamente descritte. Sono semplicemente un ennesimo e odioso sistema di armamenti.

Alla base della campagna c’è la combinazione di due diverse idee: le armi che uccidono le persone senza che un singolo essere umano partecipi al processo decisionale e la vera intelligenza artificiale.

Quest’ultima cambierebbe sicuramente il mondo, poiché a quel punto ci troveremmo a condividere il nostro pianeta, nella buona o nella cattiva sorte, con le intelligenze non umane. Ma quasi tutte le persone che lavorano nel settore dicono che l’intelligenza artificiale di livello umano è una prospettiva ancora molto lontana, per non dire irraggiungibile.

Per quanto riguarda le armi che uccidono delle persone senza che le vittime siano scelte da altri esseri umani, ne abbiamo già in abbondanza oggi. Dalle mine ai missili a testata nucleare, negli arsenali degli eserciti di tutto il mondo esistono un’infinità di armi che uccidono indiscriminatamente gli esseri umani. Possediamo anche un’ampia gamma di armi che uccidono le persone in maniera selettiva (le armi da fuoco, per esempio), e sappiamo già benissimo come “sterminare in maniera selettiva un particolare gruppo etnico”.

Combinando le armi autonome e la vera intelligenza artificiale si ottiene Terminator, o anche Skynet. Senza quel livello di intelligenza artificiale, quel che si ricava è solo un altro modo di uccidere le persone che, in certi casi, può essere più efficace che impiegare un altro essere umano per farlo. Non è una cosa bella, ma neanche particolarmente nuova.

L’aspetto delle armi autonome che davvero interessa le principali potenze militari è che possono, come l’attuale generazione di droni pilotati a distanza, essere usate impunemente nei paesi poveri. Come i droni, inoltre, non mettono in pericolo la vita dei soldati dei paesi ricchi. Il che è davvero un buon motivo per opporsi alla loro realizzazione. Oltre che, nel caso i paesi poveri si rendessero conto di cosa li aspetta, una buona occasione per organizzare un’ampia coalizione diplomatica che s’impegni a vietarle.

(Traduzione di Federico Ferrone)

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it