17 aprile 2015 11:57

“Robot assassini” è un nome terribile, non credete? Fa pensare alle macchine assassine di Terminator e ai droidi da battaglia di Guerre stellari. “Sistemi autonomi di armi letali” è una definizione molto più elegante, e l’acronimo è ancora meglio: Laws. La conferenza internazionale che si svolge nella sede delle Nazioni Unite a Ginevra dal 13 al 17 aprile parla di questo.

Lasciate perdere i droni. I droni vagano in silenzio nei cieli sulla vostra testa mentre fate un picnic, fino a quando un operatore a molti chilometri di distanza decide che state progettando un attacco terrorista e ordina al drone di polverizzare la vostra famiglia. Ma almeno c’è un operatore, un essere umano inserito nel processo decisionale.

Con i Laws non c’è nemmeno questa componente umana. La macchina si affida ai suoi algoritmi e decide autonomamente se è il caso di uccidervi o meno. Vi consolerà sapere che non esistono macchine di questo tipo, almeno per il momento. Il problema è che i ricercatori di diversi paesi ci stanno lavorando, e probabilmente riusciranno a realizzarle entro i prossimi dieci o vent’anni.

A meno che non decidiamo di vietarle. Questo è il senso della conferenza di Ginevra, a cui parteciperanno diplomatici, esperti di controllo delle armi e specialisti di etica e diritti umani. Se troveranno un accordo, inseriranno l’argomento nel programma del vertice annuale dei paesi firmatari della Convenzione su certe armi convenzionali (Ccw), previsto per il prossimo novembre. Siamo ancora all’inizio, ma abbiamo l’occasione di stroncare questa deriva sul nascere.

Quello della convenzione è un nome bizzarro, ma almeno non è improponibile come quello completo: Convenzione sulla proibizione o la restrizione dell’uso di alcune armi convenzionali che potrebbero essere eccessivamente dannose o avere effetti indiscriminati. La convenzione, comunque, ha già ottenuto buoni risultati, e potrebbe produrne altri.

Il primo protocollo vieta “l’utilizzo di armi il cui effetto primario è ferire attraverso frammenti che non possono essere individuati nel corpo umano attraverso i raggi X”. Il secondo protocollo chiede ai paesi che usano le mine di fare in modo che gli ordigni si disattivino automaticamente dopo un certo lasso di tempo. Il quinto protocollo, aggiunto nel 1995, proibisce l’uso di armi laser che provocano cecità.

Il mondo sarebbe peggiore senza questi protocolli. Per fortuna esistono, e sono generalmente rispettati. Tuttavia nessuna delle armi di cui parlano, pur causando un’enorme sofferenza agli esseri umani, è decisiva per determinare l’esito di una battaglia. Anche per questo il bando è stato così efficace.

Il problema dei robot assassini è che potrebbero essere decisivi in battaglia. Non si stancano, non hanno paura e se li perdi non è una tragedia, perché in fin dei conti sono solo macchine, non c’è nessun essere umano ai comandi. Ma il problema è esattamente questo: non c’è nessun essere umano ai comandi. Vi fidereste di una macchina per decidere della vita di un persona, per stabilire chi è un soldato e chi un civile innocente?

In realtà nemmeno i soldati prendono sempre la decisione migliore su chi uccidere e chi no. Facciamo un esempio: un gruppo di cecchini spara da una casa, e sapete che dentro la casa sono intrappolati anche alcuni civili. Dovete sbarazzarvi dei cecchini per proseguire. Avete due opzioni. Potete inviare una squadra dei vostri soldati per conquistare la casa. Uccideranno i cecchini e la maggior parte dei civili avrà salva la vita, ma perdereste uno o due soldati, persone che conoscete e della cui sopravvivenza siete direttamente responsabili. In alternativa potete chiedere un bombardamento aereo e far saltare in aria tutta la casa. Se pensate che sia una decisione facile, allora non conoscete la natura umana.

Il robot assassino invece entrerà nella casa per uccidere i cecchini senza esitare, e se è programmato bene non ucciderà i civili.

I robot assassini sono una pessima idea, ma non cediamo al romanticismo. Nelle guerre si ammazza la gente, qualcosa che non sarà mai moralmente giusto a prescindere dall’utilizzo di soldati umani o sistemi autonomi di armi letali. Ciò che preoccupa è la facilità con cui un paese tecnologicamente avanzato potrebbe decidere di scatenare una guerra se non rischiasse di perdere un gran numero di soldati.

Quindi cominciamo vietando l’utilizzo dei robot killer: è un’iniziativa che merita il nostro sostegno. Ma ricordate che prima o poi le macchine automatiche arriveranno, e alcune saranno sicuramente in grado di uccidere. Per questo è il momento di lavorare anche sulle norme internazionali che governeranno il loro comportamento. Le tre leggi della robotica di Isaacv Asimov (scritte nel 1942) sono un buon punto di partenza:

  1. Un robot non può recare danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.

  2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.

  3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.

(Traduzione di Andrea Sparacino)

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it