04 dicembre 2014 16:18

Tutti gli esperti (che per la precisione sono due) concordano: l’intelligenza artificiale distruggerà la civiltà umana.

Il primo è Elon Musk, l’eclettico fondatore di PayPal, produttore delle automobili elettriche Tesla, creatore di Space X, la prima azienda ad aver mandato in orbita un’astronave senza fondi pubblici, e molto altro ancora.

“Penso che dovremmo stare molto attenti all’intelligenza artificiale”, ha dichiarato Musk al Massachussetts institue of technology a ottobre. “Se me lo chiedessero direi che è questa la più grande minaccia alla nostra esistenza”.

Musk ha avvertito gli ingegneri che si occupano di intelligenza artificiale di “stare molto attenti” a non creare robot che potrebbero governare il mondo. Suggerisce piuttosto la necessità di istituire una supervisione di governo “a un livello nazionale e internazionale” sul lavoro degli sviluppatori di intelligenza artificiale, “per essere sicuri di non commettere qualche enorme sciocchezza”.

Il secondo esperto è Stephen Hawking, il più famoso fisico teorico del mondo e autore del bestseller meno letto di sempre, Dal big bang ai buchi neri. Breve storia del tempo. Hawking è un uomo dalla mente straordinaria e pochi giorni fa ha dichiarato alla Bbc che “lo sviluppo di una completa intelligenza artificiale potrebbe segnare la fine della razza umana”.

Hawking soffre di una malattia che lo costringe a parlare con l’aiuto di un generatore artificiale di parole. La nuova versione che riceverà dalla Intel è in grado di apprendere il modo di pensare del professor Hawking e di suggerire le parole che potrebbe voler usare. Si tratta di una primitiva forma di intelligenza artificiale, e così l’intervistatore gli ha posto qualche domanda sul futuro di questa tecnologia.

Una macchina davvero intelligente, ha messo in guardia Hawking, “comincerebbe a gestirsi da sola e si riprogrammerebbe a una velocità sempre maggiore. Gli umani, che sono limitati dalla lenta evoluzione biologica, non potrebbero competere e sarebbero sopraffatti”. Perciò state molto, molto attenti.

Nell’esprimere il loro timore che un’intelligenza artificiale malvagia possa rivoltarsi contro gli esseri umani, Musk e Hawking sono in ritardo di quasi 50 anni rispetto alla cultura popolare (basta pensare al computer Hal in 2001: Odissea nello spazio). E sono in ritardo di trent’anni riguardo all’idea di un supercomputer che acquisisce una coscienza e immediatamente lancia una guerra di sterminio contro il genere umano (Skynet in Terminator).

Poi ci sono Matrix, Blade Runner e altre variazioni sul tema. C’è voluto un po’ di tempo perché dei pensatori rispettabili si lasciassero contagiare da questa paranoia, ma adesso ci sono arrivati anche loro. Perciò, prendiamoci tutti un tranquillante e riflettiamo su questa cosa con più calma. Una vera intelligenza artificiale, con capacità simili a quelle del cervello umano (se non migliori), non si vedrà prima di venti o trent’anni, dunque abbiamo un po’ di tempo per pensare a come gestire questa tecnologia.

Il rischio che macchine davvero intelligenti che non hanno bisogno di essere nutrite o pagate finiranno per prendersi tutti i buoni posti di lavoro rimasti (dottori, piloti, commercialisti eccetera) è reale. Anzi, potrebbe essere inevitabile. Ma questa sarebbe una catastrofe solo se non saremo in grado di rinnovare la nostra cultura in rapporto a una maggiore quantità di tempo libero e di ristrutturare la nostra economia perché la ricchezza sia redistribuita su basi diverse rispetto al pagamento per un lavoro svolto.

Una società di questo tipo potrebbe finire per diventare un posto dove le macchine intelligenti avrebbero dei diritti “umani” davanti alla legge, ma non è questo che preoccupa gli scettici. La loro paura è che le macchine, dopo aver acquisito una coscienza, possano vedere negli esseri umani una minaccia (perché possiamo spegnerle, almeno in principio), e di conseguenza possano cercare di controllarci o persino di eliminarci. È lo scenario di Skynet, ma non è molto realistico.

In uno scenario reale la salvezza è rappresentata dal fatto che l’intelligenza artificiale non comparirà all’improvviso, accendendo un interruttore. Sarà costruita in modo graduale nel corso di decenni, e questo ci dà il tempo sufficiente per introdurre una sorta di senso morale nella programmazione di base, simile alla moralità innata della maggior parte degli esseri umani.

Il nostro senso morale non garantisce che noi ci comportiamo sempre bene, ma di sicuro aiuta. E se la progettazione spetta a noi e non a una cieca evoluzione, potremmo addirittura fare di meglio. Qualcosa come le tre leggi della robotica di Isaac Asimov, enunciate dal maestro 72 anni fa.

Prima legge: un robot non può fare del male a un essere umano o permettere che un essere umano corra dei pericoli a causa della sua inazione.

Seconda legge: un robot deve obbedire agli ordini dati dagli esseri umani, tranne nei casi in cui questi ordini entrino in conflitto con la prima legge.

Terza legge: un robot deve proteggere la sua esistenza purché questo non sia in conflitto con la prima o con la seconda legge.

Non sarebbe male come inizio, anche se prima o poi tra gli esseri umani ci si chiederà se le macchine dotate di coscienza debbano essere assoggettate per sempre a una forma di schiavitù. Il trucco sta nel trovare un modo per incorporare questo senso morale talmente in profondità nella programmazione da non poter essere aggirato.

Come ha osservato il direttore del settore ingegneristico di Google, Ray Kurzweil, tuttavia, potrebbe essere difficile scrivere un codice morale algoritmico abbastanza forte da limitare un software superintelligente.

Probabilmente abbiamo qualche decennio per lavorarci, ma dovremo percorrere questa strada. È l’etica stessa della nostra civiltà che lo richiede, perciò sarà meglio cercare il modo di farlo.

(Traduzione di Giusy Muzzopappa)

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it