Trang Bang, Vietnam del Sud, 8 giugno 1972.

I rischi invisibili dell’intelligenza artificiale

Trang Bang, Vietnam del Sud, 8 giugno 1972.
04 ottobre 2016 13:33

Come cambieranno il nostro modo di vivere i sistemi di intelligenza artificiale? È una domanda difficile: da una parte, consentono tanti progressi nello svolgimento di compiti complessi, permettendo di migliorare i risultati in settori come il consumo energetico, l’elaborazione di file audio e la diagnosi della leucemia. D’altra parte, hanno un ruolo sempre maggiore in scelte che hanno un impatto significativo nelle nostre vite sul piano sociale, culturale ed economico.

I sistemi di intelligenza artificiale e di supporto alle decisioni sono incorporati in una grande varietà di istituzioni sociali e influenzano scelte di ogni tipo, dal rilascio di detenuti dal carcere alle notizie principali del giorno. Un esempio recente è il caso della censura fatta da Facebook sulla famosa foto premio Pulitzer che ritrae una bambina in fuga dalle bombe al napalm durante la guerra in Vietnam.

La bambina è nuda; l’algoritmo che filtra le immagini può interpretarla come una violazione delle regole sulle foto di minori nudi. Ma a occhi umani, la fotografia di Nick Ut, intitolata The terror of war, ha ben altro significato: è un’immagine simbolo dell’orrore indiscriminato della guerra e si è guadagnata un posto d’onore nella storia della fotografia e della politica internazionale. La rimozione della foto ha suscitato proteste al livello internazionale, costringendo Facebook a fare marcia indietro e a ripristinare l’immagine. Anche la prima ministra norvegese Erna Solberg è intervenuta e ha dichiarato: “Quando Facebook rimuove immagini di questo tipo, a prescindere dalle sue buone intenzioni, censura la nostra storia comune”.

I pochi studi condotti finora sull’uso dell’intelligenza artificiale e degli algoritmi in ambiti sociali hanno fornito risultati preoccupanti

È facile dimenticare un fatto cruciale: questi casi di alto profilo sono in realtà i casi facili. Come ha osservato Tarleton Gillespie sul Wall Street Journal, Facebook passa in rassegna centinaia di immagini mille volte al giorno ed è raro che si trovi di fronte a un premio Pulitzer di evidente importanza storica. A volte intervengono anche i team di moderatori umani nella valutazione dei contenuti da filtrare, altre volte il compito è affidato interamente agli algoritmi.

Nel caso della foto censurata, c’è anche una notevole ambiguità sui confini tra processi automatizzati e intervento umano: anche questo è parte del problema. E Facebook è solo uno degli attori coinvolti in un complesso ecosistema di valutazioni supportate da algoritmi, senza un monitoraggio esterno per verificare come sono state prese le decisioni o quali potrebbero esserne gli effetti.

Il caso della foto simbolo della guerra in Vietnam è quindi solo la punta di un iceberg: un raro esempio visibile sotto il quale si nasconde una massa voluminosa di decisioni automatizzate e semiautomatizzate. Il fatto preoccupante è che molti di questi sistemi di “intelligenza artificiale debole” sono coinvolti in scelte che non arrivano nemmeno ad attirare quel tipo di attenzione, perché sono integrati nei back-end dei sistemi informatici e intervengono in calcoli su molteplici set di dati, senza un’interfaccia rivolta all’utente finale. Le loro operazioni restano in gran parte sconosciute e invisibili.

Giuria di robot
A volte le tecniche di intelligenza artificiale garantiscono risultati accurati, altre volte si sbagliano. E in quei casi, è raro che gli errori emergano e diventino visibili al pubblico – come nel caso della foto censurata della bambina vietnamita, o del “concorso di bellezza” giudicato da algoritmi e accusato di razzismo per la selezione delle vincitrici, esclusivamente bianche.

Potremmo considerare quest’ultimo esempio come un semplice problema di dati insufficienti: sarebbe bastato allenare l’algoritmo a riconoscere una selezione meno parziale e più diversificata di volti e infatti, dopo che 600mila persone hanno inviato i propri selfie al sistema, ora ha sicuramente a disposizione più dati per poterlo fare.

Un concorso di bellezza con una giuria di robot potrà sembrare una banale iniziativa di cattivo gusto, o un ottimo escamotage per invogliare il pubblico a inviare le proprie foto e ampliare il set di dati disponibili, ma è un caso indicativo di una serie di problemi molto più seri.

L’intelligenza artificiale è sempre più integrata nella società nonostante la mancanza di studi rigorosi

I sistemi di intelligenza artificiale e di supporto alle decisioni sono sempre più presenti nelle nostre vite quotidiane: determinano chi finirà nelle heat list della polizia (una lista che identifica persone ad alto rischio di coinvolgimento in atti di violenza armata), chi sarà assunto o promosso, quali studenti saranno ammessi alle università; o addirittura cercano di prevedere fin dalla nascita chi commetterà un crimine entro i 18 anni di età. La posta in gioco, quindi, è molto alta.

I pochi studi finora condotti sull’uso dell’intelligenza artificiale e degli algoritmi di supporto alle decisioni in importanti ambiti sociali hanno prodotto risultati preoccupanti. Uno studio recente della Rand corporation ha dimostrato che la heat list di previsione del crimine usata dalla polizia di Chicago si è rivelata inefficace nel prevedere chi avrebbe commesso crimini violenti: l’unico effetto è stato un aumento dei soprusi nei confronti delle persone sulla lista.

Un quadro altrettanto problematico è emerso da un’inchiesta di ProPublica sul software usato dalla giustizia americana per la valutazione del rischio di recidiva, basato su algoritmi che producono risultati distorti da pregiudizi a sfavore degli imputati non bianchi. Per garantire l’imparzialità e il rispetto dei diritti e delle libertà di tutti, servirebbero metodi di convalida, verifica e valutazione di questi sistemi. Altrimenti si rischiano classificazioni errate, dati parziali e modelli difettosi che aggravano le ingiustizie invece di porvi rimedio.

Come scriveva Alan Turing nel 1947, se una macchina deve essere infallibile, non potrà mai essere intelligente. Ciò che desta preoccupazione è la diffusione sempre più rapida di questi sistemi automatizzati fallibili all’interno del complesso sistema nervoso della società. È una questione al centro della nostra attenzione, tanto che di recente abbiamo organizzato Ai Now, un convegno alla Casa Bianca sull’impatto sociale ed economico dell’intelligenza artificiale nei prossimi dieci anni.

Gli incontri di Ai Now hanno incluso un seminario con esperti di vari settori – esponenti del mondo accademico, della società civile, dell’industria e del governo – per discutere le sfide e le domande più urgenti poste dall’intelligenza artificiale in quattro aree tematiche: disuguaglianza sociale, etica, occupazione e sanità.

Le idee e le diverse prospettive discusse durante il convegno Ai Now sono state molto istruttive, ma hanno anche messo in luce una verità scomoda: non esistono metodi concordati per valutare gli effetti umani e gli impatti longitudinali dell’intelligenza artificiale nelle sue applicazioni all’interno dei vari sistemi sociali. Questo divario di conoscenze si allarga sempre più man mano che si diffonde l’uso dell’intelligenza artificiale, aggravando il rischio di conseguenze impreviste.

Nuovi settori di ricerca
La questione principale non è se l’intelligenza artificiale sia peggio degli attuali processi umani che usiamo per fare previsioni e classificare i dati. Anzi, ci sono molte speranze di poter usare l’intelligenza artificiale per arrivare a valutazioni più oggettive e imparziali di quelle umane, riducendo le discriminazioni e garantendo risultati migliori. La preoccupazione principale è che i sistemi di intelligenza artificiale sono sempre più integrati in istituzioni sociali fondamentali nonostante la mancanza di studi rigorosi sul loro grado di accuratezza e i loro effetti sociali ed economici.

È necessario sviluppare un solido settore di ricerca che possa misurare e valutare gli effetti sociali ed economici dei sistemi di intelligenza artificiale, per potenziarne gli effetti positivi e ridurre i rischi. Misurando gli impatti di queste tecnologie, possiamo rafforzare la progettazione e lo sviluppo dell’intelligenza artificiale, aiutare soggetti pubblici e privati a garantire l’affidabilità e la trasparenza dei loro sistemi, e ridurre il rischio di errori. Sviluppando una comprensione empirica di come funziona effettivamente l’intelligenza artificiale sul campo, potremo stabilire modelli comprovati per un uso responsabile ed etico e garantire così una sana crescita di questo settore tecnologico.

Se l’impatto sociale dell’intelligenza artificiale è difficile da vedere, è di fondamentale importanza individuare approcci rigorosi per renderlo più visibile e trasparente. Abbiamo bisogno di nuovi strumenti che ci permettano di sapere come e quando le decisioni automatizzate influenzano materialmente le nostre vite – e se necessario, contestarle.

(Traduzione di Monica Cainarca)

Una versione di questo articolo è stata pubblicata in italiano su Medium Italia e in inglese su Medium.

pubblicità

Articolo successivo

Una dieta scandalosa
Claudio Rossi Marcelli