Di questi tempi l’intelligenza artificiale (ai) è spesso associata alla parola “rischio”. È incoraggiante sapere che, oltre ai vantaggi industriali e strategici, molti leader mondiali stanno prendendo in considerazione i potenziali problemi dell’ai. Ma bisogna tener presente che i rischi non sono tutti uguali.

Il 14 giugno il parlamento europeo ha votato la bozza dell’Ai act, un progetto di legge sull’intelligenza artificiale che era in elaborazione da due anni e il cui obiettivo è introdurre standard di regolamentazione globali. Dopo ulteriori negoziati per conciliare i diversi testi prodotti dal parlamento, dalla Commissione e dal consiglio europeo, la versione definitiva dovrebbe essere approvata entro la fine dell’anno. Sarà la prima al mondo a regolamentare l’intelligenza artificiale in tutti i settori della società, con l’esclusione della difesa.

Angelo Monne

La legge è incentrata sul concetto di rischio. Non regolamenta infatti l’intelligenza artificiale in sé ma il suo impiego in vari ambiti, ognuno con i suoi potenziali problemi. Le quattro categorie di rischio, sottoposte a diversi obblighi di legge, sono: inaccettabile, alto, limitato e minimo.

I sistemi che minacciano i valori dell’Unione europea e i diritti fondamentali dei cittadini sono classificati come inaccettabili e saranno vietati. Un esempio è rappresentato dai metodi di predictive policing, cioè l’uso degli algoritmi per valutare la pericolosità degli individui sulla base delle informazioni personali per prevedere la loro predisposizione a compiere un reato.

I sistemi a rischio alto dovranno essere registrati in un apposito database e soddisfare una serie di requisiti di monitoraggio e certificazione. Tra gli impieghi classificati in questa categoria c’è il controllo dell’accesso ai servizi in settori come istruzione, lavoro, finanza e sanità. Qui l’uso dell’intelligenza artificiale non è sgradito, ma una supervisione è necessaria per evitare conseguenze negative sulla sicurezza e sui diritti fondamentali. Un software che prende decisioni sulla concessione di un mutuo, per esempio, sarà sottoposto a controlli per garantire che sia conforme alle leggi europee e non discrimini su base sessuale o etnica.

I sistemi a rischio limitato saranno sottoposti a requisiti minimi di trasparenza. Gli operatori di sistemi d’intelligenza artificiale generativa, tra cui i bot che producono testi o immagini, dovranno avvertire gli utenti che stanno interagendo con una macchina.

Nel suo lungo viaggio attraverso le istituzioni europee, cominciato nel 2019, il progetto di legge è diventato sempre più preciso ed esplicito sui potenziali pericoli dell’intelligenza artificiale nei vari ambiti, nonché su come monitorarli e contenerli. C’è ancora molto lavoro da fare, ma la direzione è chiara.

Pericolo generico

Di recente hanno cominciato a circolare petizioni su un presunto “rischio di estinzione” posto dall’intelligenza artificiale. Ma si tratta di un pericolo generico e a lungo termine, molto distante dallo spirito dell’Ai act perché non spiega a cosa dovremmo prestare attenzione e cosa dovremmo fare per tutelarci.

La prossima tappa della legge saranno i confronti a tre in cui le bozze del parlamento, della Commissione e del consiglio europeo saranno fuse in un testo finale. Questo dovrebbe essere approvato entro la fine dell’anno, prima della campagna per le elezioni europee. Entrerà poi in vigore in due o tre anni, e tutte le aziende che operano nell’Unione europea dovranno adeguarsi. Un tempo così lungo solleva degli interrogativi, perché non sappiamo come saranno l’intelligenza artificiale e il mondo nel 2027.

Quel che è certo è che ogni tecnologia presenta dei rischi. Stavolta, invece di aspettare che emergano problemi anche gravi, ricercatori e politici hanno scelto la strada della prevenzione. Rispetto al modo in cui abbiamo adottato tecnologie precedenti – pensate ai combustibili fossili – è un bel passo avanti. ◆ sdf

Nello Cristianini insegna intelligenza artificiale all’università di Bath, nel Regno Unito. Ha scritto La scorciatoia (il Mulino 2023)

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it

Questo articolo è uscito sul numero 1517 di Internazionale, a pagina 104. Compra questo numero | Abbonati