Se si potesse scegliere quale uso delle intelligenze artificiali sottoporre a moratoria internazionale, tu quale sceglieresti? Io ho pochi dubbi: mi piacerebbe che ci fosse una discussione per mettere al bando l’uso delle ia per scopi militari e di sorveglianza.
Sono due applicazioni che incarnano i rischi più immediati e tangibili di queste nuove tecnologie e sono anche simbolo di una corsa all’innovazione che sembra ignorare i princìpi fondamentali di sicurezza per le persone e di trasparenza. Le implicazioni etiche, politiche e sociali sono enormi: dall’automazione di droni militari all’impiego di sistemi predittivi nelle operazioni di sorveglianza, il rischio di abuso, discriminazione, amplificazione delle disuguaglianze è intrinseco alla progettazione stessa di questi strumenti.
Abbiamo già detto delle preoccupazioni del premio Nobel Geoffrey Hinton sul tema e anche della possibilità che le vittime civili in un conflitto aumentino proprio a causa dell’uso di ia nelle operazioni militari. Eppure, invece di un freno, assistiamo a una crescente espansione di queste applicazioni.
La OpenAi ha cambiato radicalmente posizione sull’uso militare delle sue tecnologie. L’azienda si era autoimposta, inizialmente, un divieto esplicito di utilizzo per scopi bellici dei propri large language model. Ora, invece, stringe accordi con aziende che si occupano di tecnologie militari come la Anduril e che lavorano direttamente con il governo degli Stati Uniti come la Carahsoft.
La Carahsoft agisce come intermediario tra aziende tecnologiche e il dipartimento della difesa statunitense. Nonostante i suoi successi finanziari – nel 2023 ha registrato ricavi per 16 miliardi di dollari – la storia della Carahsoft è costellata di controversie legali. È stata accusata di pratiche scorrette come il sovrapprezzo nei contratti governativi e ha pagato multe milionarie per risolvere accuse simili in passato. Recentemente, gli uffici della Carahsoft sono anche stati perquisiti dall’Fbi in un’indagine i cui dettagli non sono ancora stati rivelati.
Anche l’Africom, il comando militare statunitense in Africa, ha acquistato tecnologia dalla OpenAi. E anche l’operato di questa struttura è molto controverso.
La OpenAi non è certo l’unica fra le aziende che si occupano di ia ad avere interesse nel settore militare. L’approccio della Anthropic è stato sicuramente più trasparente e meno ondivago. Questo, però, non le ha impedito di collaborare con la Palantir e la Amazon Web Services (Aws, di Jeff Bezos) per fornire strumenti di ia a supporto delle operazioni di difesa statunitense.
La xAi di Elon Musk non ha ancora dichiarato ufficialmente coinvolgimenti con i militari. Tuttavia, gli enormi investimenti raccolti dall’azienda – che provengono anche da paesi arabi – e le acrobazie politiche a cui ci ha abituati Musk lasciano pensare che sia solo questione di tempo.
Avviene in tutto il mondo, ovviamente. Sappiamo che Israele usa l’ia a Gaza. La Cina investe per modernizzare il proprio esercito con l’ia, attraverso l’applicazione di algoritmi di apprendimento automatico, droni autonomi e tecnologie impiegate in operazioni navali. La Russia sviluppa droni “intelligenti” e altri veicoli semiautonomi, con l’obiettivo di dotare di ia almeno il 30 per cento delle proprie armi entro il 2030.
Insomma: non si vede all’orizzonte una moratoria per le armi con intelligenze artificiali incorporate. Anzi. Il mercato delle nuove tecnologie belliche si sta normalizzando. Eppure non è una situazione inevitabile.
L’idea di bandire l’uso di queste tecnologie per applicazioni dannose agli esseri umani si può e si deve introdurre nel dibattito pubblico e politico.
Questo testo è tratto dalla newsletter Artificiale.
Iscriviti a Artificiale |
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
|
Iscriviti |
Iscriviti a Artificiale
|
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
|
Iscriviti |
Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it