Mentre negli Stati Uniti l’azienda di ia Anthropic si scontrava pubblicamente con l’amministrazione Trump sull’uso dei suoi software nei sistemi del Pentagono, dal campo di battaglia sono arrivate nuove dimostrazioni di quanto la tecnologia sia già integrata nell’apparato militare.

Secondo diverse ricostruzioni, il modello di intelligenza artificiale Claude, sviluppato dalla Anthropic, sarebbe stato usato per analizzare dati di intelligence e simulare scenari che hanno contribuito alla pianificazione dei bombardamenti contro il regime di Teheran. L’ia permetterebbe di “accorciare la catena delle uccisioni”, cioè il processo che va dall’identificazione di un obiettivo all’approvazione legale e al lancio dell’attacco. Gli Stati Uniti e Israele, che aveva già sperimentato sistemi simili per selezionare obiettivi nella Striscia di Gaza, hanno condotto centinaia di attacchi contro obiettivi iraniani nelle prime ore dell’offensiva, tra cui quello che ha colpito una scuola elementare causando centinaia di morti.

Secondo il Guardian i sistemi sviluppati dalla Palantir, un’azienda tecnologica che ha stipulato ricchi contratti con il Pentagono, integrano modelli linguistici come Claude. L’ia può esaminare rapidamente enormi quantità di informazioni (immagini dei droni, intercettazioni telefoniche, rapporti dell’intelligence ), individuare e classificare possibili obiettivi e suggerire quali armi usare, tenendo conto anche delle scorte disponibili o dell’efficacia di attacchi precedenti. Può perfino valutare automaticamente le basi giuridiche di un’operazione militare.

Gli studiosi del settore sostengono che l’ia stia riducendo i tempi di pianificazione necessari per attacchi complessi, un fenomeno noto come “compressione decisionale”. Craig Jones, esperto di strategia militare all’università di Newcastle, spiega al Guardian che “la macchina fornisce suggerimenti su quali obiettivi colpire molto più velocemente rispetto al pensiero umano”, quindi attacchi che un tempo richiedevano giorni o settimane di pianificazione possono essere preparati e approvati in poche ore.

Il rischio, avverte nello stesso articolo David Leslie, professore di etica e tecnologia alla Queen Mary university di Londra, è che gli umani al comando finiscano per affidarsi troppo alle raccomandazioni delle macchine. Questo può portare a una sorta di “distacco cognitivo”, in cui i responsabili militari si sentono meno coinvolti nelle conseguenze delle decisioni.

Sembra che l’intelligenza artificiale sia stata usata anche in altre operazioni recenti. Secondo il Wall Street Journal, Claude sarebbe stato impiegato per pianificare e coordinare il rapimento del presidente venezuelano Nicolás Maduro, anche se non è chiaro in che modo preciso il software sia stato usato.

Responsabilità vaga

Il paradosso è che tutto questo succedeva mentre a Washington si inaspriva il conflitto tra l’amministrazione Trump e l’Anthropic, perché l’azienda chiedeva che i suoi sistemi non fossero usati per armi autonome e programmi di sorveglianza di massa. Di fronte allo stallo, Donald Trump ha ordinato alle agenzie federali d’interrompere l’uso degli strumenti di Anthropic (secondo il Financial Times, nel frattempo le trattative tra le parti sono ricominciate).

In questo scontro si è inserita la OpenAi, l’azienda che ha sviluppato il chatbot d’intelligenza artificiale ChatGpt. Il suo amministratore delegato, Sam Altman, ha firmato un accordo con il governo che consente l’uso dei modelli dell’azienda per “tutti gli scopi legali”. Visto che le leggi statunitensi non tengono minimamente il passo con le capacità dell’intelligenza artificiale, nella pratica il governo potrebbe usare la tecnologia per analizzare enormi quantità di dati privati raccolti dalle aziende – informazioni di geolocalizzazione, cronologie di navigazione o transazioni economiche – creando forme di sorveglianza estremamente invasive.

Rispetto alle armi autonome, nell’accordo tra l’amministrazione Trump e la OpenAi si parla di mantenere la “responsabilità umana”. Come ha spiegato Alberto Puliafito nella sua newsletter, si tratta di un termine molto più vago: “Militarmente può significare semplicemente che c’è un comandante responsabile anche a posteriori delle decisioni prese in autonomia dalla macchina”.

Per molti commentatori siamo in una fase cruciale per la politica e la società statunitensi, in cui da un lato si accelera il processo di militarizzazione dell’intelligenza artificiale, dall’altro crescono i rischi che la tecnologia sia usata per fini di controllo e repressione all’interno. Alcuni esperti temono che la corsa tecnologica contro Pechino stia spingendo Washington verso un modello sempre più simile a quello cinese, che prevede la fusione tra tecnologia militare e civile e in cui le aziende sono costrette a collaborare con lo stato.

Questo articolo è tratto dalla newsletter Americana.

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it