Venerdì 10 aprile 2026, poco dopo le quattro del mattino, la polizia di San Francisco è intervenuta nel quartiere di Russian Hill per un incendio davanti a una casa. Secondo la ricostruzione della polizia, qualcuno aveva lanciato un ordigno incendiario contro il cancello esterno dell’abitazione, appiccando il fuoco, e poi era scappato via a piedi.

Meno di un’ora dopo gli agenti sono stati chiamati in un’altra zona della città, dove un uomo stava minacciando di incendiare un edificio. Gli agenti hanno detto di aver riconosciuto in lui la persona sospettata del primo attentato e lo hanno fermato. Più tardi si è saputo che il primo edificio colpito era la casa di Sam Altman e che il secondo era la sede della OpenAi, l’azienda di cui Altman è amministratore delegato. Nessuno è rimasto ferito.

Nelle ore e nei giorni successivi, il caso si è allargato. La procura di San Francisco ha identificato la persona arrestata: si tratta di Daniel Moreno-Gama, vent’anni, del Texas. A Moreno-Gama vengono contestati vari reati, tra cui tentato omicidio e incendio doloso, e rischia anche un’accusa per terrorismo.

“Se le prove dimostreranno che Moreno-Gama ha fatto questi attacchi per modificare le politiche pubbliche”, scrive Craig Missakian, procuratore distrettuale californiano, “o per esercitare pressioni su funzionari governativi e di altro tipo, tratteremo il fatto come un atto di terrorismo interno e lo perseguiremo con la massima severità consentita dalla legge”.

Secondo le autorità, infatti, non siamo di fronte solo a un gesto violento e isolato contro una persona molto esposta. Nella denuncia penale pubblicata dall’Fbi c’è scritto che, al momento dell’arresto, Moreno-Gama aveva con sé altri ordigni incendiari, una tanica di cherosene, un accendino e un documento in tre parti di cui, a quanto pare, il ventenne è l’autore.

Il titolo della prima parte è “Your last warning” (Ultimo avvertimento). Nel documento, Moreno-Gama si esprime come se avesse “ucciso” o “tentato di uccidere” e aggiunge: “Se devo incoraggiare altri a uccidere e commettere crimini, allora devo dare l’esempio”. Nel testo compaiono anche nomi e indirizzi di dirigenti, consiglieri di amministrazione e investitori legati ad aziende delle intelligenze artificiali.

Nella seconda parte del documento le intelligenze artificiali sono considerate minacce per l’umanità, associate a un rischio di estinzione e al caos globale; chi le sviluppa è definito amorale.

Moreno-Gama si avvicina molto a certi discorsi già presenti nel dibattito pubblico e in molti casi incoraggiati dagli stessi amministratori delegati delle aziende che producono le ia, fra cui lo stesso Sam Altman che, a maggio del 2023, aveva firmato una petizione proprio per mettere in guardia contro rischi simili a quelli denunciati da suo attentatore. Moreno-Gama ha trasformato queste idee in un’azione violenta.

Un articolo incendiario

Sam Altman ha detto di essere rimasto piuttosto scosso dall’accaduto. “Ecco una foto della mia famiglia”, ha scritto sul suo blog pubblicando un’immagine che ritrae suo marito e loro figlio. “Li amo più di ogni altra cosa”, ha aggiunto. “Credo che le immagini abbiano un grande potere. Di solito cerchiamo di mantenere la nostra privacy, ma in questo caso condivido una foto nella speranza che possa dissuadere chiunque dal lanciare una molotov contro casa nostra, a prescindere da cosa pensi di me”.

Subito dopo, Altman ricorda che pochi giorni prima era uscito “un articolo incendiario” su di lui.

Si tratta di un lungo pezzo del New Yorker scritto da Ronan Farrow e Andrew Marantz in cui Altman è descritto, attraverso varie testimonianze, come una persona molto abile e seduttiva, un eccezionale costruttore di consenso, uno che sa raccogliere soldi, alleanze, fedeltà, e che spesso promette cose diverse a persone diverse.

Farrow e Maranz raccontano vari episodi in cui, secondo ex dirigenti, ricercatori e membri del consiglio d’amministrazione, la OpenAi avrebbe progressivamente spostato il baricentro dai vincoli di sicurezza ai prodotti, alla crescita e ai ricavi. Citano, per esempio, il caso del team superalignment, che avrebbe dovuto occuparsi dell’etica e dell’allineamento valoriale delle ia: annunciato con grandi promesse, secondo varie fonti interne è stato depotenziato nei fatti.

La costruzione della OpenAi è raccontata come una gigantesca operazione geopolitica e finanziaria di Altman: i rapporti con la Microsoft, con l’Arabia Saudita e gli Emirati Arabi Uniti, gli investimenti, i tentativi di raccogliere capitali e costruire infrastrutture per le ia in paesi autoritari (l’articolo glissa sui rapporti di Altman con Trump: vanno aggiunti all’elenco per completezza), le strutture societarie opache, il passaggio dalla forma non profit alla struttura attuale (contestato anche da Elon Musk), molte promesse progressivamente non mantenute.

Secondo il New Yorker, poi, Altman si è costruito una reputazione pubblica da imprenditore responsabile, uno che chiede regole e avverte sui rischi, mentre dietro le quinte la OpenAi avrebbe lavorato per ammorbidire o bloccare norme sgradite. Insomma, il ritratto che emerge di Altman è il caso esemplare di un settore che ha imparato a usare insieme l’apocalisse e l’utopia come leve di marketing: prima ti dicono che la posta in gioco è la sopravvivenza dell’umanità, poi ti chiedono di fidarti del fatto che correrà abbastanza in fretta da vincere la gara dell’innovazione, ma non troppo da distruggere tutto.

La rabbia e la paura

Citando questo articolo senza confutarlo, Altman suggerisce che pubblicarlo in un momento di forte ansia sulle intelligenze artificiali possa aver contribuito a rendere più pericoloso il clima attorno a lui. Dice che inizialmente aveva sottovalutato questo rischio. Dopo la molotov, scrive, non si sente più così sicuro. Poi aggiunge tre considerazioni.

Primo: si dice convinto che le intelligenze artificiali saranno strumenti potentissimi, che vanno sviluppati e diffusi con sicurezza, regole e ammortizzatori sociali.

Secondo: ammette di aver commesso errori, anche se rivendica il suo ruolo nella guida della OpenAi fino a farla diventare una potenza globale.

Terzo: sostiene che il problema non è la tecnologia, ma la lotta per controllarla. Dice che il tentativo di correre verso la superintelligenza artificiale è una specie di “anello del potere” e che l’idea di controllare l’intelligenza artificiale generale (che, per quel che ne sappiamo, non esiste affatto) “fa fare alle persone cose folli”. Per questo, conclude, “è importante che il processo democratico rimanga più potente delle aziende”.

Il post di Altman è un equilibrismo piuttosto ardito fra le idee accelerazioniste della Silicon valley – riassunte dalla celeberrima massima “muoviti velocemente, rompi le cose” – e il richiamo ai valori del dibattito pubblico e del bene comune. A leggerlo sembra coerente, ma se pensiamo che è scritto da una persona che fa parte del ristretto oligopolio che produce le ia in un mercato competitivo e capitalista, si fa fatica a non ritenerlo quanto meno confuso, se non opportunista.

Ma diamo per buono il fatto che Altman sia rimasto davvero scosso da quel che è successo.

Visto che non può essere responsabilità del New Yorker e visto che, evidentemente, questa non è una storia che riguarda solo lui, non dovremmo forse chiederci che cosa ha combinato fino a questo momento l’industria della Silicon valley? Quali danni ha fatto la corsa sfrenata ed estrattiva in nome del profitto? Quali danni potrebbe fare l’applicazione delle intelligenze artificiali se usate solo per aumentare la produttività senza ammortizzatori sociali come il reddito di base universale?

È vero: Altman ha finanziato personalmente un esperimento proprio sul reddito di base, a dimostrazione del fatto che le sue posizioni sono complesse. Ma rimangono viziate proprio dall’ambiguità raccontata dal New Yorker.

La disperazione di un Moreno-Gama, al di là del gesto individuale, e la rabbia di tutte le persone che hanno paura delle ia perché non sanno come verranno usate, chi deciderà, chi le controllerà e con quali scopi, ci dovrebbe suggerire, ancora una volta, l’unica soluzione radicale possibile per evitare scontri ideologici e danni più gravi: trattare queste tecnologie come un bene comune collettivo e decidere liberamente come usarle.

Cosa che, nonostante le belle parole, non sembra essere nei piani di Altman né in quelli dei suoi colleghi.

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it