La paura dell’intelligenza artificiale tormenta l’umanità fin dall’inizio dell’era dei computer. Finora questo timore si è concentrato sulla possibile nascita di macchine in grado di uccidere, schiavizzare o sostituire le persone. Ma negli ultimi due anni sono emersi nuovi strumenti che minacciano la sopravvivenza della civiltà umana in una direzione inaspettata. L’intelligenza artificiale ha acquisito notevoli capacità di usare e manipolare il linguaggio, che si tratti di parole, suoni e immagini. In pratica ha hackerato il sistema operativo della nostra civiltà.

Quasi tutta la nostra cultura si basa sul linguaggio. I diritti umani, per esempio, non sono inscritti nel nostro dna, sono prodotti culturali che abbiamo creato. Gli dei non sono realtà fisiche, sono creazioni culturali. Anche i soldi lo sono. Le banconote sono solo pezzi di carta colorati, e attualmente più del 90 per cento del denaro non è neanche più costituito da banconote ma da informazioni digitali che esistono solo nei computer. Quello che dà valore al denaro sono le storie che banchieri, ministri delle finanze e guru delle criptovalute raccontano: Sam Bankman-Fried, Elizabeth Holmes e Bernie Madoff non sono stati particolarmente bravi a creare valore reale, ma sono stati narratori molto abili.

Potremmo trovarci a fare discussioni online sull’aborto o sui cambiamenti climatici con qualcosa che sembra una persona e in realtà non lo è

Cosa succederebbe se un’intelligenza non umana diventasse più brava di un essere umano medio a raccontare storie, comporre melodie, disegnare immagini e scrivere leggi e libri sacri? Quando le persone riflettono su ChatGpt e su altri strumenti simili, pensano soprattutto al fatto che gli studenti li useranno per scrivere i loro temi. Che ne sarà del sistema scolastico? Domande simili non tengono conto del quadro generale. Lasciamo perdere i temi scolastici. Pensiamo alla prossima campagna per le elezioni presidenziali negli Stati Uniti del 2024 e proviamo a immaginare le conseguenze di strumenti basati sull’intelligenza artificiale che possano essere usate per creare contenuti politici, notizie false e libri sacri.

Negli ultimi anni il movimento complottista QAnon si è concentrato soprattutto su messaggi anonimi online. I suoi sostenitori li hanno raccolti e interpretati come un testo sacro. Anche se, per quanto ne sappiamo, finora i bot hanno semplicemente contribuito a diffondere i messaggi, in futuro potremmo vedere le prime religioni della storia fondate su testi sacri che non sono stati scritti da esseri umani. In fondo nel corso dei secoli le religioni hanno sempre rivendicato un’origine non umana dei loro libri sacri. Presto questo potrebbe diventare realtà.

A un livello più prosaico, potremmo trovarci a fare discussioni online sull’aborto, sui cambiamenti climatici o sulla guerra in Ucraina con qualcosa che sembra una persona in carne e ossa e in realtà non lo è. Il problema è che è inutile perdere tempo a cercare di cambiare le opinioni di un bot, mentre l’intelligenza artificiale potrebbe affinare i suoi messaggi in modo da avere buone probabilità d’influenzarci.

Attraverso la padronanza del linguaggio, l’intelligenza artificiale potrebbe perfino stabilire relazioni intime e usarle per cambiare le nostre opinioni. Anche se niente fa pensare che abbia una coscienza o sentimenti, per creare una falsa intimità con gli esseri umani è sufficiente che possa suscitare in loro un attaccamento emotivo. Nel giugno 2022 Blake Lemoine, un ingegnere di Google, affermò che il chatbot Lamda, su cui stava lavorando, era diventato cosciente. Questa affermazione gli costò il posto di lavoro. La cosa più interessante di questo episodio non è tanto l’affermazione di Lemoine, che probabilmente era falsa, ma la sua disponibilità a rischiare un lavoro ben pagato a beneficio del chatbot. Se l’intelligenza artificiale può influenzare le persone fino a questo punto, cos’altro potrebbe spingerle a fare?

Per millenni gli esseri umani hanno vissuto all’interno dei sogni di altri esseri umani. Nei prossimi decenni potremmo trovarci a vivere all’interno dei sogni di un’intelligenza aliena

Nella battaglia politica per la conquista di menti e cuori, l’intimità è l’arma più efficace e l’intelligenza artificiale ha appena raggiunto la capacità di stabilire rapporti con milioni di persone. Cosa succederà alla società e alla psicologia umana quando le intelligenze artificiali combatteranno una contro l’altra per stabilire con noi un finto legame e convincerci così a votare un certo politico o a comprare certi prodotti? Anche senza creare “finta intimità”, questi nuovi strumenti avrebbero un’immensa influenza sulle nostre opinioni e visioni del mondo. Le persone potrebbero finire con l’usare una singola intelligenza artificiale come un oracolo onnisciente. Per questo Google è terrorizzata: perché prendersi la briga di fare una ricerca, quando si può semplicemente chiedere all’oracolo? Anche i mezzi d’informazione e il settore della pubblicità dovrebbero essere spaventati. Perché leggere un giornale, quando posso semplicemente chiedere all’oracolo di dirmi le ultime notizie? E a cosa servirebbe la pubblicità, se posso semplicemente chiedere all’oracolo di dirmi cosa comprare? Ma neanche questi scenari colgono davvero il quadro generale. Quello di cui stiamo parlando è potenzialmente la fine della storia umana. O meglio, la fine della storia dominata dagli esseri umani.

Che succederà al corso della storia quando l’intelligenza artificiale prenderà il sopravvento sulla cultura e comincerà a produrre storie, melodie, leggi e religioni? Mezzi di comunicazione come la stampa e la radio hanno diffuso le idee degli esseri umani, ma non hanno mai prodotto idee proprie. L’intelligenza artificiale è diversa: può creare idee completamente nuove, una cultura completamente nuova. All’inizio probabilmente imiterà i modelli umani sui quali è stata addestrata. Ma con il passare degli anni la sua cultura arriverà dove nessuno è mai arrivato. Per millenni gli esseri umani hanno vissuto all’interno dei sogni di altri esseri umani. Nei prossimi decenni potremmo trovarci a vivere all’interno dei sogni di un’intelligenza aliena.

Il timore dell’intelligenza artificiale ossessiona l’umanità solo da pochi decenni, ma per migliaia di anni le persone sono state tormentate da una paura molto più profonda. Conosciamo da sempre il potere delle storie e delle immagini di manipolare le nostre menti e creare illusioni. Di conseguenza, fin dai tempi antichi abbiamo temuto di essere intrappolati in un mondo di illusioni. Nel seicento Cartesio aveva paura che un demone malvagio lo tenesse prigioniero in un mondo d’illusioni, creando tutto quello che vedeva e sentiva. In Grecia Platone usava la famosa immagine della caverna, in cui un gruppo di persone sono incatenate per tutta la vita di fronte a un muro sul quale vedono proiettate varie ombre e pensano che quella sia la realtà. Nell’antica India i saggi buddisti e indù sostenevano che tutti gli esseri umani vivevano intrappolati nel māyā, il mondo delle apparenze. Quelle che normalmente consideriamo realtà sono spesso solo creazioni della nostra mente. A causa di un’illusione, possiamo combattere intere guerre ed essere disposti a uccidere o essere uccisi. La rivoluzione dell’intelligenza artificiale ci sta mettendo faccia a faccia con il demone di Cartesio, con la caverna di Platone, con il māyā.

Naturalmente, l’intelligenza artificiale potrebbe essere usata anche a fin di bene. Non mi dilungherò su questo, perché chi la sta sviluppando ne parla già abbastanza. Il compito degli storici e dei filosofi come me è segnalare i pericoli, ma di sicuro l’intelligenza artificiale può aiutarci in molti modi, dalla scoperta di cure per il cancro alla crisi climatica. La domanda che ci poniamo è come assicurarci che i nuovi strumenti siano usati a fin di bene. E per farlo dobbiamo prima capire le loro capacità. Dal 1945 sappiamo che il nucleare può produrre energia a basso costo, ma potrebbe anche distruggere la nostra civiltà. Abbiamo quindi modificato l’intero ordine internazionale per proteggere l’umanità e assicurarci che la tecnologia nucleare fosse usata a fin di bene. Ora ci troviamo di fronte a una nuova arma di distruzione di massa che può annientare il nostro mondo.

Possiamo ancora regolamentare l’intelligenza artificiale, ma dobbiamo agire rapidamente. Mentre le armi nucleari non possono inventare nuove armi nucleari più potenti, l’intelligenza artificiale può rendere se stessa sempre più potente. Il primo passo è fare rigorosi controlli di sicurezza prima che potenti strumenti d’intelligenza artificiale diventino di dominio pubblico. Come un’azienda farmaceutica non può mettere in circolazione nuovi farmaci prima di aver testato i loro effetti collaterali sia a breve sia a lungo termine, quelle tecnologiche non dovrebbero rilasciare nuovi strumenti prima che ne sia stata garantita la sicurezza.

Rallentando l’applicazione dell’intelligenza artificiale, le democrazie non correrebbero il rischio di rimanere indietro rispetto a regimi autoritari più spietati? È esattamente il contrario. Le applicazioni non regolamentate creerebbero il caos sociale, che andrebbe a vantaggio dei dittatori e a danno delle democrazie. La democrazia è una conversazione e le conversazioni si basano sul linguaggio. Se hackerasse il linguaggio, l’intelligenza artificiale potrebbe privarci della capacità di avere conversazioni significative, distruggendo così la democrazia.

Abbiamo appena incontrato un’intelligenza aliena, qui sulla Terra. Non ne sappiamo molto, tranne che potrebbe distruggere la nostra civiltà. Dobbiamo mettere fine all’uso irresponsabile di certi strumenti nella sfera pubblica e regolamentarla prima che sia lei a regolamentare noi. E la prima regola che suggerirei è rendere obbligatorio esplicitare che si tratta di un’intelligenza artificiale. Se sto parlando con qualcuno e non capisco se si tratta di un essere umano o di un’intelligenza artificiale è la fine della democrazia. Questo testo è stato generato da un essere umano. Ne siamo sicuri? ◆ bt

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it

Questo articolo è uscito sul numero 1511 di Internazionale, a pagina 39. Compra questo numero | Abbonati