Milioni di persone usano già i chatbot, software in grado di conversare con gli utenti comprendendo le loro intenzioni e rispondendo in base a regole e codici impostati dai programmatori. Ultimamente sono migliorati in modo notevole, per cui non c’è da stupirsi che le università e le scuole superiori siano in preda al panico e in alcuni casi abbiano reagito decidendo di far svolgere solo esami orali.

Tra i vari problemi, ce n’è uno che merita attenzione: cosa fare quando un essere umano che dialoga con un chatbot usa un linguaggio volgare o fa commenti razzisti e sessisti e il software, programmato per adeguare le sue risposte, adotta lo stesso tono? La risposta più ovvia è un qualche tipo di regolamentazione che definisca limiti chiari, vale a dire una censura. Ma chi stabilirà fino a che punto deve spingersi questa censura? Dovrebbero essere vietate anche le posizioni politiche considerate “offensive” da qualcuno?

Cosa fare quando un essere umano che dialoga con un software dice cose razziste e il programma adotta lo stesso tono?

La solidarietà con i palestinesi in Cisgiordania o l’affermazione che Israele è uno stato che applica l’apartheid, come ha scritto l’ex presidente statunitense Jimmy Carter nel titolo del suo libro, saranno bloccate perché “antisemite”?

Il problema in realtà è più profondo, come ha detto lo scrittore James Bridle: “L’intelligenza artificiale, nella sua forma attuale, si basa sull’appropriazione totale della cultura esistente, e l’idea che sia effettivamente intelligente potrebbe essere pericolosa”. Non bisogna sottovalutare la capacità dei generatori d’immagini basati sull’intelligenza artificiale: “Nel loro tentativo di comprendere e replicare la cultura visiva umana sembrano aver ricreato anche le nostre paure più profonde”, prosegue Bridle, “forse è solo un segno che questi sistemi sono molto bravi a scimmiottare la coscienza umana, fino all’orrore che si annida nelle profondità dell’esistenza: le nostre paure di oscenità, morte e corruzione. L’oscenità e il disgusto del vivere e del morire rimarranno con noi e dovremo farci i conti, proprio come succederà alla speranza, all’amore, alla gioia e alla scoperta”.

Il problema, tuttavia, non è solo tenere d’occhio la nostra oscenità e il nostro disgusto. Facciamo un esempio: cosa succederebbe se, invece del classico “comprane uno, il secondo è gratis!”, dicessimo: “Compra una birra al prezzo di due e ricevi la seconda gratis!”. Il bar che ha usato questa riformulazione su una lavagna davanti all’ingresso ha attirato molti nuovi clienti: lo slogan si è annullato da solo, il suo cinismo è stato approvato come una forma di onestà comica. Come reagirebbe un chatbot? La considererebbe un’evidente stupidaggine (“Ma hai già pagato per due, quindi la seconda birra non è gratis!”)? Coglierebbe l’ironia o addirittura capirebbe il senso di questa strategia?

E torniamo alle parolacce. L’uso di fuck (fottere) nel linguaggio quotidiano dà vita a una strana situazione: indica qualcosa che alla maggior parte delle persone piace fare (“Ho scopato tutta la notte e non mi sono mai divertito tanto!”), ma quando il termine è impiegato in espressioni come “vai a farti fottere!” e varianti simili indica chiaramente un atteggiamento aggressivo. L’intelligenza artificiale è pronta a cogliere queste differenze? In gioco c’è l’inestricabile combinazione di fallimento e successo: un vero successo retorico emerge dalla reinterpretazione del fallimento come successo.

Nel suo saggio Sulla graduale formazione dei pensieri nel processo della parola (del 1805, pubblicato postumo per la prima volta nel 1878), lo scrittore tedesco Heinrich von Kleist ribalta così il sentire comune secondo il quale si dovrebbe aprire la bocca per dire qualcosa solo quando si ha un’idea chiara di quello che si vuole dire: “Se dunque un pensiero è espresso in modo confuso, non ne consegue affatto che questo pensiero sia stato concepito in modo confuso. Al contrario, è possibile che le idee espresse in modo più confuso siano quelle che sono state pensate in modo più chiaro”.

Mancano d’ironia, sono ingenui, ma non abbastanza: non sono in grado di cogliere un’ingenuità ancora più grande

C’è un passaggio, in uno dei discorsi di Stalin dei primi anni trenta, in cui il dittatore sovietico propose misure radicali contro tutti quelli che si opponevano anche segretamente alla collettivizzazione delle aziende agricole: “Dovremmo combattere senza pietà anche coloro che si oppongono alla collettivizzazione solo nei loro pensieri: sì, proprio così, dovremmo combattere anche i pensieri della gente”.

Si può tranquillamente presumere che questo passaggio non fosse stato preparato in anticipo: Stalin si lasciò prendere dall’entusiasmo retorico della lotta contro i nemici della collettivizzazione, e gli venne spontaneo aggiungere che anche i pensieri privati delle persone dovessero essere controllati e combattuti. Si rese subito conto di ciò che aveva appena detto ma, invece di ammettere di essersi lasciato trasportare, decise di rimanere fedele alla sua iperbole.

È in questo senso che, per dirla con le parole di Jacques Lacan, la verità è un effetto di sorpresa innescato dalla sua enunciazione o, per dirla con Louis Althusser, riferendosi al gioco di parole tra prise e surprise (“presa” e “sorpresa”), ogni autentica “presa” di un qualche contenuto è una “sorpresa” per chi la compie.

Ma un chatbot è in grado di fare tutto questo? In un certo senso, con tutta la sua stupidità, non è abbastanza stupido per farlo. E il vero pericolo non è credere che il discorso del chatbot sia proprio come quello di una persona, ma che la comunicazione con i chatbot spinga le persone reali a parlare come chatbot, perdendo così le sfumature e le ironie, data l’ossessione per l’illusoria precisione di dire solo quello che vogliono effettivamente dire.

La si può mettere anche in un altro modo. I chatbot sono ingenui (mancano d’ironia e capacità di riflettere), ma nella loro stessa ingenuità non abbastanza: non sono in grado di cogliere un’ingenuità ancora più grande.

Quando ero studente a un mio amico successe una cosa strana: dopo un’esperienza traumatica, andò da uno psicoanalista sloveno molto bravo e, poiché aveva un’idea stereotipata di quello che gli analisti si aspettano da un paziente, nella prima seduta espresse una serie di finte “associazioni libere” su quanto odiava suo padre e su come lo volesse addirittura morto.

La reazione dell’analista fu geniale: adottò un atteggiamento ingenuo “pre-freudiano” e rimproverò il mio amico di non mostrare abbastanza rispetto per il padre (“Come puoi parlare così di una persona che si è presa cura di te con amore e ti ha reso ciò che sei?”, e cose simili). Il messaggio dietro questo atteggiamento ingenuo era chiaro: non credo alle tue “associazioni”, stai fingendo per impressionarmi e portarmi fuori strada. Un chatbot sarebbe in grado di leggere correttamente questa reazione?

Nel suo eccezionale libro su Dostoevskij, Rowan Williams propone una lettura radicalmente nuova del romanzo L’idiota: in contrasto con quella dominante, secondo cui l’eroe del romanzo, il principe Myškin, l’idiota, è descritto come una persona amorevole e buona, “L’uomo assolutamente buono e bello”, come Dostoevskij stesso lo definisce, una persona per la quale i giochi di potere sono talmente duri che, alla fine, deve ritirarsi nella solitudine della follia.

In contrasto con questa lettura standard, Williams considera Myškin l’occhio di un ciclone: una persona buona e santa ma che, proprio in quanto tale, scatena il caos e la morte intorno a sé. È a causa sua, per il suo ruolo nella complessa rete di relazioni che lo circonda, che Rogožin, il suo antagonista, massacra Nastassia Philippovna, di cui entrambi sono innamorati.

Myškin, che di per sé sarebbe un modello di bontà, per le persone intorno a lui non è solo un idiota, un sempliciotto: è a tutti gli effetti un idiota ingenuo, inconsapevole del suo effetto disastroso sugli altri. È una persona che parla come un chatbot: la sua bontà risiede nel fatto che reagisce alle sfide senza ironia, solo con luoghi comuni che mancano di qualsiasi riflessione e che avrebbero potuto essere facilmente generati dall’intelligenza artificiale.

E non è forse questo il problema anche delle nuove forme di censura invocate dalle masse woke (vigili e consapevoli)? Sono allo stesso tempo ingenue e non abbastanza ingenue, come se fossero anatemi generati da un chatbot. ◆ ff

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it

Questo articolo è uscito sul numero 1504 di Internazionale, a pagina 44. Compra questo numero | Abbonati