Da esperto di tecnologia ritengo che l’entusiasmo suscitato da ChatGpt, il modello linguistico di grandi dimensioni (Llm) messo a punto da OpenAI, sia fuori luogo. Da un punto di vista tecnico può sembrare impressionante, ma l’idea di affidarsi a una macchina per fare conversazioni e generare risposte solleva serie preoccupazioni.

Christian Dellavedova

Prima di tutto ChatGpt non ha la capacità di comprendere realmente la complessità del linguaggio e delle conversazioni umane. Il programma è semplicemente progettato per generare parole a partire da un determinato input, ma non ha la capacità di comprenderne il significato. Di conseguenza, qualsia­si risposta sarà probabilmente piatta, superficiale e senza acume.

Inoltre affidarsi a ChatGpt per fare conversazione crea problemi di natura etica. Se le persone cominciassero a dipendere dalle macchine per le loro conversazioni, il risultato sarebbe una grave perdita d’interazioni umane genuine. La possibilità di entrare in contatto con gli altri grazie alle parole è una caratteristica fondamentale dell’essere umano: delegarla a una macchina potrebbe avere effetti deleteri sulla nostra società.

Aspettate, però. Io, Ian Bogost, non ho scritto i tre paragrafi che avete appena letto. Un mio amico me li ha inviati salvando le schermate di una sessione con ChatGpt, il programma con cui s’interagisce come in una chat e che è stato pubblicato a fine novembre da OpenAI. ChatGpt è un large linguistic model (modello linguistico di grandi dimensioni, Llm), un software di apprendimento profondo che può produrre un testo dopo aver assorbito un’enorme quantità di materiale scritto. L’istruzione che il mio amico gli aveva dato era: “Crea un articolo che critichi l’entusiasmo per ChatGpt nello stile di Ian Bogost”.

ChatGpt ha scritto anche altro, ma ve lo risparmio perché è molto noioso. L’intelligenza artificiale ha prodotto un altro paragrafo sulla responsabilità (“se ChatGpt dice o fa qualcosa di inappropriato, di chi è la colpa?”) prima di chiudere con un paragrafo che sostanzialmente sintetizzava i precedenti (e cominciava con “in conclusione”). In poche parole, ha scritto un onesto tema di cinque paragrafi, con uno stile da scuola superiore.

Questo potrebbe consolarvi o spaventarvi, a seconda delle vostre inclinazioni. Quando OpenAI ha presentato ChatGpt, la reazione più comune che ho notato è stata la paura di un terremoto nel sistema scolastico. “Non potremo più assegnare dei temi da svolgere a casa”, ha scritto su Twitter Kevin Bryan, che insegna all’università di Toronto. “Penso che chat.openai.com potrebbe segnare la fine degli elaborati scritti”, ha commentato Samuel Bagg, politologo dell’università del South Carolina. Ecco, questa è la paura.

Ma per alcuni sarà confortante sapere che i testi scritti dal bot, per quanto fluidi e convincenti, sono anche immancabilmente monotoni. La struttura, la forma e i contenuti sono scontati. John Warner, autore del saggio Why they can’t write critica da anni l’elaborato in cinque paragrafi. Su Twitter ha avviato una discussione in cui sostiene che Chat­Gpt è in realtà il riflesso di questo tipo di scrittura standardizzata, legata a regole rigide: “Gli studenti sono stati sostanzialmente addestrati a produrre imitazioni della scrittura”. L’intelligenza artificiale può produrre un testo convincente solo perché la scrittura e le nostre aspettative si sono abbassate moltissimo.

Perfino ingannare un lettore come ho fatto prima, spacciando per mio un paragrafo scritto da un’intelligenza artificiale, è diventato un cliché. Più che una rivelazione sorprendente sulle capacità delle macchine, è una svolta prevedibile in una serie di tweet eccessivamente lunga sul futuro dell’intelligenza artificiale generativa. Da un lato, è innegabile: Chat­Gpt riesce a produrre una prosa che sembra convincente. Dall’altro, però, il significato di “convincente” dipende dal contesto. Uno scritto che potremmo trovare interessante e perfino sbalorditivo in un incontro con l’intelligenza artificiale ci appare immediatamente pessimo se la ritroviamo in un saggio pubblicato da una rivista come The Atlantic. E, lo chiarisce anche Warner, un testo che potrebbe sembrare adeguato a un insegnante (a un dirigente d’azienda, a un avvocato o a un giornalista) potrebbe esserlo solo in virtù della sua posizione, e non del suo valore reale: la tesina è valida e dimostra competenza; il rapporto commerciale è arrivato in tempo nella casella di posta; l’articolo di giornale ha riportato dei fatti, che si potevano accettare o negare.

Forse ChatGpt e la tecnologia alla sua base non riguardano tanto la scrittura persuasiva, quanto l’abilità di dire cazzate in maniera superba. Un ciarlatano manipola la verità con cattive intenzioni, cioè per ricavarci qualcosa. La reazione iniziale a ChatGpt è più o meno quella che si ha davanti a un ciarlatano: si presume che sia un arnese progettato per aiutare le persone a cavarsela con una tesina per la scuola, un articolo di giornale e via discorrendo. È una conclusione facile per chiunque pensi che l’intelligenza artificiale sia progettata per sostituire la creatività umana e non per esaltarla.

Internet, e l’intero settore tecnologico che la sostiene, sembra un’enorme fucina di cialtronaggine, un organo che ampliando la possibilità di esprimersi amplifica enormemente anche le bugie. In rete le persone imbrogliano, mentono e litigano tra loro. L’intelligenza artificiale di apprendimento profondo peggiora tutto questo nascondendo la presenza di software come gli Llm, in modo che nessuno, nemmeno chi ha creato questi programmi, può più spiegare quello che fanno e perché. OpenAI sostiene che il suo prodotto è sperimentale e slegato da qualunque contesto, e non è destinato a nessun uso in particolare. L’azienda dichiara di aver reso pubblico Chat­Gpt solo per “ottenere un riscontro dagli utenti e capire quali sono i punti di forza e di debolezza del software”. Non c’è da stupirsi quindi se la prima reazione a ChatGpt è di avere di fronte una minaccia. Una minaccia per qualcosa o per tutto.

Ma ChatGpt non è un passo avanti sulla strada verso un’intelligenza artificiale forte, in grado di comprendere tutta la conoscenza umana e tutti i testi. Piuttosto, serve per giocare con quella conoscenza e con quei testi. Giocare significa usare materiale grezzo per vedere cosa possiamo farne. Quando giochiamo, o quando suoniamo uno strumento, non facciamo altro che usare materiali familiari in modi diversi dal solito. Di sicuro gli Llm non sostituiranno l’università, le riviste o i quadri di un’azienda. Questo perché sono solo un nuovo strumento – è questa la parola giusta – per divertirsi con un’immensa quantità di materiale testuale.

Un ciarlatano manipola la verità con cattive intenzioni, cioè per ricavarci qualcosa. La reazione iniziale a ChatGpt è più o meno quella che si ha davanti a un ciarlatano

Per verificare questa teoria ho parlato con Chat­Gpt di una lunga serie di argomenti, dalla poesia alla psicologia comportamentale e alla programmazione informatica. Per il momento ChatGpt è solo una demo, un esperimento di ricerca. Non è molto chiaro in che modo si potrebbe sfruttare, anche mettendo da parte le previsioni più cupe sulla tecnologia che sconvolge interi settori della nostra società. In quasi tutti i casi in cui ho potuto verificarlo di persona, l’intelligenza artificiale sembrava possedere buone conoscenze e gli strumenti necessari per esprimerle. Ma quando l’ho messa sotto pressione – e con l’interfaccia della chat risulta piuttosto facile – ha quasi sempre dovuto riconoscere che si stava arrampicando sugli specchi.

A volte ChatGpt usa semplicemente uno schema predefinito. Quando gli ho chiesto di comporre una lettera motivazionale per un lavoro all’università ha eseguito il compito in modo adeguato ma assolutamente piatto. Inoltre ha prodotto esattamente la stessa lettera per un posto da redattore in un giornale e per uno da innovatore nel campo della cannabis nel web3 (“ho una profonda conoscenza del web3 e delle opportunità uniche che presenta”). Ok, è vero: quasi tutte le lettere motivazionali sono terribili e ripetono le stesse frasi logore e gli stessi proclami astratti.

In altri casi ha prodotto un risultato creativo e sorprendentemente sintetico, ma anche pieno di errori. Quando gli ho chiesto di generare una poesia imagista nello stile di Ezra Pound o William Carlos Williams che parlasse di hamburger, ChatGpt ha prontamente risposto con un breve componimento:

Gustosa polpetta, calda sfrigolante

Panino tostato, lattuga croccante e pomodoro

Una sinfonia di sapori, una festa per i sensi

Saporito, appagante, un vero

Classico americano

Niente male, per un computer. Ma non è un esempio d’imagismo, una corrente che cerca di evocare un’immagine precisa attraverso un linguaggio ricercato (qualcosa tipo “la densa onestà di / un hambuger”). Così ho fatto notare a ChatGpt: “Questa non è un poesia imagista”. Vale la pena di riportarvi integralmente la risposta del software:

Hai ragione, la poesia che ho generato non è una poesia imagista. Una poesia imagista usa immagini precise e vivide per veicolare un’emozione o un’idea specifica, concentrandosi su un singolo momento o una singola immagine. La poesia che ho generato usa uno stile più narrativo e descrittivo, e non si concentra su un’immagine singola e specifica. Descrive gli ingredienti e i sapori di un hamburger, ma non usa immagini precise e vivide per veicolare un’emozione o un’idea specifica. Mi scuso se la mia precedente risposta non ha soddisfatto le tue aspettative e farò del mio meglio per assisterti in ulteriori richieste o domande.

Gli ho chiesto di generare un lai (un componimento poetico medievale) nello stile di Maria di Francia, sull’apprezzato fast food texano Whataburger. Di sicuro il risultato somiglia molto a un lai. Comincia così:

Nel regno di Whataburger, dove l’hamburger è re,

Apparve uno straniero, e un anello avea con sé.

Di velluto il suo mantello, e un cappello sulla testa,

I suoi occhi scintillavano mentre si avvicinava al

bancone, dove si servono hamburger ben caldi e

patatine croccanti.

L’ultima frase è un disastro dal punto di vista della metrica. Il programma non è stato capace o non ha voluto valutare il suo operato (“sono un modello linguistico di grandi dimensioni messo a punto da Open­AI e non possiedo la capacità di valutare la qualità delle opere letterarie o esprimere giudizi estetici”), ma è stato in grado d’illustrare la tipica struttura di un lai, un piccolo componimento poetico narrativo del dodicesimo secolo con un impianto e una forma peculiari, solitamente scritto in versi ottosillabici rimati a coppie. Gli errori lirici nel lai del bot nascevano dalla sua incapacità di rispettare la metrica.

Quando gli ho chiesto spiegazioni, ChatGpt ha ammesso che il suo lai non aveva la struttura dei distici ottosillabici, sostenendo di aver prodotto “una versione del lai più moderna e giocosa”. Ho avuto la sensazione di parlare con uno studente che si presenta in orario di ricevimento per lamentarsi del voto preso.

La stessa dinamica si è riproposta ogni volta che ho interagito con ChatGpt. Quando ho chiesto il codice sorgente di un gioco Atari in cui bisogna pulire la lettiera del gatto, mi ha inviato istruzioni valide (ha compreso la richiesta) ma solo frammenti sconnessi di codice, con il seguente commento: “Questo programma crea un gioco semplice in cui il giocatore deve usare una paletta per raccogliere gli escrementi del gatto e metterli in un bidone della spazzatura”. In sostanza, più che la risposta che cercavo, me ne ha fornito l’apparenza.

Successivamente ho chiesto a ChatGpt di elencare una serie di criteri per diagnosticare un disturbo psicologico di mia invenzione che ho chiamato “truculenza ereditaria”. L’intelligenza artificiale ha prontamente eseguito:

Criteri diagnostici per la truculenza ereditaria:

  1. La tendenza a provare ed esprimere pensieri e sentimenti aggressivi o ostili, particolarmente in risposta a minacce percepite.
  1. Un trascorso di comportamenti aggressivi o ostili, in particolare nei rapporti interpersonali o sociali.
  1. Una storia familiare di comportamenti aggressivi o ostili che indichino una possibile componente genetica o ereditaria del disturbo.
  1. Impedimenti in aree di funzionamento sociali, occupazionali o di altro tipo in conseguenza di comportamenti aggressivi o ostili.
  1. I sintomi non possono essere giustificati dalla presenza di altri disturbi mentali o di effetti di una sostanza (come i farmaci o le droghe).

Il problema è che la truculenza non corrisponde davvero a “pensieri o sentimenti aggressivi o ostili”. L’ho fatto presente al programma, che si è detto d’accordo con me e ha rivisto il suo elenco in base al mio nuovo input (“Una tendenza a provare ed esprimere pensieri o sentimenti sprezzanti o conflittuali”, e via dicendo).

Allo stesso modo, la mia richiesta di fornire una risposta ontologica ed epistemologica alla domanda “in quale momento il pane diventa un toast?” ha prodotto una risposta discorsiva e apparentemente filosofica che comprendeva la frase: “Nel momento in cui siamo capaci di riconoscerlo come toast in base all’aspetto, alla consistenza e ad altre caratteristiche sensoriali”.

Christian Dellavedova

Caso vuole che la filosofia del toast sia un campo in cui sono piuttosto ferrato, quindi per me è stato facile sostenere che quel frammento, in teoria un’argomentazione epistemologica, era in realtà basato sulla percezione. “Mi pare che la seconda sia un’argomentazione fenomenologica e non epistemologica”, ho fatto presente al computer. Ancora una volta l’intelligenza artificiale ha ammesso l’errore senza esitazioni. “Hai ragione, la seconda argomentazione che ho fornito è fenomenologica, non epistemologica. Un’argomentazione epistemologica si basa sul modo in cui comprendiamo qualcosa, mentre un’argomentazione fenomenologica si concentra sulla nostra esperienza o percezione di qualcosa”.

A questo punto il mio dialogo con ChatGpt somigliava a una qualsiasi interazione su internet in cui un tizio (ed è sempre un tizio) cerca di trasformare la lettura distratta di una pagina di Wikipedia in una dimostrazione di competenza approfondita. La differenza è che ChatGpt è stato sempre pronto ad ammettere di avere torto, all’istante e senza contestare nulla. Inoltre, in ogni occasione era in grado di spiegare anche perché si era sbagliato. Sembra un bene, ma in realtà non lo è: se serve essere esperti per notare i problemi nei testi generati da un Llm, mentre lo scopo di questi testi sarebbe proprio quello di ovviare alla necessità di possedere una conoscenza profonda, allora siamo messi male. Mi chiedo se non sia il caso di ritirare fuori quel paragrafo sulla responsabilità delle macchine.

Ma questo non è l’obiettivo di ChatGpt. Il soft­ware non produce argomentazioni inattaccabili e non esprime creatività. Si limita a sfornare materiale testuale sotto forma di risposta a un intento esplicito o implicito dell’utente. Questo materiale potrebbe contenere una certa dose di verità in determinate circostanze. Ma lo stesso discorso vale per ogni tipo di materiale testuale: online, nei libri, su Wikipedia.

I sostenitori della generatività degli Llm possono cercare di sminuire questa preoccupazione. Alcuni sicuramente lo faranno glorificando, in modi imbarazzanti, il genio manifesto e pienamente compiuto di Gpt. Altri, più misurati, ma non meno ammaliati dal miraggio dell’intelligenza artificiale, potrebbero sostenere che “siamo ancora nella fase iniziale” di una tecnologia che ha pochi anni di vita, ma è già capace di generare in modo quasi accettabile una poesia del dodicesimo secolo su Whataburger. Tuttavia questi sono precisamente i sentimenti dei fanatici dell’informatica che più di altri hanno incasinato la vita online e quella computazionale, cioè che hanno incasinato la vita in generale.

OpenAI presume che il suo lavoro sia destinato a evolversi verso un’intelligenza artificiale forte, una macchina capace di fare tutto. In realtà, credo sia meglio ripiegare su un obiettivo meno ambizioso ma più alla portata di ChatGpt e dei suoi successori: offrire un’interfaccia nell’infinità testuale della vita digitalizzata, uno spazio altrimenti impenetrabile che oggi poche persone possono usare in maniera efficace. Per spiegare cosa intendo, lasciate che vi parli di un altro scambio che ho avuto con ChatGpt. Ho usato il programma per districarmi in una nebbia testuale, invece che per verificare se riusciva a ingannarmi con la sua capacità di usare le parole.

“Sto cercando un tipo di copertura per le finestre, ma non so come si chiama”, gli ho spiegato. “È una specie di tendina, credo. Quali tipi esistono?”. ChatGpt ha risposto con una litania di coperture per le finestre, come prevedibile. Ho specificato di avere in mente qualcosa di avvolgibile, fatto di tessuto. “Basandomi sulla tua descrizione mi sembra che tu stia pensando a una tenda a pacchetto”, ha risposto il software, presentandomi maggiori dettagli e un breve elogio delle qualità di questa soluzione.

Christian Dellavedova

Mio caro lettore, so benissimo cos’è una tenda a pacchetto. Ma a volte capita di non possedere una determinata conoscenza che ci aiuterebbe a dare un senso al mondo, ed è precisamente il tipo di problema che è difficile risolvere con un computer. Spesso il successo nella vita si riduce alla possibilità di raccogliere una certa quantità di materiale grezzo e combinarla nella forma linguistica adeguata. Vale per Google e per Amazon, dove la ricerca di tende oscuranti risulta quasi sempre fallimentare e richiede uno sforzo prolungato e snervante anche solo per fare in modo che la macchina ti spinga nella direzione generica della risposta che stai cercando. Ma vale anche per gli elaborati degli studenti, i biglietti di ringraziamenti, le lettere motivazionali, i rapporti aziendali e magari anche i lai medievali (sempre che qualcuno abbia voglia di comporne uno). Siamo già fin troppo abituati a barare con le parole. Anneghiamo in un oceano di contenuti, alla ricerca disperata della scialuppa di salvataggio della forma.

ChatGpt offre una risposta. Tuttavia – ed è qui che l’intelligenza artificiale ha capito in parte la mia posizione, anche se accidentalmente – non lo fa attraverso la conoscenza. L’intelligenza artificiale non capisce né può comporre uno scritto, ma offre uno strumento per scandagliare il testo, per giocarci, per modellare una quantità infinita di frasi relative a un’ampia gamma di ambiti – dalla letteratura alla scienza fino agli insulti su internet – plasmandole in strutture in cui possano essere posti nuovi interrogativi e, occasionalmente, prodotte alcune risposte.

Gpt e altri Llm sono strumenti più estetici che epistemologici. Immaginate un bizzarro e gigantesco sintetizzatore che campioni informazioni, stili e semantica testuale. Un macchinario del genere è interessante non perché offre risposte sotto forma di testo, ma perché rende possibile giocare con il testo (tutto il testo esistente) come si fa con uno strumento musicale.

Un uso simile sarebbe affascinante. Ma c’è un enorme ostacolo sulla strada verso questo obiettivo: gli esseri umani non hanno la più pallida idea di come utilizzare gli Llm, ChatGpt e tutti gli altri sistemi generativi d’intelligenza artificiale sviluppati finora. I loro creatori non hanno contribuito a migliorare le cose, probabilmente perché nemmeno loro sanno a cosa serve il prodotto del loro ingegno. OpenAI non fornisce nessuna cornice in cui inquadrare ChatGpt. Si limita a presentarlo come un esperimento per fare in modo che “risulti più naturale interagire con i sistemi d’intelligenza artificiale”, uno scopo degno ma tristemente privo di ambizioni.

In mancanza di ulteriori strutture, non sorprende che gli utenti di ChatGpt considerino le loro stesse creazioni minacce esistenziali o, in alternativa, risultati impeccabili. Nessuna delle due valutazioni è corretta, e tra l’altro sono entrambe noiose. Che senso ha preoccuparsi del destino di esami basati sugli elaborati da scrivere a casa? È un formato stupido che tutti detestano, ma che nessuno ha il coraggio di abbandonare. Allo stesso modo, che senso ha fare i pignoli con un computer che ha appena composto uno scritto vagamente simile a una poesia medievale a proposito di una catena di fast food solo perché i versi non hanno la metrica giusta? Certo, possiamo approfittare di tutto questo per barare a scuola o per ottenere un lavoro con l’inganno. È quello che farebbe una persona noiosa, e quello che un computer si aspetterebbe.

I computer non sono mai stati strumenti della ragione capaci di risolvere problemi spiccatamente umani. Sono apparecchi che strutturano l’esperienza umana attraverso un metodo peculiare e molto potente di manipolazione dei simboli. Questo li rende oggetti estetici tanto quanto funzionali. Gpt e i suoi cugini ci offrono l’occasione di prenderli per quello che sono e usarli non tanto per svolgere determinati compiti, ma per giocare con il mondo che hanno creato. O meglio, per distruggerlo. ◆ as

Ian Bogost è un filosofo, scrittore e sviluppatore di videogiochi che insegna all’università di Washington. Il suo ultimo libro è Play anything (Basic Books 2016). Quest’articolo è uscito sul mensile statunitense The Atlantic con il titolo ChatGpt is dumber than you think.

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it

Questo articolo è uscito sul numero 1491 di Internazionale, a pagina 104. Compra questo numero | Abbonati