Il mese scorso, prima che la Microsoft ne limitasse le capacità, il chatbot di Bing – nome in codice Sydney, basato su una versione avanzata del modello ChatGpt della OpenAi – ha seminato il caos per alcuni giorni, minacciando, ingannando e corteggiando i collaudatori. Perfino i giornalisti del settore sono rimasti sorpresi: pur sapendo che questi soft­ware sono solo modelli statistici del linguaggio usato in rete, hanno comunque trovato la “personalità” di Sydney inquietante e sinistramente umana.

Il chatbot di Bing non è ancora diffuso in tutto il mondo e la limitazione delle sue potenzialità gli ha impedito di fare altri danni, ma dovremmo stare attenti. Cosa succederebbe se la versione originale di Sydney interagisse con persone meno preparate? Lo considererebbero qualcosa di più di un modello linguistico statistico, come a volte fanno perfino gli esperti?

Dotare i chatbot di una personalità simile a quella umana non è una novità, a partire da Eliza, creato dall’informatico Joseph Weizenbaum dell’Mit nel 1964, che imitava lo stile di una psicoterapeuta rogersiana, fino al più recente Tay della Microsoft, lanciato nel 2016 e fermato poco dopo per i suoi sproloqui razzisti.

La parola successiva

Questi software sono anche in grado di nascondere quello che succede dietro le quinte. Di recente Murray Shanahan, ricercatore dell’azienda britannica
Deep­Mind, ha spiegato nel dettaglio come funziona questo tipo d’intelligenza artificiale in una bozza d’articolo intitolata Talking about large language models (A proposito dei modelli linguistici di grandi dimensioni). Shanahan ribadisce che, nonostante i continui passi avanti, non fanno altro che prevedere la parola successiva più probabile all’interno di una sequenza in base alle osservazioni precedenti.

Quando un chatbot simile spinge a credere di essere qualcosa di più, spiega Shanahan, si tratta di un inganno. L’empatia verso quello che considerano un loro simile potrebbe spingere gli utenti a fidarsi più del dovuto e a compiere azioni che altrimenti non farebbero.

I ricercatori del settore raccomandano di chiarire che il chatbot non è un essere umano, in modo da rinsaldare la fiducia tra le persone e l’intelligenza artificiale, ma uno studio condotto da Nika Meyer e dai suoi colleghi dell’università di Gottinga, in Germania, evidenzia una serie di problemi. Se un chatbot funziona bene, le persone tendono a fidarsi di meno sapendo che è un software. Se invece funziona male, tendono a essere più comprensive.

Dobbiamo quindi barcamenarci tra il disagio psicologico che proviamo nel seguire i consigli di un software e i rischi che corriamo quando confondiamo un chatbot con un essere umano. Possiamo provare a difenderci ricordando che è un inganno, ma come dimostra il caso di Sydney rischieremmo comunque di convincerci che questi modelli siano qualcosa di più.

Molti esperti consigliano quindi di rinunciare ai chatbot che imitano gli esseri umani. In un articolo del 2021 intitolato “Sui pericoli dei pappagalli stocastici”, la linguista Emily Bender e i suoi colleghi dell’università del Washington a Seattle, negli Stati Uniti, sostengono che l’abilità mimetica dei modelli linguistici di grandi dimensioni è un problema serio: “Chiediamo all’intero settore di riconoscere i danni prodotti da questo approccio”.

Chi pensa che il mondo sarà presto dominato dall’intelligenza artificiale potrebbe considerare inevitabile essere ingannati dai chatbot. Ma programmare un modello linguistico di grandi dimensioni comporta molte decisioni, tra cui quella se dotarlo o meno di personalità e, in caso affermativo, di che tipo.

Queste decisioni andrebbero prese dalla collettività e non da un gruppetto di aziende informatiche come la OpenAi e Google. Anche se la Stability Ai e altre compagnie hanno creato delle alternative open source all’intelligenza artificiale text to image (che trasforma testi in immagini), non esiste ancora una versione open source di qualcosa che somigli a ChatGpt. Nel frattempo la nostra tendenza a vedere qualità umane dove non ci sono potrebbe metterci nei guai. ◆ sdf

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it

Questo articolo è uscito sul numero 1505 di Internazionale, a pagina 104. Compra questo numero | Abbonati