In meno di due mesi ChatGpt, il programma basato sull’intelligenza artificiale, si è diffuso in ogni settore culturale. Lo si può usare gratuitamente sul sito dell’organizzazione che l’ha sviluppato, OpenAi. Il programma – che crea automaticamente dei testi basandosi su suggerimenti scritti – è divertente. Gli ho chiesto di riscrivere la prima scena di Morte di un commesso viaggiatore, opera teatrale di Arthur Miller, inserendo come protagonista Elsa, la principessa del film d’animazione Frozen. Ne è venuta fuori una conversazione in cui Elsa – tornata a casa dopo una lunga giornata di vendite – si sente dire dal figlio Happy: “Su mamma. Tu sei Elsa di Frozen. Hai i poteri del ghiaccio e sei una regina. Niente ti può fermare”. Scambi di questo tipo fanno ridere, ma i programmi basati sull’intelligenza artificiale hanno implicazioni serie per la scienza e il mondo accademico.

Molti timori riguardano il modo in cui ChatGpt potrebbe cambiare l’istruzione. È sicuramente in grado di scrivere saggi su una serie di argomenti. Gli ho affidato sia un esame sia un progetto finale che avevo assegnato agli studenti di un corso sul negazionismo scientifico che tenevo all’università George Washington. Se l’è cavata bene nel trovare risposte basate sui fatti, ma sulla scrittura accademica ha ancora molta strada da fare. Se non altro, le implicazioni per il settore dell’istruzione potrebbero spingere gli accademici a ripensare i loro corsi in modi innovativi e ad assegnare compiti che l’intelligenza artificiale non può svolgere con facilità. E questo sarebbe un fatto positivo.

Sono molto più preoccupanti gli effetti di ChatGpt sulla stesura di articoli scientifici. In uno studio recente, è stato chiesto a dei recensori accademici di esaminare delle sintesi create da ChatGpt: sono riusciti a rilevare solo il 63 per cento dei falsi. Molti testi generati dall’intelligenza artificiale potrebbero presto farsi strada nella letteratura scientifica.

Da anni gli autori degli articoli pubblicati su Science e altre riviste del gruppo devono firmare un documento in cui certificano che “l’opera è originale”. Per le nostre riviste la parola “originale” implica che un testo scritto da ChatGpt non può essere accettato. Inoltre i nostri autori certificano di essere responsabili in prima persona della ricerca di cui parla l’articolo. Tuttavia, per essere ancora più chiari, stiamo aggiornando quel documento e le nostre norme editoriali, specificando che i testi generati dai software basati sull’intelligenza artificiale non possono essere usati negli articoli, e che non possono essere prodotti numeri, immagini o grafici basandosi su strumenti di questo tipo. La violazione di tali norme sarà considerata una cattiva condotta scientifica, non diversa dall’alterazione di immagini o dal plagio. Naturalmente gli articoli di ricerca comprendono molti insiemi legittimi di dati (e quindi non il testo di un articolo) generati volutamente con l’intelligenza artificiale, a cui non si applicano le regole appena descritte.

La maggior parte dei casi di cattiva condotta scientifica in cui ci imbattiamo nelle nostre riviste riguarda autori che approfittano di scorciatoie – per esempio programmi di manipolazione delle immagini o testi copiati da altre fonti – o curatori e recensori che non danno ascolto al loro scetticismo o non si concentrano abbastanza sui dettagli. In un’epoca in cui la fiducia nella scienza si sta erodendo, è importante che gli scienziati prestino un’attenzione ancora più scrupolosa e meticolosa ai dettagli.

La produzione scientifica è in fin dei conti uno dei modi in cui gli esseri umani cercano di affrontare domande importanti. Le macchine giocano un ruolo non secondario, ma come strumenti. Sono le persone a fare le ipotesi, progettare gli esperimenti e dare un senso ai risultati. Alla fine il prodotto deve scaturire – ed essere espresso – dal meraviglioso computer che abbiamo nella nostra testa. ◆ gim

Herbert Holden Thorp
è un chimico e docente statunitense. Dal 2019 è direttore della rivista Science.

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it

Questo articolo è uscito sul numero 1498 di Internazionale, a pagina 34. Compra questo numero | Abbonati