Scrivo per la televisione, sia serie sia film. Il mio lavoro è in gran parte di carattere storico o basato su fatti reali, e facendo ricerche con ChatGpt ho scoperto che Google in confronto è come guidare fino alla biblioteca, spulciare le schede del catalogo, chiedere i libri e aspettare settimane che arrivino. Questo nuovo strumento è stato una svolta.
Poi ho cominciato a incollare su ChatGpt le mie sceneggiature, chiedendo un parere. Le osservazioni su coerenza, chiarezza e struttura narrativa si sono rivelate estremamente utili. Di recente ho fatto un passo in più: gli ho chiesto di scrivere un paio di scene. Dopo qualche secondo sono apparse: avevano un ritmo serrato, erano dense di emozioni, divertenti, animate da una tensione incalzante e i dialoghi sembravano quelli di persone reali. Con qualche minimo aggiustamento avrei potuto inserirle direttamente in una sceneggiatura. Ma quale linea etica starei oltrepassando? Sarebbe plagio? Furto? Un atto fraudolento? Vorrei la sua opinione.–Lettera firmata
“Chiudiamola qui”. Qualche anno fa, insonne in una stanza d’albergo, facevo zapping in tv e mi sono imbattuto in tre o quattro programmi dove qualcuno faceva questa dichiarazione, magari con un tono minaccioso. “Non c’è altro da discutere”. “Questa conversazione è finita!”. Le persone parlano davvero così? Forse sì, se hanno guardato molta tv.
Voglio dire che molte sceneggiature televisive già da tempo sembrano piuttosto algoritmiche, un ecosistema di cliché pesantemente riciclati. In una sitcom, la persona di cui gli altri stanno parlando interviene con: “Eccomi qua!”. Dopo una riunione disastrosa, qualcuno deve commentare impassibile: “È andata bene”. In un dramma, un personaggio furibondo deve gettare per terra tutto quello che ha sulla scrivania. E così via.
Per alcuni, l’intelligenza artificiale (ia) è solo un altro arnese senz’anima che dovremmo buttare via, come il leader politico che nei film smette di leggere, accartoccia i fogli e comincia a parlare col cuore (quante volte lo abbiamo visto?). Ma gli esseri umani sfornano conversazioni e scene standardizzate da generazioni, senza alcun aiuto artificiale. E a pochi sembra importare.
Quando gli sceneggiatori che conosco parlano di intelligenza artificiale generativa, non la liquidano con sufficienza, anche se ne riconoscono i limiti. Uno scrittore dice che fa brainstorming con un chatbot quando sta “abbozzando la storia”, delineando i punti chiave della trama e i colpi di scena. Il chatbot non risolve il problema, ma di fatto lo spinge ad andare oltre l’ovvio. Un altro, un celebre sceneggiatore e regista, ha usato l’ia per trasformare una sceneggiatura già conclusa nel “trattamento” chiesto dallo studio, risparmiandosi giorni di lavoro ripetitivo. Un terzo, ingaggiato per scrivere un film in costume, l’ha trovata utile per individuare cadenze che suonassero veritiere per un certo personaggio storico.
Questi autori detestano i cliché. Ma per chi ha il compito di creare intrattenimento “da divano” – da seguire mentre si usa un altro dispositivo – l’obiettivo non è tanto essere originali quanto far arrivare i momenti chiave in modo pulito al pubblico.
Ma allora perché gli sceneggiatori non si sentono minacciati? Innanzitutto perché, in una forma o nell’altra, è la suspense a spingere le persone a guardare qualcosa più a lungo di una clip di TikTok, ed è proprio qui che l’ia annaspa. Solo uno scrittore riesce a destreggiarsi tra il quadro generale e il dettaglio, passando da una visione a diecimila metri di altezza a quella a pochi centimetri da terra, o sa costruire un arco emotivo in più atti, seminare indizi premonitori che si chiariscono solo molto più tardi e non perdere mai di vista ciò che sa il pubblico rispetto a quello che sanno i personaggi. Uno studio recente ha riscontrato che i modelli linguistici di grandi dimensioni non riescono a prevedere quanto un testo risulterà ricco di suspense per i lettori.
Ecco perché sento gli sceneggiatori parlare dell’ia come di uno strumento, e non come di un supplente ambizioso. Mi rendo conto che in questo momento tu potresti avere un’altra prospettiva: “Non siamo così diversi, tu ed io”, come dice il cattivo all’eroe in un’infinità di film. Ma non svilirti. Hai dato alla macchina i tuoi scritti prima di chiederle di abbozzare una scena. Hai chiarito che genere di lavoro narrativo bisognava svolgere. E finché tu e lo studio o la società di produzione siete d’accordo su questo punto, resterai dalla parte del giusto. I tuoi datori di lavoro volevano una sceneggiatura; tu sarai responsabile di ogni pagina che leggeranno. E se è vero che l’ia generativa è stata addestrata sul lavoro di creatori umani, lo stesso vale per te: ogni serie che hai visto, ogni sceneggiatura che hai letto, hanno sicuramente lasciato un segno. Non hai motivo di scusarti.
E l’industria dell’intrattenimento? Era già dipendente da formule narrative ripetitive, come ho sottolineato, ben prima che arrivassero i grandi modelli linguistici. Certi schemi resistono semplicemente perché sono leggibili, efficienti e facili da mettere in scena. Prendi quello in cui un personaggio ha una notizia da dare a un altro, ma viene interrotto dalla notizia dell’altro, che gli dà un motivo per non condividere la propria. Poi arriva l’inevitabile: “Allora, cosa volevi dirmi?”. Aiuto! Gli sceneggiatori ricorrono a questo cliché da decenni, perché mai un chatbot non dovrebbe riproporlo? La verità è che molti spettatori amano le situazioni familiari e preferiscono che i programmi – soprattutto le soap opera e i film franchise – offrano sorprese in modi prevedibili. Eppure, ci sarà sempre un pubblico per le opere che rifiutano i modelli e per gli scrittori che pensano, per così dire, fuori dal chatbot.
Questo è il quadro più generale. Nella vita quotidiana di uno scrittore che lavora, il problema è meno astratto. Se qualcuno ti incalza sulla tua politica in materia di intelligenza artificiale, ricordagli che non stai violando le regole. Dì che ogni pagina che consegni è esattamente come tu la vuoi. E poi aggiungi: “Chiudiamola qui”.
(Traduzione di Gigi Cavallo)
Il consulente etico è una rubrica del New York Times Magazine su come comportarsi di fronte a un dilemma morale. Qui ci sono tutte le puntate.
Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it