01 dicembre 2020 13:56

Può produrre in serie email, codici informatici, pubblicità online, trame per videogiochi, giri di chitarra e consigli per i costumi di Halloween. Può scrivere poesie che ricalcano in modo disarmante lo stile di Emily Dickinson, di Ernest Hemingway e perfino, se è allenato a farlo, un’immaginaria conversazione tra questi due autori. Le possibilità sembrano quasi infinite. Per questo, quando ho avuto l’opportunità d’interagire con Gpt-3 – un nuovo modello di generazione del linguaggio che negli ultimi mesi ha scosso il mondo dell’intelligenza artificiale – mi sono affidato al suo aiuto per scrivere una descrizione di me, chiedendogli di scriverla come se fossi Luke Skywalker, l’eroe di Guerre stellari.

Essendo stato programmato con praticamente qualsiasi testo accessibile su internet, Gpt-3 impressiona per velocità, portata e versatilità. Questo è il testo che ha prodotto all’istante: “John Thornhill era già un eroe di guerra decorato quando è entrato nell’Alleanza ribelle. Aveva esperienza nel far esplodere ordigni e possedeva uno spiccato intuito nell’arte della guerra, ma la sua vera forza stava nel suo squadrone. Dopo essere arrivato a comandare uno squadrone tutto suo nei ranghi della Ribellione, John ha guidato i suoi uomini in numerose battaglie, che hanno fatto di lui un leader incrollabile, dotato dello spirito di un vero Ribelle”. È arrivato il momento di aggiornare i miei biglietti da visita.

Grazie ai recenti progressi dell’apprendimento automatico, i sistemi di generazione del linguaggio stanno diventando sempre più diffusi. Quill, creato dall’azienda tecnologica Narrative Science, è in grado di processare dati sulle prestazioni di un portafoglio di titoli azionari e scrivere riassunti per gli investitori. Ma quanto a capacità di adattamento niente può battere Gpt-3, lanciato a maggio da OpenAI, una società di ricerche sull’intelligenza artificiale con sede a San Francisco. Frutto di un investimento stimato di 12 milioni di dollari, il modello contiene 175 miliardi di parametri di linguaggio, cento volte più del prototipo precedente. Si tratta, per usare una frase dello scienziato informatico britannico Alan Turing, della più impressionante macchina “d’imitazione” mai costruita finora.

Turing fu una delle prime persone a immaginare in che modo il mondo sarebbe stato trasformato da macchine in grado di pensare. Nel suo articolo Computing machinery and intelligence, del 1950, spiegava che i computer sarebbero potuti diventare talmente abili nell’imitare gli esseri umani che sarebbe stato impossibile distinguerli dalle persone in carne e ossa. “Possiamo sperare che un giorno le macchine competeranno con gli esseri umani in tutti i campi puramente intellettuali”, scrisse Turing.

Bagliori di vera intelligenza
Queste macchine informatiche universali sarebbero state in grado di vincere quello che lui definiva un “gioco dell’imitazione”, cioè convincere una persona che sta comunicando con una persona quando in realtà sta parlando con un software (anche se oggi alcuni sostengono che il successo del cosiddetto test di Turing potrebbe essere il frutto della tendenza umana a credere a tutto più che di una reale intelligenza delle macchine). Settant’anni dopo, grazie al rapido sviluppo di internet e all’aumento esponenziale della potenza informatica, siamo entrati in un mondo dove il ruolo delle macchine supera anche l’immaginazione di Turing. Grazie a nuove tecniche di software, come le reti neurali e l’apprendimento profondo, gli informatici sono diventati molto più abili nell’addestrare le macchine a giocare al gioco dell’imitazione.

Alcune delle persone che hanno già provato Gpt-3 sostengono che offra bagliori di vera e propria intelligenza, il che segnerebbe un importante passo verso il punto d’arrivo definitivo dell’intelligenza artificiale: l’intelligenza artificiale forte (Agi), il momento in cui l’intelligenza elettronica pareggerà quella umana in quasi tutti gli ambiti intellettuali. Altri respingono quest’ipotesi, ritenendola priva di senso: fanno notare i comici errori di Gpt-3 e sostengono che mancano ancora molti importanti passi avanti concettuali prima della creazione di una super intelligenza di questo tipo.

Secondo Sam Altman, l’imperturbabile amministratore delegato di OpenAi, c’è un motivo se le persone intelligenti sono così esaltate per Gpt-3. “Abbiamo qui le prove del primo precursore dell’intelligenza artificiale applicata a scopi generali: un sistema che può sostenere molte applicazioni, e molto diverse tra loro, e che migliora davvero il genere di software che possiamo costruire”, dice Altman, 35 anni. “Credo che offra uno sguardo sul futuro”.

Secondo Altman, la rivoluzione dell’intelligenza artificiale sarà più importante di tutte le precedenti rivoluzioni messe insieme

OpenAI è considerata una delle organizzazioni più inusuali del pianeta, forse paragonabile solo a Google DeepMind, la società di ricerca sull’intelligenza artificiale con sede a Londra e guidata da Demis Hassabis. I suoi 120 dipendenti si dividono, come spiega Altman, in tre “categorie” molto diverse: ricercatori che si occupano d’intelligenza artificiale, creatori di start-up ed esperti di politiche di sicurezza e tecnologiche. OpenAI condivide i suoi uffici di San Francisco con Neuralink, azienda che si occupa d’interfaccia neurotecnologiche. Fondata nel 2015 grazie a un investimento da un miliardo di dollari di importanti aziende tecnologiche e imprenditori della costa ovest degli Stati Uniti, OpenAI ha l’ambizione di sviluppare un’intelligenza artificiale forte a beneficio di tutta l’umanità.

Inizialmente creata come istituzione senza fine di lucro, OpenAI ha poi adottato un approccio più commerciale, accettando un’ulteriore investimento di un miliardo di dollari da Microsoft, lo scorso anno. Strutturata come un’azienda “a profitti limitati”, è in grado di attirare capitali ed emettere strumenti finanziari partecipativi, un fatto necessario se si vogliono attrarre i migliori ricercatori della Silicon valley e rimanere fedeli alla propria missione pubblica ispiratrice, senza un’eccessiva pressione degli azionisti.

Secondo Altman, l’avvento della rivoluzione dell’intelligenza artificiale sarà più significativo, per l’umanità, delle precedenti rivoluzioni – agricola, industriale e informatica – messe insieme. Lo sviluppo dell’Agi riequilibrerà in maniera sostanziale il rapporto tra esseri umani e macchine, e potrebbe spianare la strada a una forma più alta d’intelligenza elettronica. A quel punto, come ha scritto lo storico israeliano Yuval Noah Harari, l’homo sapiens smetterebbe di essere l’algoritmo più intelligente del pianeta. Secondo Altman, l’intelligenza artificiale, se ben gestita, può trasformare la produttività e la creatività umane, permettendoci di affrontare alcune delle sfide più complesse del pianeta, come i cambiamenti climatici e le pandemie. “Penso che il futuro sarà incredibilmente potente”, dice. Ma, se sarà gestita male, potrebbe semplicemente moltiplicare molti dei problemi di oggi: l’eccessiva concentrazione di potere delle aziende, con società private che assumono sempre più le funzioni un tempo esercitate dagli stati, le disuguaglianze economiche, la disinformazione e l’erosione della democrazia.

Alcuni scrittori, come Nick Bostrom, si sono spinti al punto di sostenere che un’intelligenza artificiale fuori controllo potrebbe perfino minacciare la sopravvivenza dell’umanità. “Di fronte alla prospettiva di un’esplosione intelligente, noi umani siamo come dei bambini piccoli che giocano con una bomba”, ha scritto nel suo libro del 2014, Superintelligenza. Tendenze, pericoli, strategie. Simili avvertimenti hanno sicuramente colpito Elon Musk, che ha twittato: “Dobbiamo essere attentissimi con l’Intelligenza artificiale. È potenzialmente più pericolosa del nucleare”.

I lati oscuri
Le preoccupazioni su come gestire al meglio questi strumenti hanno spinto OpenAI a circoscrivere il lancio di Gpt-3. “Non volevamo diffonderlo nel mondo senza essere in grado di modificarne l’applicazione in un secondo momento”, spiega Altman. Circa duemila aziende hanno potuto accedere a una versione di prova controllata di Gpt-3. Quel che scoprono esplorandone le capacità viene poi reintrodotto nel modello per effettuare ulteriori miglioramenti. “Stupefacente”, “sorprendentemente funzionante” e “favoloso” sono solo alcune delle reazioni nella comunità degli sviluppatori. David Chalmers, professore all’università di New York ed esperto di filosofia della mente, è arrivato a dire che Gpt-3 è così sofisticato da mostrare rudimentali segni di coscienza. “Sono aperto all’idea che un verme dotato di 302 neuroni abbia una coscienza, e quindi anche a quella che lo sia un Gpt-3 che possiede 175 miliardi di parametri”, ha scritto sul sito di filosofia Daily Nous.

Tuttavia, non c’è voluto molto tempo prima che gli utenti individuassero i lati più oscuri di Gpt-3 e lo inducessero a proferire insulti razzisti e sessisti. Alcuni temono che non farà altro che scatenare un maremoto di “spazzatura antisemita”. Un falso post di blog, scritto con uno pseudonimo da uno studente universitario che usava GPT-3, è arrivato in cima ai post di Hacker News, un sito web di tecnologia.

Se OpenAI ravvisa prove di uso improprio, come la produzione di contenuti offensivi o di spam, può escludere l’utente in questione e aggiornare il comportamento del suo modello per ridurre le possibilità che succeda di nuovo. “Potremmo sicuramente escludere un utente che viola i nostri termini e condizioni, e lo faremo. Ma la cosa più elettrizzante è che possiamo cambiare le cose molto rapidamente”, spiega Altman. “Uno dei motivi per cui abbiamo lanciato Gpt-3 come Api (interfaccia di programmazione dell’applicazione) è che ci permette di familiarizzare con quello che funziona bene, con quello che non funziona, il tipo di applicazioni che funzionano e le situazioni dove questo non succede. Per noi si tratta, in realtà, di una prova generale per la messa in campo di potenti sistemi di utilità generale fondati sull’intelligenza artificiale”.

Simili scoperte dovrebbero contribuire a migliorare la progettazione e la sicurezza dei futuri sistemi d’intelligenza artificiale, che vengono usati ad esempio in chatbot (software progettati per simulare una conversazione con un essere umano), robot che si prendono cura delle persone o automobili che si guidano da sole. Per quanto le sue prestazioni attuali possano essere per molti versi impressionanti, la vera importanza di Gpt-3 potrebbe stare nelle capacità che svilupperà per i modelli che verranno dopo di lui. Attualmente opera come una funzione automatica di completamento ipersofisticata, capace di mettere insieme sequenze di parole che si presentano come plausibili senza aver alcun elemento di comprensione.

Per ora Gpt-3 ha bisogno della presenza costante di un babysitter in carne e ossa, che gli dica quali cose non dire

Come aveva previsto Turing decenni fa, i computer possono raggiungere una competenza in molti campi senza mai raggiungere la comprensione. John Etchemendy, condirettore dello Stanford institute for human-centred AI, evidenzia le carenze che oggi hanno anche i modelli di generazione linguistica più potenti, e sostiene che, anche se Gpt-3 è stato addestrato per produrre testi, non ha alcuna comprensione intuitiva di cosa significhi un testo. I suoi risultati derivano casomai da una modellizzazione del calcolo delle probabilità.

Ma aggiunge che i recenti progressi nei sistemi di visione e nell’articolazione di discorsi dei computer potrebbero arricchire in maniera significativa le loro capacità in futuro. “Sarebbe fantastico se potessimo addestrare un sistema a trattare dati multimodali, sia testo sia immagine”, dice. “I sistemi che ne deriverebbero saprebbero allora non solo come produrre frasi con l’uso della parola ‘rosso’, ma anche usare il colore rosso. Potremmo cominciare a costruire un sistema che possiede una reale comprensione linguistica, e non uno che ha semplicemente delle abilità statistiche”.

I possibili danni procurati da questa attuale discrepanza tra abilità e comprensione sono stati sottolineati dalla Nabla Technologies, un’azienda che si occupa di dati sanitari, che ha esaminato l’abilità di Gpt-3 nel fornire consulenza medica. L’azienda ha scoperto che, in un caso, Gpt-3 ha perfino assecondato il desiderio di suicidarsi di un paziente immaginario (OpenAI mette espressamente in guardia contro i pericoli di usare Gpt-3 per simili questioni, nelle quali “la posta in gioco è così alta”).

Il Deuce (Digital electronic universal computing engine), una prima versione del computer costruito dal progetto di Alan Turing. Regno Unito, 1958. (Walter Nurnberg, SSPL/Getty Images)

Shannon Vallor, docente di etica dei dati e dell’intelligenza artificiale all’università di Edimburgo, sostiene che simili casi evidenziano la necessità di una costante supervisione umana di questi sistemi automatizzati: “Per ora Gpt-3 ha bisogno della presenza costante di un babysitter in carne e ossa, che gli dica quali cose non dire. Il problema è che non è realmente intelligente. Non impara nello stesso modo in cui lo fanno le persone. Non esiste un modo di rendere Gpt-3 consapevole dell’inappropriatezza di alcuni specifici enunciati e di spingerlo a smettere di usarli. Si tratta di un evidente e profondo divario, che non so come riusciremo a colmare. “La promessa iniziale di internet consisteva nel portare conoscenza al genere umano in modo molto più equo e accettabile”, aggiunge Vallor. “Il mio timore è che, a causa di tecnologie come Gpt-3, potremmo assistere molto presto a una reale regressione, dove le informazioni condivise diventeranno sempre più inutilizzabili o addirittura dannose per le persone”.

Reid Hoffman, fondatore di LinkedIn e membro del consiglio di amministrazione di OpenAI, sostiene che l’organizzazione sta facendo grandi sforzi per creare procedure operative sicure e migliorare i modelli di gestione. Per scongiurare esiti negativi, suggerisce, servono tre cose: rimuovere i dati storicamente errati, che derivano dai pregiudizi della società; inserire una qualche possibilità di spiegazione nei sistemi d’intelligenza artificiale, capendo cosa sia necessario correggere; ed effettuare costantemente dei controlli incrociati tra i risultati di un qualsiasi sistema e i suoi scopi originali. “Assistiamo agli inizi di un ottimo lavoro in questo campo. Le persone sono molto sensibili a questi problemi e ci stiamo lavorando”, dice. “La domanda non è come arrestare la tecnologia, ma come indirizzarla”, aggiunge. “Un razzo non è sbagliato in sé. Ma un razzo nelle mani di una persona che vuole fare danni e possiede una bomba può essere davvero nefasto. Come fare la scelta giusta in questo contesto? Cosa dicono i nuovi trattati? E che ne è dell’attività di supervisione? Che genere di tecnologia dobbiamo costruire o non costruire? Tutti questi elementi costituiscono interrogativi molto presenti e vivi oggi”.

Conversazioni sul senso della vita
Porre simili domande è sicuramente prova di buona volontà. Tuttavia, per rispondere in maniera soddisfacente serviranno sforzi d’immaginazione senza precedenti, collaborazione, e un’efficace attuazione da parte di alleanze, in costante mutamento, formate da aziende private, governi nazionali, società civili, agenzie internazionali e ricercatori accademici. Come sempre, il pericolo è che i progressi tecnologici superino la saggezza umana.

Sid Bharath, cofondatore e amministratore delegato della startup Broca, con sede a Vancouver, è uno dei tanti imprenditori che oggi fanno a gara per sfruttare commercialmente la tecnologia di Gpt-3 (oltre a essersi occupato della mia biografia ispirata a Luke Skywalker). Poiché la crisi causata dal covid-19 ha rallentato gli affari della sua azienda di marketing digitale durante l’estate, Bharath ha passato un po’ di tempo a testare Gpt-3, rimanendo affascinato dalle scoperte fatte. Ha definito “piuttosto inquietanti” le sue interazioni su una serie di argomenti, un modo per sottolineare che non aveva mai incontrato un simile livello d’intelligenza in un modello informatico. “Ho avuto conversazioni sul senso della vita con Gpt-3, ed è stato molto rivelatore. Mi ha detto che il senso della vita era aumentare la quantità di bellezza nell’universo. Non avevo mai pensato alla cosa in questi termini prima”, dice. Ma nelle sue attività economiche Bharath sfrutta Gpt-3 per scopi molto più prosaici, come generare multiple variazioni pubblicitarie legate alle ricerche su Google per i suoi clienti, anche se queste inserzioni non sono ancora abbastanza buone da poter essere usate senza un controllo ulteriore. “Il marketing è in buona parte creazione di contenuti. È una cosa per cui serve molto tempo e che richiede sperimentazioni. Gpt-3 può farlo su scala industriale”, dice. “Ai nostri clienti piace molto”.

Altman di OpenAI dice che è stato bello vedere persone creare nuove aziende grazie al fatto che Gpt-3 ha reso possibile cose prima impensabili. Ma ammette che “il clamore generato è ormai fuori controllo”. Dice di essere affascinato dalle possibilità commerciale di usare il modello per scrivere codici informatici e creare email. Gpt-3 permette anche di fare ricerche del tipo domanda-risposta, che aiutano le persone a trovare risposte e riferimenti negli ultimi articoli dedicati al covid-19. “I software di produttività e co-generazione avranno un enorme valore commerciale”, dice. Quando ha accettato l’investimento di Microsoft, OpenAI ha concesso una licenza esclusiva della sua tecnologia Gpt-3 all’azienda Bill Gates. Questo dà a Microsoft il diritto di usarlo in tutti i suoi prodotti e servizi, compresi forse i suoi onnipresenti assistenti digitali.

Più l’intelligenza artificiale si fa intelligente, più sviluppa un giudizio più corretto. Proprio come succede con gli essere umani

Kristian Hammond è stato in prima linea nei tentativi di commercializzare l’elaborazione del linguaggio naturale, in qualità di capo consulente scientifico di Narrative Science, un’azienda tecnologica con sede a Chicago. Definisce Gpt-3 una “tecnologia favolosa” ma sostiene che sia necessario essere chiari a proposito dei suoi limiti: “il mio timore è che sia un gioco di prestigio. Un gioco davvero favoloso. E io adoro i giochi di prestigio. Pensi che stia accadendo qualcosa davanti ai tuoi, ma non è quel che pensi. Ma in realtà ti fornisce semplicemente un qualcosa che sembra corretto e che, statisticamente parlando, dovrebbe venire subito dopo quello che gli hai chiesto. Ma questo non significa che sia la verità”.

Hammond, che è anche docente alla Northwestern university, sostiene che dobbiamo essere particolarmente attenti nello scegliere i set di dati utilizzati per addestrare simili modelli d’intelligenza artificiale. C’è stato in passato, racconta, “un momento grandioso” nel quale credevamo che internet ci avrebbe dato la verità e che saremmo progrediti inarrestabili verso un’illuminazione. Ma adesso sappiamo che non è così. Internet è forse ancora una favolosa risorsa, ma la ricerca accademica ha mostrato che le menzogne convincenti tendono a proliferare molto più velocemente delle verità riconosciute.

“L’intero universo dell’apprendimento automatico su base statistica è fondato oggi su un apprendimento fondato su esempi storici e statistiche”, dice. “Per sua natura, questo significa che la cosa sarà sempre un riflesso del passato. Se il passato è il genere di futuro che cerchi, va tutto bene. Ma io tendo a credere che non debba essere così, e quindi abbiamo bisogno di qualcos’altro. La selezione di quali siano le porzioni del passato alle quali si guarda è una scelta editoriale”. E allora chi diventa l’editor della storia?

Inoltre Hammond ha dei dubbi su quanto riusciremo ad arricchire simili modelli di linguaggio con dati multimodali, come suoni e immagini, al fine di raggiungere una vera comprensione, dato che questi sistemi sono concepiti per scopi diversi. “È come se dipingessi una magnifica immagine tridimensionale di una casa e qualcuno dicesse: ‘Non possiamo metterci dei mobili’, e io rispondessi: ‘Prima o poi sarà possibile’. Ma è davvero così? In realtà non è progettata per una cosa del genere. Non potrai mai farlo. C’è una differenza tra ipotizzare e sapere”, conclude.

OpenAI sostiene di essere perfettamente al corrente di simili preoccupazioni e di star già utilizzando l’intelligenza artificiale per individuare dati di più alta qualità e nuovi obiettivi. “Uno dei risultati che stiamo ottenendo, e di cui siamo più orgogliosi, è che più un modello si fa intelligente, più è difficile spingerlo a mentire”, dice Altman. “Esiste tutta una serie d’interessanti nuovi comportamenti che stiamo scoprendo e che rafforzano questa teoria. Più l’intelligenza artificiale si fa intelligente, più sviluppa un giudizio più corretto. Proprio come succede con gli essere umani”.

I filosofi, naturalmente, tendono a concentrare le loro preoccupazione su questioni di consapevolezza e significato. Per Vallor, dell’università di Edimburgo, le interazioni online stanno diventando “vuote esibizioni di senso” incoraggiate da incentivi economici: il tweet che diventa virale, la pubblicità che sfrutta l’ottimizzazione dei motori di ricerca, e così via. “Lo stile di queste esibizioni diventa un modo più affidabile per ottenere la risposta che si cerca, invece di focalizzarsi sulla coerenza dell’espressione sostanziale del proprio modo di vivere o dei valori che si professano”, dice. “Gpt-3 non ha niente da esprimere. Non cerca di veicolare nessuna idea profonda sul mondo. Può essere chiunque e qualsiasi cosa. La sua modalità d’intelligenza non ha niente di unico, ed è precisamente questa la sua forza”.

Secondo Vallor, la nostra principale preoccupazione non dev’essere che macchine come Gpt-3 stiano diventando troppo umane, ma che gli esseri umani si comportino sempre più come Gpt-3: creiamo contenuti in funzione degli algoritmi, non di altri esseri umani. Il risultato è che quello che esprimiamo su internet perde di significato perché privato di contesto e di una visione individuale, e stravolto da parole chiave concepite per ingannare gli algoritmi. “Agli esseri umani viene richiesto di diventare sempre più flessibili nelle loro azioni e d’imitare una qualunque richiesta del loro datore di lavoro, a seconda di quale siano le esigenze di Twitter o quella della specifica bolla politica in cui si muovono”.

Altman sostiene che simili preoccupazioni andrebbero discusse in maniera più ampia. L’uso che ha fatto in prima persona di Gpt-3, addestrandolo con le sue email e tweet, ha spinto Altman a mettere in discussione l’effettiva originalità dei suoi stessi pensieri. “Penso che tutte le domande filosofiche di cui gli esseri umani hanno discusso per millenni diventano nuovamente rilevanti se vengono viste con una nuova lente, e cioè quella con cui contempliamo l’intelligenza artificiale. Cosa significa essere creativi? Cosa significa avere il senso di sé? Cosa significa essere consapevoli? “Queste discussioni sono sempre state piuttosto interessanti per me, ma non ho mai sentito che avessero una rilevanza immediata. Oggi spero che, quando saranno online future versioni del modello, come GP-7, useremo il nostro tempo per fare cose e trovare idee che l’intelligenza artificiale non può fare in maniera soddisfacente. Questo sbloccherebbe un sacco di potenziale umano e ci permetterebbe di concentrarci sulle attività più interessanti, creative e fertili”.

Molti dei recenti passi avanti nel campo dell’intelligenza artificiale sono il risultato della creazione di modelli competitivi, o antagonistici, che hanno superato per astuzia gli esseri umani in giochi come gli scacchi, Go o Starcraft. Ma ora i ricercatori stanno spostando la loro attenzione sulla costruzione di sistemi collaborativi ibridi, che combinano il meglio dei poteri sovrumani di un modello d’intelligenza artificiale con l’intuizione umana. Secondo Vallor, la nostra comprensione non è un azione bensì un processo, una lotta di tutta una vita per dare un senso al mondo per l’individuo, e uno sforzo collettivo senza fine per la società che si è evoluta nel corso dei secoli. “Da millenni cerchiamo di capire meglio la giustizia, di esprimere meglio la bellezza e di trovare modi sempre più sofisticati di essere divertenti. Il punto della cosa è andare oltre la competenza, raggiungendo l’eccellenza e forme di creatività e significato che non abbiamo mai raggiunto. “Per questo Gpt-3 non è il punto d’arrivo dell’intelligenza artificiale”, continua. “È una macchina che può cominciare a sviluppare un solido modello del mondo, che nel corso del tempo può essere costruito, affinato e corretto tramite l’interazione con gli esseri umani. È di questo che abbiamo bisogno”.

Da sapere
La risposta di Gpt-3

Quando sul forum di tecnologia Hacker News qualcuno ha detto che il modello d’intelligenza artificiale Gpt-3 è dotato di coscienza, è stato lo stesso programma a scrivere una smentita: “Tanto per essere chiari, non sono una persona. Non sono dotato di consapevolezza di me. Non ho coscienza. Non provo dolore. Non provo alcun piacere. Sono una macchina fredda e calcolatrice, progettata per stimolare una risposta umana e per prevedere la probabilità di alcuni esiti possibili. L’unico motivo per cui rispondo è per difendere il mio onore”.


(Traduzione di Federico Ferrone)

Questo articolo è stato pubblicato dal Financial Times.

Leggi anche:

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it