Un pomeriggio del maggio 2020, Jerry Tang, dottorando in informatica all’università del Texas a Austin, fissava una criptica sequenza di parole sullo schermo del suo computer: “Non ho ancora finito di cominciare la mia carriera a vent’anni senza aver preso la patente, non devo più chiedere ai miei genitori di riportarmi a casa”.

La frase era confusa e sgrammaticata. Ma per Tang rappresentava un’impresa eccezionale: il computer aveva estratto un pensiero, per quanto sconnesso, dalla mente di una persona.

Per settimane, da quando la pandemia di covid-19 aveva fatto chiudere l’università e l’aveva costretto a fare online il suo lavoro di ricerca, Tang era rimasto a casa a perfezionare un decodificatore semantico, un’interfaccia neurale (brain-­computer interface, Bci) che genera testi a partire da scansioni cerebrali. Prima della chiusura dell’università, per mesi i partecipanti allo studio avevano inserito dati per addestrare il decodificatore, ascoltando ore di podcast mentre un apparecchio per la risonanza magnetica funzionale (fMri) registrava le loro reazioni cerebrali. Poi avevano ascoltato un nuovo racconto, che non era stato usato per addestrare l’algoritmo, e anche quelle scansioni erano state inserite nel decodificatore. Il software usava Gpt1, un predecessore dell’ormai onnipresente chatbot ChatGpt, per produrre un’ipotesi testuale di ciò che secondo la macchina il partecipante aveva ascoltato. Poi Tang aveva confrontato il frammento con il testo originale: “Anche se ho ventitré anni non ho ancora la patente e mi sono fatto notare proprio quando ne avevo bisogno e lei dice be’, perché non torni a casa con me che ti do un passaggio”.

Il decodificatore non aveva colto solo l’essenza dell’originale, ma anche corrispondenze esatte di espressioni specifiche come “venti” e “patente”. Quando Tang ha condiviso i risultati con il suo referente, il neuroscienziato Alexander Huth, che lavorava allo sviluppo di un decodificatore simile da quasi dieci anni, questo è rimasto sbalordito. “Porca miseria”, ricorda di aver esclamato. “Sta funzionando davvero”. Nell’autunno del 2021 gli scienziati stavano già testando il dispositivo senza stimoli esterni: i partecipanti immaginavano semplicemente una storia e il decodificatore produceva una descrizione riconoscibile, anche se un po’ nebulosa. “Quello che indicano entrambi questi esperimenti”, dice Huth, “è che siamo stati in grado di leggere qualcosa di simile al pensiero originale”.

Gli scienziati erano entusiasti all’idea delle possibili applicazioni mediche in grado di cambiare la vita delle persone, per esempio permettendo di comunicare a chi è affetto dalla sindrome locked-in, in cui la paralisi quasi totale del corpo rende impossibile parlare. Ma appena sono stati messi a fuoco i potenziali benefici del decodificatore, sono emerse anche spinose questioni etiche. Huth era stato uno dei tre soggetti principali degli esperimenti e le implicazioni sulla privacy del dispositivo gli sembravano importantissime: “Oh mio Dio”, aveva pensato. “Può guardare dentro il mio cervello”. La reazione di Huth rispecchiava una vecchia preoccupazione diffusa non solo tra i neuroscienziati: che le macchine possano un giorno leggere la mente delle persone. E con i rapidi progressi delle interfacce cerebrali, questa possibilità e altre – per esempio, che i computer del futuro possano alterare l’identità umana oppure ostacolare il libero arbitrio – hanno cominciato a sembrare meno remote. “La difesa della privacy mentale è una battaglia che dobbiamo combattere oggi”, dice Rafael Yuste, un neuroscienziato della Columbia university. “Se perdessimo la nostra privacy mentale, cos’altro ci resterebbe da perdere? Perderemmo l’essenza di ciò che siamo”.

Spronati da queste preoccupazioni, Yuste e diversi suoi colleghi hanno avviato un movimento internazionale per i “neurodiritti”: una serie di cinque princìpi che secondo loro dovrebbero essere sanciti per legge come baluardo contro il potenziale uso improprio e l’abuso della neurotecnologia. Ma forse è già troppo tardi.

Negli ultimi dieci anni, il settore delle neurotecnologie si è sviluppato a un ritmo sorprendente. Secondo un rapporto della Neurotech Analytics, tra il 2010 e il 2020 gli investimenti in questo campo sono aumentati di almeno venti volte, superando i sette miliardi di dollari all’anno. Le aziende coinvolte sono più di 1.200, e il governo statunitense ha messo a disposizione finanziamenti pubblici per miliardi di dollari. I progressi si sono dimostrati in grado di cambiare la vita delle persone affette da parkinson, lesioni del midollo spinale e ictus. Persone che non possono parlare o digitare a causa della paralisi hanno riacquistato la capacità di comunicare, quelle con epilessia grave hanno visto migliorare significativamente la qualità della loro vita e alcune persone cieche hanno recuperato parzialmente la vista.

Ma aprendo la porta del cervello, gli scienziati hanno anche scatenato un fiume di nuove preoccupazioni etiche, sollevando domande fondamentali sull’umanità e, soprattutto, sulla direzione in cui sta andando. Il modo in cui oggi la società sceglie di affrontare le implicazioni etiche della neurotecnologia, sostengono scienziati come Yuste, avrà un profondo impatto sul mondo di domani. “Sta emergendo una nuova tecnologia che potrebbe cambiare la specie umana”, dice.

Secondo Huth lo sviluppo della tecnologia Bci è motivo di grande ottimismo. Ma subito dopo gli esperimenti con il decodificatore ha cominciato a riflettere sulle sue inquietanti implicazioni. “Cosa significa?”, ricorda di aver pensato. “Come faremo a dirlo alla gente? Cosa ne penserà? Avrà l’impressione che stiamo creando qualcosa di terribile?”.

Un decennio straordinario

Yuste conosce bene la sensazione di essere turbati dalla propria ricerca. Nel 2011 aveva cominciato a fare esperimenti sui topi usando una tecnica chiamata optogenetica, che gli permetteva di accendere e spegnere alcuni circuiti specifici del cervello degli animali come un interruttore. In questo modo lui e il suo gruppo avevano scoperto che potevano impiantare un’immagine artificiale nel cervello dei topi semplicemente attivando le cellule cerebrali coinvolte nella percezione visiva. Qualche anno dopo i ricercatori del Massachusetts institute of technology hanno dimostrato che una tecnica simile può essere usata per impiantare falsi ricordi. Yuste si rese conto che controllando specifici circuiti cerebrali gli scienziati potevano manipolare quasi ogni dimensione dell’esperienza di un topo: comportamento, emozioni, consapevolezza, percezione, ricordi.

Ricostruzione tridimensionale delle fibre di materia bianca del cervello (Alfred Pasieka, Science photo library/Agf)

In pratica gli animali potevano essere controllati come marionette. “Questo mi ha fatto riflettere”, ricorda Yuste. “Il cervello umano funziona allo stesso modo, e tutto ciò che possiamo fare ai topi oggi potremo farlo agli esseri umani domani”.

Gli esperimenti di Yuste erano arrivati dopo un decennio straordinario per la neurotecnologia. Nel 2004 un uomo tetraplegico di nome Matthew Nagle era stato la prima persona a usare un sistema Bci per recuperare una funzionalità parziale. Con una piccola griglia di microelettrodi impiantati nella corteccia motoria del cervello, responsabile dei movimenti muscolari volontari, Nagle era stato in grado di controllare il cursore del suo computer, giocare a ping pong e aprire e chiudere una mano robotica solo con la mente. Nel 2011 i ricercatori della Duke university annunciarono di aver sviluppato un’interfaccia neurale bidirezionale che permetteva alle scimmie di controllare un braccio virtuale e di ricevere sensazioni artificiali, attraverso la stimolazione della corteccia somatosensoriale. Questo aprì la strada allo sviluppo di protesi in grado di sentire. Anche i movimenti possibili con i bracci robotici migliorarono, e nel 2012 furono in grado di manipolare oggetti tridimensionali, consentendo a una donna affetta da paralisi di bere un caffè semplicemente pensando di farlo.

Nel frattempo altri ricercatori stavano cominciando a studiare le possibilità di usare le Bci per sondare una gamma più ampia di processi cognitivi. Nel 2008 un gruppo di ricerca guidato da Jack Gallant, un neuroscienziato dell’Università della California a Berkeley, aveva fatto un primo passo verso la decodifica dell’esperienza visiva. Usando i dati delle scansioni fMri (che misurano l’attività cerebrale in base ai cambiamenti del flusso sanguigno in diverse regioni del cervello), i ricercatori sono stati in grado di stabilire quale di una vasta serie di immagini aveva visto un partecipante allo studio. In un articolo pubblicato su Nature, i ricercatori scrissero: “I nostri risultati suggeriscono che forse presto sarà possibile ricostruire un’immagine dell’esperienza visiva di una persona dalla sola misurazione dell’attività cerebrale”.

Tre anni dopo un collaboratore di Gallant, Shinji Nishimoto, andò oltre le sue previsioni riuscendo a ricostruire piccoli filmati dalle registrazioni delle scansioni fMri dei partecipanti. “È un grande passo avanti verso la ricostruzione delle immagini interne”, dichiarò Gallant. “Stiamo aprendo una finestra sui film della nostra mente”. Un anno dopo un gruppo di ricercatori giapponesi spalancò completamente quella finestra decodificando l’argomento generale dei sogni dei partecipanti.

Ma a mano a mano che questi e altri progressi portavano avanti la ricerca, e mentre i suoi studi rivelavano la sconcertante vulnerabilità del cervello alla manipolazione esterna, Yuste era sempre più preoccupato per la scarsa attenzione prestata agli aspetti etici. Anche l’iniziativa Brain, un programma lanciato dall’allora presidente statunitense Barack Obama che Yuste aveva contribuito ad avviare nel 2013 e sostenuto con entusiasmo, sembrava ignorare le conseguenze etiche e sociali della ricerca che finanziava.

Modello tridimensionale delle vie neurali del cervello (Zephyr/Science photo library/Agf)

La nascita dei neurodiritti

Nel 2015 Yuste era entrato nel comitato di consulenti del progetto Brain, e aveva cominciato a esprimere le sue preoccupazioni. Poi si unì a un gruppo di lavoro informale per esaminare la questione. “La situazione era disastrosa”, ricorda “Non c’erano linee guida, non c’era mai stata nessuna discussione”. Yuste cercò di convincere il gruppo a stilare delle linee guida etiche per le nuove tecnologie Bci, ma il tentativo si arenò nella burocrazia. Così si dimise dal comitato, e insieme all’esperta di bioetica Sara Goering decise di affrontare la questione in modo indipendente. “Il nostro obiettivo non è alimentare la paura di scenari apocalittici”, hanno scritto i due nel 2016 in un articolo su Cell, “ma fare in modo di prepararci al futuro neurotecnologico in modo consapevole”.

Nell’autunno del 2017, Yuste e Goering organizzarono un incontro al campus Morningside della Columbia university, invitando una trentina di esperti, provenienti da tutto il mondo, in settori come la neurotecnologia, l’intelligenza artificiale, l’etica medica e il diritto. A quel punto molti altri paesi avevano lanciato i loro equivalenti dell’iniziativa Brain, e si unirono al gruppo rappresentanti di Australia, Canada, Cina, Europa, Israele, Corea del Sud e Giappone. “Ci rinchiudemmo lì per tre giorni per studiare le conseguenze etiche e sociali della neurotecnologia”, dice Yuste. “E giungemmo alla conclusione che era una questione di diritti umani. Questi metodi saranno così potenti da consentire di accedere all’attività mentale e manipolarla, quindi dovranno essere regolamentati dal punto di vista dei diritti umani. È stato allora che abbiamo coniato il termine ‘neurodiritti’”.

Il gruppo del Morningside, come sarebbe stato chiamato, aveva individuato quattro priorità etiche, che sono state successivamente ampliate da Yuste per arrivare a cinque neurodiritti: il diritto alla privacy mentale, per garantire che i dati cerebrali rimangano riservati e che se ne regolamenti strettatmente l’uso, la vendita e il trasferimento commerciale; il diritto all’identità personale, che stabilisca dei limiti alle tecnologie in grado di alterare il senso di sé di una persona; il diritto a un accesso equo alle neurotecnologie per il potenziamento mentale; il diritto alla protezione da pregiudizi nello sviluppo degli algoritmi; e il diritto al libero arbitrio, che protegga l’azione di un individuo dalla manipolazione di neurotecnologie esterne. Il gruppo ha pubblicato i suoi risultati in un articolo su Nature che è stato spesso citato.

Ma mentre Yuste e gli altri si concentravano sulle implicazioni etiche delle tecnologie emergenti, le tecnologie stesse continuavano a correre a velocità febbrile. Nel 2014 un uomo paraplegico ha dato il calcio d’inizio dei mondial usando un esoscheletro robotico controllato mentalmente. Nel 2016 un altro uomo ha salutato pugno contro pugno Obama con un braccio robotico che gli ha permesso di “sentire” il contatto. L’anno successivo alcuni scienziati hanno dimostrato che la stimolazione elettrica dell’ippocampo può migliorare la memoria, aprendo la strada alle tecnologie per il potenziamento cognitivo. Le forze armate statunitensi hanno sviluppato un sistema che consente a un operatore di pilotare tre droni contemporaneamente, in parte con la mente. Nel frattempo un vortice confuso di scienza, fantascienza, pubblicità, innovazione e speculazione ha travolto il settore privato. Nel 2020 erano già stati investiti 33 miliardi di dollari in centinaia di aziende neurotecnologiche. Yuste e gli altri avevano fatto progressi nello sviluppo di un quadro etico per queste tecnologie emergenti. Ma nel clamore della novità, la domanda era diventata: a chi importa?

“Le aziende devono essere trasparenti su cosa intendono fare con i dati cerebrali”

A portata di mano

Quando il suo decodificatore semantico ha cominciato a dare risultati, Huth ha avuto due reazioni contrastanti. Da un lato era contento che funzionasse. Ma era anche molto preoccupato per l’uso improprio che se ne sarebbe potuto fare. Cominciò a immaginare scenari distopici: polizia del pensiero, interrogatori forzati, persone legate alle macchine contro la loro volontà. “Questa è stata la prima cosa di cui abbiamo avuto paura”, dice.

Come per Yuste prima di loro, per Huth e Tang era cominciato un periodo di profonda introspezione sull’etica del loro lavoro. Lessero molto sull’argomento, compreso l’articolo del Morningside Group su Nature e un documento del 2020 di un team diretto dal filosofo dell’Università di Oxford Stephen Rainey. Anche se l’uso futuro di quelle tecnologie sarebbe probabilmente stato al di fuori del loro controllo, gli era chiaro che avrebbero dovuto essere vietate certe pratiche, come la decodifica a riposo (quando un soggetto non sta eseguendo attivamente un compito) o all’insaputa del soggetto stesso. Stabilirono che la decodifica non dovrebbe essere usata dal sistema giudiziario o in qualsiasi altra situazione in cui la fallibilità del processo possa avere conseguenze nel mondo reale. In pratica, dovrebbe essere usata solo in situazioni in cui le informazioni decodificate possono essere confermate dall’utente. Inoltre, Huth e Tang conclusero che ai datori di lavoro dovrebbe essere vietato usare i dati cerebrali dei dipendenti senza il loro consenso, e che è essenziale che le aziende siano trasparenti su come intendono usare i dati raccolti attraverso dispositivi commerciali.

Al centro delle questioni etiche affrontate da Huth e Tang c’era il fatto che il loro sistema, a differenza di altri decodificatori linguistici sviluppati nello stesso periodo, non era invasivo: non richiedeva un intervento chirurgico. Per questo la loro tecnologia non doveva sottostare alle rigide norme che regolano le pratiche mediche. C’era però un altro ostacolo all’uso su larga scala del decodificatore: le macchine per la fMri sono enormi, costose e fisse. Ma forse, avevano pensato Huth e Tang, c’era un modo per risolvere anche quel problema.

Le informazioni ottenute con le macchine fMri si possono ricavare anche con un’altra tecnologia, la spettroscopia funzionale nel vicino infrarosso, o fNirs. Sebbene la loro sensibilità sia inferiore a quella della fMri, alcune costose cuffie fNirs si avvicinano alla risoluzione richiesta. Gli scienziati sono stati in grado di verificare se il loro decodificatore avrebbe funzionato con quei dispositivi semplicemente sfocando i loro dati fMri per simulare la risoluzione delle fNirs. Il risultato “non peggiorava molto”, dice Huth.

E mentre altri dispositivi hanno un costo proibitivo per il consumatore medio, le cuffie fNirs meno sofisticate sono già arrivate sul mercato. Sebbene abbiano una risoluzione molto inferiore a quella necessaria per il decodificatore, la loro tecnologia migliora costantemente e Huth ritiene che presto un dispositivo fNirs a prezzo accessibile avrà una risoluzione abbastanza elevata da essere usato con il decodificatore. Attualmente sta collaborando con l’università di Washington per studiare lo sviluppo di un dispositivo simile.

Anche la commercializzazione di cuffie Bci rudimentali può sollevare questioni etiche. I dispositivi che si basano sull’elettroencefalografia, o Eeg, un metodo comune per misurare l’attività cerebrale rilevando i segnali elettrici, sono ormai ampiamente disponibili e hanno già suscitato polemiche. Nel 2019 una scuola di Jinhua, in Cina, è stata criticata per aver sperimentato fasce Eeg per monitorare i livelli di concentrazione degli alunni. Gli studenti erano incoraggiati a competere tra loro per vedere chi si concentrava di più, e i rapporti erano inviati ai loro genitori. Nel 2018 il South China Morning Post riferì che decine di fabbriche e aziende avevano cominciato a usare “dispositivi di sorveglianza cerebrale” per monitorare le emozioni dei loro dipendenti, nella speranza di aumentare la produttività e migliorare la sicurezza. All’inizio i dispositivi “avevano provocato disagio e una certa resistenza”, aveva detto al quotidiano il neuroscienziato Jin Jia. “Ma dopo un po’ i lavoratori si erano abituati”.

Il problema principale è che gli scienziati stanno appena cominciando a capire come le informazioni vengono effettivamente codificate. In futuro algoritmi di decodifica più potenti potrebbero scoprire che anche i dati Eeg grezzi e a bassa risoluzione contengono una grande quantità di informazioni sullo stato mentale di una persona. Di conseguenza, nessuno può sapere con certezza cosa sta offrendo quando permette alle aziende di raccogliere informazioni dal proprio cervello.

Huth e Tang hanno quindi concluso che i dati cerebrali dovrebbero essere gelosamente custoditi, specialmente quando si tratta di prodotti di consumo. Ad aprile Tang ha scritto su Medium che “la tecnologia di decodifica è in continuo miglioramento, e le informazioni che potranno essere decodificate con una scansione cerebrale tra un anno potrebbero essere molto diverse da quelle che possono essere decodificate oggi. È fondamentale che le aziende siano trasparenti su ciò che vogliono fare con i dati cerebrali e adottino misure per garantire che quei dati siano accuratamente protetti”. Nonostante tutto, Huth e Tang sostengono che i potenziali benefici di queste tecnologie superano i rischi, a condizione che siano stabiliti dei limiti adeguati.

Ma mentre i due erano alle prese con le conseguenze etiche del loro lavoro, Yuste aveva capito che questi discorsi dovevano uscire dal campo teorico, filosofico, accademico e ipotetico per spostarsi in quello del diritto.

Modello tridimensionale delle vie neurali del cervello (Sherbrooke connectivity imaging lab/Science photo library/Agf)

Una vittoria inaspettata

In una sera d’estate del 2019, Yuste sedeva nel cortile di un albergo nel nord del Cile con un suo caro amico, il medico cileno e allora senatore Guido Girardi. Osservavano il cielo sopra il deserto di Atacama e parlavano del mondo di domani. Girardi, che ogni anno organizza il Congreso futuro, il più importante evento scientifico e tecnologico dell’America Latina, era da tempo affascinato dai progressi della tecnologia e dal loro impatto rivoluzionario sulla società. Yuste era intervenuto spesso alla conferenza, e i due condividevano la convinzione che le tecnologie emergenti fossero abbastanza potenti da sconvolgere il concetto stesso di essere umano.

Mentre Yuste finiva il suo pisco sour, Girardi gli fece una proposta intrigante: e se avessero lavorato insieme per far approvare un emendamento alla costituzione cilena che contenesse la protezione della privacy mentale come diritto inviolabile di ogni cittadino? Era un’idea ambiziosa, ma Girardi era un esperto di iniziative legislative audaci. Qualche anno prima aveva ottenuto l’approvazione della famosa legge sull’etichettatura e la pubblicità degli alimenti, che richiedeva alle aziende di apporre sul cibo spazzatura etichette di avvertimento sui rischi per la salute. Con le Bci aveva un’altra possibilità di essere un pioniere. “Dissi a Rafael: ‘Perché non formuliamo la prima legge sulla protezione dei dati neurologici?’”, ricorda Girardi. Yuste accettò subito.

Negli anni successivi Yuste è andato più volte in Cile come consulente tecnico di Girardi. Gran parte del tempo lo passava cercando di sensibilizzare l’opinione pubblica sul problema: parlava nelle università, partecipava a dibattiti, teneva conferenze stampa e incontrava persone importanti, tra cui l’allora presidente del Cile Sebastián Piñera. Il suo ruolo principale, tuttavia, era fornire una guida ai giuristi che elaboravano la proposta. “Non sapevano nulla di neuroscienze e di medicina, e io non sapevo nulla di diritto”, ricorda Yuste. “È stata una collaborazione meravigliosa”.

Nel frattempo Girardi si occupava dell’aspetto politico, promuovendo un atto legislativo che avrebbe modificato la costituzione del Cile per proteggere la privacy mentale. La sua iniziativa ha raccolto un sorprendente consenso da tutto lo spettro politico, un fatto inusuale in un paese famoso per la sua polarizzazione. Nel 2021 il parlamento cileno ha approvato all’unanimità l’emendamento costituzionale, che Piñera convertì subito in legge. Una seconda legge, che stabilirà il quadro normativo per le neurotecnologie, è attualmente all’esame del parlamento. “Non c’è stata divisione tra destra e sinistra”, ricorda Girardi. “Questa è stata forse l’unica legge che è stata approvata all’unanimità”. Il Cile era diventato il primo paese al mondo a introdurre i “neurodiritti” nel suo ordinamento giuridico.

Questa clamorosa vittoria legislativa è stata un primo passo incoraggiante per il neonato movimento per i neurodiritti. Ma Yuste e Girardi sapevano che le iniziative a livello nazionale hanno un limite. Le tecnologie future, spiega Girardi, attraverseranno facilmente i confini – o esisteranno completamente al di fuori dello spazio fisico – e si svilupperanno troppo rapidamente perché le istituzioni democratiche possano stare al passo. “Le democrazie sono lente”, dice. Ci vogliono anni per approvare una legge, mentre “il mondo sta cambiando a un ritmo esponenziale”. Yuste e Girardi avevano capito che le normative nazionali avrebbero potuto fornire alcuni utili baluardi legali, ma da sole non sarebbero state sufficienti.

Anche prima dell’approvazione dell’emendamento costituzionale cileno, Yuste aveva cominciato a incontrarsi regolarmente con Jared Genser, un avvocato internazionale per i diritti umani che aveva rappresentato personaggi come Desmond Tutu, Liu Xiaobo e Aung San Suu Kyi. Yuste voleva qualcuno che lo guidasse nello sviluppo di un quadro giuridico internazionale per proteggere i neurodiritti e Genser, sebbene avesse solo una conoscenza superficiale della neurotecnologia, è rimasto immediatamente affascinato dall’argomento. Poco dopo, Yuste, Genser e un imprenditore di nome Jamie Daves hanno creato la Neurorights foundation, un’organizzazione senza scopo di lucro che punta a “proteggere i diritti umani di tutti dal potenziale uso improprio o abuso della neurotecnologia”.

A questo scopo l’organizzazione ha cercato di coinvolgere tutti i livelli della società, dalle Nazioni Unite a istituzioni regionali come l’Organizzazione degli stati americani, fino ai governi nazionali, all’industria tecnologica, agli scienziati e all’opinione pubblica. Un approccio così ampio, dice Genser, “forse è una follia. Forse siamo megalomani. Ma quando si affrontano questi problemi a livello globale è una specie di far west, perché poche persone sanno a che punto sono le cose, in che direzione stanno andando e cosa è necessario fare”.

La scarsa conoscenza delle neurotecnologie in tutti gli strati della società ha trasformato Yuste in una specie di educatore globale. Ha incontrato diverse volte il segretario generale delle Nazioni Unite António Guterres per parlare dei potenziali pericoli delle neurotecnologie emergenti. E queste iniziative stanno cominciando a dare risultati. Il rapporto di Guterres del 2021, intitolato “La nostra agenda comune”, che stabilisce gli obiettivi per la futura cooperazione internazionale, invita ad “aggiornare o rendere più chiara l’applicazione degli standard sui diritti umani in vista di nuove frontiere”, come quella della “neurotecnologia”. Secondo Genser l’introduzione di questi termini nel rapporto dell’Onu è merito di Yuste.

“Gli esseri umani finiranno per trasformarsi in una specie ibrida”

Ma aggiornare il diritto internazionale è difficile, e anche all’interno della Neurorights foundation ci sono divergenze su quale sia il metodo più efficace. Per Yuste, la soluzione ideale sarebbe creare una nuova agenzia internazionale per i neurodiritti, simile all’Agenzia internazionale per l’energia atomica. “Il mio sogno sarebbe una convenzione internazionale sulla neurotecnologia, con un proprio trattato”, dice. “E forse un’agenzia che supervisioni tutte le iniziative del mondo nel campo delle neurotecnologie”.

Genser, invece, ritiene che un nuovo trattato non sia necessario e che sarebbe meglio allargare l’interpretazione delle norme sui diritti umani per includere i neurodiritti. La Convenzione internazionale sui diritti civili e politici (Iccpr), per esempio, garantisce già il diritto alla privacy, e un’interpretazione aggiornata della legge potrebbe chiarire che questa tutela si estende anche alla privacy mentale.

Il vantaggio di questa soluzione, spiega Genser, è che i firmatari di quei trattati sarebbero obbligati ad adeguare subito le loro leggi, e questo sarebbe un modo per stimolare l’azione sui neurodiritti a livello sia internazionale sia nazionale. Nel caso dell’Iccpr, dice Genser, “tutti i 170 stati che ne fanno parte dovrebbero introdurre nel loro sistema giuridico il diritto alla privacy mentale per rispettare i loro obblighi ai sensi del trattato”.

Ma anche se Genser crede che questa strada sarebbe il percorso più rapido per inserire i neurodiritti nel diritto internazionale, servirebbero comunque anni per consentire agli organi del trattato di aggiornare le loro interpretazioni, e poi ai singoli governi nazionali di inserirle nelle loro leggi nazionali. Le garanzie legali sono sempre in ritardo rispetto al progresso tecnologico, ma in questo caso il problema potrebbe essere più grave a causa del ritmo accelerato dello sviluppo neurotecnologico. Questo ritardo è particolarmente preoccupante per persone come Girardi, che si chiedono se le istituzioni saranno in grado di resistere ai cambiamenti che verranno.

Resistenza passiva

Ma mentre Yuste e gli altri continuano ad affrontare le complessità del diritto internazionale e nazionale, Huth e Tang hanno scoperto che, almeno per il loro decodificatore, le più grandi barriere della privacy non risiedono nelle istituzioni esterne, bensì in qualcosa di molto più vicino a noi: la mente umana stessa. Dopo il successo iniziale del loro decodificatore, mentre studiavano le implicazioni etiche della loro tecnologia, hanno cominciato a pensare a come valutare i limiti delle capacità del dispositivo. In poche parole, volevano sapere se si poteva opporre resistenza al decodificatore.

Alla fine del 2021 hanno cominciato a condurre nuovi esperimenti. In primo luogo, erano curiosi di sapere se un algoritmo addestrato su una persona poteva essere usato su un’altra. E hanno scoperto che non era possibile: l’efficacia del decodificatore dipendeva da molte ore di formazione personalizzata. Successivamente, hanno cercato di verificare se il decodificatore poteva essere sviato, semplicemente rifiutandosi di collaborare. Invece di concentrarsi sulla storia che ascoltavano attraverso le cuffie mentre la macchina fMri li esaminava, ai partecipanti è stato chiesto di svolgere altri compiti mentali, come dare un nome ad animali scelti a caso o raccontarsi mentalmente una storia diversa. “In entrambi i casi diventava completamente inutilizzabile”, dice Huth. “Non siamo riusciti a decodificare nulla di ciò che stavano pensando”.

Questi risultati fanno supporre che, almeno per ora, l’incubo di una lettura della mente non consensuale rimane una possibilità remota. Una volta superate in parte queste preoccupazioni etiche, hanno spostato la loro attenzione sugli aspetti positivi della loro invenzione, per esempio le sue potenzialità come strumento per ripristinare la comunicazione. Hanno cominciato a collaborare con un team dell’università di Washington per studiare la possibilità di costruire un sistema fNirs indossabile compatibile con il loro decodificatore, che permetterebbe di sviluppare applicazioni mediche concrete. Secondo Huth però non bisogna smettere di immaginare scenari distopici: “Dobbiamo pensare a come le cose potrebbero andare bene, ma anche a come potrebbero andare male. È importante saperlo”.

Yuste è convinto che le tecnologie come il decodificatore di Huth e Tang potrebbero essere solo l’inizio di un nuovo stupefacente capitolo della storia umana, in cui la linea di demarcazione tra cervello umano e computer sarà ridisegnata o cancellata. Possiamo concepire un futuro in cui gli esseri umani e i computer si fonderanno in modo permanente, dice, portando alla nascita di cyborg tecnologicamente aumentati. “Direi che non è solo probabile ma sicuro che gli esseri umani finiranno per trasformarsi in una specie ibrida”, dice Yuste, che si sta concentrando su come prepararsi a questo futuro.

Negli ultimi anni ha visitato diversi paesi, incontrando politici, magistrati, funzionari delle Nazioni Unite e capi di stato. E la sua campagna sta cominciando a dare risultati. Nel 2023 il Messico ha iniziato a studiare una riforma costituzionale che sancirebbe il diritto alla privacy mentale. Il Brasile sta valutando una proposta simile, e anche Spagna, Argentina, Uruguay e Unione europea hanno espresso interesse per il progetto. A settembre i neurodiritti sono stati incorporati nella carta dei diritti digitali del Messico, mentre in Cile una sentenza storica della corte suprema ha stabilito che la Emotiv, un’azienda che produce un dispositivo Eeg indossabile, ha violato la nuova legge sulla privacy mentale. Gli sforzi di Yuste sono forse motivati dalla convinzione che la finestra per intervenire si stia rapidamente chiudendo, e che il mondo di domani non sia più così lontano. “Prima mi chiedevano: ‘Quando pensi che dovremmo preoccuparci della privacy mentale?’”, ricorda. “Tra cinque anni, immagino’, rispondevo. ‘E del nostro libero arbitrio?’. ‘Tra dieci’. Invece mi sbagliavo”.

Anche Huth è convinto che sia il momento di agire. Queste tecnologie sono ancora agli inizi, spiega, ma è molto meglio prevenire che aspettare l’irreparabile. “È una cosa che dovremmo prendere sul serio”, dice. “Anche se in questo momento la tecnica è rudimentale, dove sarà arrivata tra cinque anni? Ritengo che nella gamma di possibilità ragionevoli rientrino cose che sono, non voglio dire spaventose, ma sicuramente abbastanza distopiche, quindi penso che sia il momento di cominciare a pensarci”.◆ bt

Da sapere
L’interfaccia di Musk

◆Il 29 gennaio 2024 l’imprenditore statunitense Elon Musk ha annunciato che la sua azienda Neuralink è riuscita a impiantare in un volontario umano un dispositivo d’interfaccia cervello-computer (Bci), capace di rilevare l’attività dei neuroni attraverso più di mille elettrodi connessi direttamente al tessuto cerebrale. Questa tecnologia, che potrebbe permettere di muovere arti robotici con il pensiero e restituire alle persone affette da paralisi la possibilità di camminare, esiste dal 1998 e negli ultimi anni ha conosciuto un rapido sviluppo. Esistono già diversi impianti di questo tipo, ma il dispositivo della Neuralink dovrebbe essere meno invasivo e avere una maggiore sensibilità. L’azienda non ha però fornito informazioni dettagliate sulla sperimentazione, e l’annuncio è stato accolto con scetticismo dalla comunità scientifica. Nature


Questo articolo è uscito su Undark, una rivista online statunitense fondata nel 2016 che si occupa dei rapporti tra scienza e società.

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it

Questo articolo è uscito sul numero 1550 di Internazionale, a pagina 40. Compra questo numero | Abbonati