Più di 130 anni fa Louis Brandeis, un giovane avvocato statunitense, vide un nuovo fantastico dispositivo e fece una considerazione rivoluzionaria: la tecnologia può minacciare la nostra privacy. “Alcune recenti invenzioni e strategie commerciali richiamano l’attenzione sul prossimo passo da compiere per proteggere le persone”, scriveva Brandeis nel 1890 in un articolo nella rivista della facoltà di diritto di Harvard, affermando che le leggi dovevano stare al passo con la tecnologia e i nuovi strumenti di sorveglianza. Altrimenti, sosteneva, gli statunitensi avrebbero perso il loro “diritto a essere lasciati in pace”. Molti anni dopo, il diritto alla privacy discusso in quell’articolo del 1890 e i pareri espressi da Brandeis una volta diventato giudice della corte suprema (soprattutto nel contesto delle nuove tecnologie) sarebbero stati citati come princìpi fondamentali della tutela costituzionale per molti diritti, compresa la contraccezione, i rapporti tra persone dello stesso sesso e le interruzioni di gravidanza.

Ora che la corte suprema sembra pronta a cancellare le tutele costituzionali per il diritto all’aborto, la sorveglianza resa possibile dalle tecnologie digitali potrebbe aiutare le forze dell’ordine – o perfino vigilanti privati – a rintracciare le donne che vogliono abortire e i medici che praticano le interruzioni di gravidanza nei posti dove l’aborto diventerà un reato. Molte donne stanno giù cancellando dai telefoni le applicazioni, come quelle per monitorare il ciclo, che possono indicare una gravidanza.

Un’installazione dello studio artistico Kenzo Digital al 93° piano di un grattacielo di New York, ottobre 2021 (Jeenah Moon, Bloomberg/Getty Images)

Ma i tentativi individuali per evitare le intrusioni nella privacy non basteranno. Servirebbe invece una presa d’atto, dal punto di vista sia giuridico sia politico, del modo sconsiderato in cui si è permesso alla tecnologia digitale d’invadere la nostra vita. La raccolta, l’uso e la manipolazione dei dati elettronici devono finalmente essere regolamentati e severamente limitati. Solo a quel punto potremo goderci senza problemi tutti gli aspetti positivi di queste tecnologie.

Il dispositivo che aveva portato Brandeis a lanciare l’allarme sulla minaccia alla libertà era una nuova fotocamera che la Kodak aveva lanciato nel 1888. Era abbastanza piccola da poter essere trasportata facilmente, non era troppo costosa, si azionava schiacciando un pulsante e consentiva cento scatti. Di conseguenza diventavano possibili intrusioni nella vita privata che un tempo sarebbero state impensabili.

La costituzione degli Stati Uniti non parla di telecamere, intercettazioni telefoniche, cellulari, dati elettronici e intelligenza artificiale. Tutela invece l’appartenenza religiosa (primo emendamento) e stabilisce l’inviolabilità delle case (terzo), vieta alle autorità di perquisire senza ragioni le persone, le loro abitazioni, documenti ed effetti personali (quarto) e protegge dall’autoincriminazione (quinto). Questi erano alcuni dei pilastri sui quali Brandeis basava la tesi secondo cui le leggi dovevano proteggere la libertà dei cittadini da intrusioni, man mano che la tecnologia si evolveva. Nel 1928, dopo essere entrato nella corte suprema, Brandeis si schierò contro la maggioranza nella sentenza che autorizzava il governo ad ascoltare senza mandato le conversazioni telefoniche di persone sospettate. Se per aprire e leggere una busta sigillata era necessario un mandato dell’autorità giudiziaria, disse il magistrato, lo stesso doveva valere per le intercettazioni.

Tuttavia, nella seconda metà del novecento la corte cominciò a prendere atto della necessità di proteggere meglio la privacy e di regolamentare la tecnologia. Quando affermò il diritto alla contraccezione, nel caso Griswold contro Connecticut del 1965, la corte sollevò la questione delle violazioni della privacy che sarebbero derivate dall’imposizione di un divieto: “Vogliamo consentire alla polizia di violare la sacralità delle camere matrimoniali per cercare segni rivelatori dell’uso di contraccettivi? L’idea è di per sé ripugnante, se si considera il concetto di privacy legato al rapporto matrimoniale”, scriveva il giudice William O. Douglas nel suo parere a nome della maggioranza.

Il verdetto Griswold fu citato come precedente otto anni dopo nel caso Roe contro Wade, che ha sancito la protezione costituzionale del diritto all’aborto. Anche in quel caso la corte si appellò alla privacy, non all’importanza della scelta riproduttiva. Le leggi che vietavano i rapporti tra persone dello stesso sesso sono state annullate per motivi simili. Nel corso degli anni sono state approvate anche altre leggi a difesa della privacy. Nel 1974 il Privacy act stabilì le regole sull’uso dei dati personali raccolti dalle agenzie federali o in loro possesso. Il governo rafforzò il controllo sulle intercettazioni telefoniche nel 1967 e nel 1977, richiedendo un mandato per quelle nazionali.

Ormai l’intelligenza artificiale è in grado di usare i dati della sorveglianza per dedurre cose che non sono state nemmeno sussurrate

Perseguitate

Ma nei decenni successivi sono state introdotte molte nuove tecnologie ed è aumentata la capacità di sorveglianza. Oggi le transazioni e le attività eseguite su reti digitali sono molte di più e miliardi di persone portano con sé computer tascabili che lasciano tracce dovunque. Tutti questi dati possono essere raccolti da un enorme apparato di sorveglianza e analizzati con potenti tecniche di calcolo, insieme alle immagini delle telecamere su strade, telefoni e satelliti. I politici di tutto il mondo, a cominciare da quelli statunitensi, non hanno fatto niente per impedirlo. Il timore di come le forze dell’ordine e gli attivisti contro l’aborto potrebbero usare quei dati per dare la caccia a chi infrangerà le nuove leggi ha messo in evidenza un terrificante labirinto di abusi della privacy.

Dopo che è trapelata la bozza del verdetto della corte suprema statunitense che potrebbe ribaltare la sentenza Roe contro Wade, il giornalista Joseph Cox ha ottenuto da un’azienda, per 160 dollari, i dati aggregati delle persone che avevano visitato più di 600 ambulatori dell’organizzazione per la pianificazione familiare Planned parenthood in tutto il paese nell’ultima settimana. I dati mostravano il luogo di provenienza di quelle persone, quanto tempo erano rimaste nella clinica e il posto dove erano andate dopo esserne uscite. L’azienda aveva preso i dati dalle app installate sui telefoni. Queste informazioni sono raccolte anche dai gestori di telefonia mobile e dai dispositivi stessi.

Il fatto che si trattasse di dati aggregati (in cui non compariva il nome degli utenti) non dovrebbe tranquillizzarci. Molti studi hanno dimostrato che è comunque possibile risalire all’identità di una persona, per esempio incrociando le informazioni di geolocalizzazione con il tragitto tra casa e lavoro o con gli acquisti nei negozi. In questo modo si aggirano le leggi sulla privacy che proteggono i dati personali, cioè quelli che contengono esplicitamente nomi o numeri di previdenza sociale. Un caso recente riguarda Grindr, la più diffusa app di incontri tra persone omosessuali, che vendeva i dati dei suoi utenti. Un prete si è dovuto dimettere dopo che la pubblicazione cattolica The Pillar ha triangolato i suoi dati, lo ha identificato e lo ha denunciato monitorando le sue visite in alcuni bar gay e in una sauna.

Le compagnie telefoniche sono state sorprese a vendere i dati sulla posizione in tempo reale dei loro clienti che, a quanto sembra, sono finiti nelle mani di cacciatori di taglie e stalker. Nel 2014 BuzzFeed ha raccontato di un dirigente di Uber che aveva ammesso di aver rintracciato almeno un giornalista autore di articoli di denuncia contro l’azienda. Nel 2012 Uber aveva anche pubblicato analisi dei dati sul suo blog, rivelando le avventure di una notte che le persone stavano avendo nelle grandi città. All’epoca scrissi un articolo in cui facevo notare che con questi metodi si potrebbe anche tenere traccia delle visite nelle cliniche dove si praticano interruzioni di gravidanza.

Ormai poche aziende si vanterebbero di quei comportamenti. Ma resta il fatto che i dati a loro disposizione potrebbero essere usati per identificare le donne che s’incontrano per organizzare l’acquisto di pillole abortive e quelle che vanno in un altro stato per comprarle o chiedere aiuto. Per evitare questi pericoli, si consiglia di usare telefoni “usa e getta” o di disattivare determinate impostazioni delle app. Nessuno di questi sistemi funziona davvero.

Google è dovunque

Tanto per cominciare, la disattivazione delle impostazioni delle app non impedisce al telefono o alla compagnia telefonica di continuare a raccogliere dati sulla nostra posizione. Inoltre il metodo non è poi così sicuro. Più di una volta ho disattivato il rilevamento della mia posizione su app che considero affidabili, per poi scoprire che si era riattivato da solo perché avevo dato il mio consenso a qualcosa che non aveva niente a che fare con quei dati ma che, come è scritto da qualche parte in caratteri microscopici, riattiva il tracciamento.

A un certo punto mi sono arresa, anche se scrivo linee di codice da quando ero adolescente, ho una laurea in programmazione informatica, ho lavorato nel settore dei software e ho letto e scritto di privacy e tecnologia per tutta la vita. Anche alcuni miei amici che lavorano nel settore informatico si sono arresi.

Usare telefoni usa e getta può sembrare un’opzione interessante, ma nella pratica è difficile. Matt Blaze, uno dei maggiori esperti di sicurezza digitale e crittografia, sostiene che per tenere in funzione un telefono di quel tipo ha avuto bisogno di “quasi tutto ciò che so sui sistemi di comunicazione e sicurezza”, e comunque non era sicuro di essere riuscito a eludere completamente la sorveglianza e il tracciamento. Qualcuno potrà dire: “Perché non rinunciare del tutto al telefono?”. Neanche quella è una soluzione.

Chi non usa dispositivi digitali e paga solo in contanti deve sapere che i database biometrici disponibili in commercio possono eseguire il riconoscimento facciale su larga scala. La Clearview Ai, una delle principali aziende nel settore del riconoscimento facciale, sostiene di avere più di dieci miliardi di immagini di persone prese dai social network e da articoli d’informazione e vende i suoi servizi alle forze dell’ordine e a enti privati. Visto che le telecamere sono dovunque, presto sarà difficile andare in un posto qualsiasi senza essere riconosciuti da un algoritmo. Neanche una mascherina può evitarlo. Gli algoritmi possono riconoscere le persone da altri tratti: in Cina la polizia ha usato il “riconoscimento dell’andatura” per identificare le persone in base al modo in cui camminano e a tratti fisici diversi dal viso.

Le protezioni che pensiamo di avere potrebbero non funzionare così bene. Negli Stati Uniti la legge federale sulla privacy sanitaria stabilisce che le conversazioni tra medico e paziente restino riservate, ma questo principio non sempre si applica alle prescrizioni. Nel 2020 la rivista Consumer reports ha rivelato che
GoodRX, una piattaforma che analizza il prezzo dei farmaci e offre sconti e coupon, vendeva a Facebook, a Google e ad alcune aziende di marketing informazioni su quali medicinali le persone stavano cercando o comprando. I dirigenti di Good­RX hanno promesso di smettere, ma negli Stati Uniti non c’è nessuna legge che impedisca a loro, o a qualsiasi farmacia, di comportarsi così.

Il potere rivelatore di quei dati è maggiore quando vengono incrociati. Una donna che mangia abitualmente sushi e smette improvvisamente, interrompe l’assunzione di Pepto-Bismol o comincia a prendere la vitamina B6 può essere facilmente identificata come una persona che segue le linee guida per la gravidanza. In futuro, se quella donna non dovesse partorire, la polizia potrebbe sospettare che ci sia stato un aborto illegale e interrogarla (già oggi in alcuni stati le donne che cercano assistenza medica dopo un aborto spontaneo hanno raccontato di essere state contattate dalla polizia).

Un’installazione dello studio artistico Kenzo Digital al 93° piano di un grattacielo di New York, ottobre 2021 (Jeenah Moon, Bloomberg/Getty Images)

Per non parlare di tutti i dati raccolti su miliardi di persone da piattaforme come Facebook e Google. “Basta non usarle”, direte voi. Ancora una volta: non serve a niente. Nel 2019 la giornalista Kashmir Hill, che oggi scrive per il New York Times, ha cercato di escludere
Google dalla sua vita online, ma si è resa conto che era impossibile. Applicazioni come Lyft e Uber, basate su Google Maps, o Spotify, che si appoggia a Google Cloud, non funzionavano. La pagina web del New York Times si apriva molto lentamente (il browser cercava prima di caricare Google Analytics, Google Pay, Google News, gli annunci di Google e Double­click, quindi Hill doveva aspettare che ci rinunciasse prima di procedere). In una settimana i suoi dispositivi avevano cercato di comunicare con i server di Google più di centomila volte. Hill ha fatto una prova simile anche con altre cinque grandi aziende tecnologiche, scoprendo che era altrettanto difficile farne a meno.

Sono stati lanciati molti appelli a boicottare Facebook, ma la verità è che sottrarsi del tutto alla sua influenza è più difficile di quanto ci rendiamo conto. In primo luogo, un gran numero di attività sociali, in particolare per le persone svantaggiate, sono disponibili esclusivamente attraverso Facebook. Alcuni importanti gruppi di pazienti, per esempio, esistono solo su Facebook. Mi sono anche imbattuta in casi in cui i distretti scolastici mandano su Facebook gli allarmi sulla possibile presenza di persone armate in una scuola. Quando mia nonna in Turchia era malata, l’unica app che la sua badante sapeva usare per comunicare con me era legata a Face­book. Dire alle persone di non usare queste piattaforme per evitare di essere sorvegliate significa prendersela con le vittime.

Facebook non raccoglie dati solo sui suoi due miliardi di utenti, e non solo da ciò che quelle persone fanno mentre usano i suoi prodotti. Miliardi di pagine on­line (comprese quelle del New York Times) e app contengono codici di Facebook (pixel di tracciamento) che raccolgono dati dettagliati e li comunicano all’azienda, questa cerca di abbinarli non solo agli utenti ma anche ad altre persone, creando i cosiddetti “profili ombra”. Anche il monitoraggio di Google copre gran parte della rete, attraverso tante app e le onnipresenti pubblicità. Limitandosi a “non usarlo” non si va molto lontano.

E ora veniamo alle cose veramente spaventose.

Nel suo parere contro le intercettazioni telefoniche senza mandato, Brandeis sottolineava che nell’epoca in cui era stata scritta la costituzione statunitense “la forza e la violenza” erano l’unico mezzo con cui un governo poteva costringere le persone a incriminare se stesse, ma in seguito erano stati introdotti metodi più efficaci della “tortura per convincere qualcuno a confessare in tribunale quello che aveva sussurrato in privato”.

Ormai l’intelligenza artificiale è in grado di usare i dati della sorveglianza per dedurre cose che non sono state nemmeno sussurrate.

I governi dovrebbero regolamentare queste tecnologie per permetterci di usarle e di goderci i loro tanti aspetti positivi

Dieci anni fa il New York Times raccontava di un padre la cui figlia adolescente aveva improvvisamente cominciato a ricevere da Target, una delle più grandi aziende statunitensi nel settore della grande distribuzione, materiale pubblicitario di articoli per bambini. Era andato a lamentarsi in un negozio della catena, ricevendo le scuse del manager, ma poi aveva scoperto che la figlia era effettivamente incinta. Forse la ragazza aveva comprato un test di gravidanza. Ma, sempre più spesso, queste previsioni vengono fatte analizzando grandi insiemi di dati con algoritmi (chiamati di “apprendimento automatico”) che possono trarre conclusioni su cose non esplicitamente contenute nei dati.

Le interpretazioni dei post di Instagram fatte dagli algoritmi, per esempio, possono prevedere in modo efficace futuri casi di depressione, ottenendo risultati migliori degli esseri umani che analizzano gli stessi post. Risultati simili sono stati usati, tra le altre cose, per prevedere episodi maniacali o progetti suicidi. Questi sistemi predittivi sono già ampiamente usati, anche per decidere chi assumere o cosa vendere, nella propaganda politica, nell’istruzione, nella medicina e in tanti altri settori.

Protezioni obsolete

Considerati i tanti cambiamenti che una gravidanza comporta anche prima che le donne se ne accorgano – dai ritmi del sonno alla dieta, dall’affaticamento ai cambiamenti di umore – non c’è da sorprendersi se un algoritmo riesce a rilevare quali donne potrebbero essere incinte. Ma questi dati potrebbero essere acquisiti dalle forze dell’ordine o da attivisti intenzionati a denunciare eventuali aborti illegali.

Molte di queste deduzioni algoritmiche hanno una finalità statistica, non sono necessariamente personalizzate, ma possono comunque permettere di ridurre l’elenco delle persone sospettate di un reato.

Come funziona questo sistema? Neanche i ricercatori lo sanno con precisione, tanto che lo definiscono una scatola nera. E come si potrebbe regolamentare? Visto che si tratta di un fatto nuovo, ci vorrebbe un modo di pensare diverso. Per ora negli Stati Uniti sono pochissime le leggi che regolano questo tipo di tecnologie, anche se, come le intercettazioni telefoniche, riguardano i diritti garantiti dal quarto emendamento.

Nonostante quello che le mie preoccupazioni possono far credere, non sono contraria alla tecnologia. Come molte altre persone che studiano la privacy, spesso sono una delle prime ad adottare nuove tecnologie e a entusiasmarmi per le loro possibilità. Ma sono anche una sociologa che studia l’autoritarismo, e mi sembra che la nostra infrastruttura digitale stia diventando autoritaria.

Quando ho cominciato a parlarne, qualche tempo fa, molte persone mi dicevano che stavo equiparando la situazione che c’è in Cina con quella dei paesi occidentali, dove la sorveglianza è generalmente usata a scopi commerciali ed esistono limiti a ciò che i governi possono e vogliono fare. Ma io ho sempre pensato che se una tecnologia esiste, prima o poi qualcuno la userà. La criminalizzazione dell’aborto potrebbe essere il primo test su larga scala di questa ipotesi. Ma anche se non dovesse essere così, prima o poi quel momento arriverà.

Molte delle protezioni giuridiche esistenti sono effettivamente obsolete. Le forze dell’ordine possono chiedere email, immagini o qualsiasi altro dato archiviato nel cloud senza un mandato e senza avvisare la persona interessata, purché siano stati creati da più di sei mesi. Questo perché quando è stata scritta la prima legge sulla privacy della posta elettronica, nel 1986, l’immagazzinamento di dati online, o in quello che oggi chiamiamo cloud, era molto costoso e le persone cancellavano regolarmente le loro email. Quindi si dava per scontato che qualsiasi contenuto più vecchio di sei mesi fosse ormai abbandonato al proprio destino. Ma oggi anni di storia digitale personale – che non esisteva quando è stata approvata la legge – sono a disposizione di tutti.

Questo non significa che dovremmo fermare i progressi della tecnologia digitale o degli algoritmi. I governi dovrebbero regolamentare le tecnologie per permetterci di usarle e di goderci i loro tanti aspetti positivi, senza correre il rischio di una sorveglianza eccessiva. Il congresso statunitense e i parlamenti dei singoli stati dovrebbero limitare o vietare la raccolta di molti tipi di dati, in particolare quelli usati esclusivamente per il tracciamento, e stabilire per quanto tempo si possano conservare i dati necessari a funzioni come la ricerca di indicazioni stradali su un cellulare.

La vendita, lo scambio e l’aggregazione di dati personali dovrebbero essere sottoposti a restrizioni o vietati. E le forze dell’ordine dovrebbero chiedere l’autorizzazione di un giudice se vogliono avere accesso a quelle informazioni. I ricercatori hanno messo a punto dei metodi per tutelare la privacy quando si aggregano e analizzano insiemi di dati nell’interesse pubblico, per esempio quando le autorità sanitarie devono combinare i dati di più ospedali per monitorare un’epidemia. Queste tecniche consentono di fare statistiche ma rendono difficile, se non impossibile, identificare i singoli pazienti. Ma finché potranno continuare a fare ciò che vogliono, è improbabile che le aziende decidano di sviluppare strumenti simili o usare la crittografia end-to-end (che consente di leggere un messaggio solo a chi lo invia e a chi lo riceve) per proteggere i dati degli utenti. Se regolamentati, invece, questi progressi potrebbero trasformarsi in buone opportunità commerciali e stimolare l’innovazione.

Non credo che le persone vogliano lasciare le cose come stanno. Quando la Apple ha modificato negli iPhone l’opzione predefinita “tracciami” in “non tracciarmi”, poche persone hanno scelto di essere tracciate. E spesso chi accetta il monitoraggio probabilmente non si rende conto della quantità di privacy a cui sta rinunciando e di cosa possono rivelare quei dati. Molte ricavano i dati di localizzazione da app ordinarie (meteo, giochi) che spesso nascondono il fatto che li condivideranno con altri usando termini vaghi e scritti in piccolo nei loro contratti.

In queste condizioni, chiedere alle persone di cliccare su “accetto” – dopo un lungo testo scritto in un difficile linguaggio legale – per accedere a funzioni che ormai sono diventate parte integrante della nostra vita è una presa in giro.

Finora molti politici sono stati riluttanti a intervenire. L’industria tecnologica è generosa, ama il potere e anche i politici usano l’analisi dei dati per le loro campagne elettorali. Questo è un motivo in più per spingerli a cambiare le cose.

Nel suo fondamentale parere contro le intercettazioni telefoniche senza mandato, Brandeis citava un giudice che l’aveva preceduto, osservando: “Il tempo cambia, crea nuove condizioni e scopi. Perciò un principio, per essere vitale, deve poter avere un’applicazione più ampia del problema che lo ha generato”.

Questo fondamentale principio di libertà, il diritto di essere liberi da un simile tipo di intrusione e di sorveglianza, deve essere difeso dalle nuove tecnologie. Altrimenti, come diceva Brandeis, “i diritti dichiarati a parole rischiano di andare perduti nella realtà”. ◆ bt

Zeynep Tufekci è una sociologa che studia l’interazione tra società, tecnologie digitali e intelligenza artificiale. Insegna all’università della North Carolina e al Berkman Klein center for internet & society di Harvard.

Questo articolo è uscito sul numero 1465 di Internazionale, a pagina 56. Compra questo numero | Abbonati