01 luglio 2011 11:30

Poche persone hanno notato il post apparso sul blog ufficiale di Google il 4 dicembre 2009. Non cercava di attirare l’attenzione: nessuna dichiarazione sconvolgente né annunci roboanti da Silicon valley, solo pochi paragrafi infilati tra la lista delle parole più cercate e un aggiornamento sul software finanziario di Google. Ma non è sfuggito a tutti. Il blogger Danny Sullivan analizza sempre con cura i post di Google per cercare di capire quali sono i prossimi progetti dell’azienda californiana, e lo ha trovato molto interessante. Più tardi, quel giorno, ha scritto che si trattava del “più grande cambiamento mai avvenuto nei motori di ricerca”. Bastava il titolo per capirlo: “Ricerche personalizzate per tutti”.

Oggi Google usa 57 indicatori – dal luogo in cui siamo al browser che stiamo usando al tipo di ricerche che abbiamo fatto in precedenza – per cercare di capire chi siamo e che genere di siti ci piacerebbe visitare. Anche quando non siamo collegati, continua a personalizzare i risultati e a mostrarci le pagine sulle quali probabilmente cliccheremo. Di solito si pensa che facendo una ricerca su Google tutti ottengano gli stessi risultati: quelli che secondo il famoso algoritmo dell’azienda, PageRank, hanno maggiore rilevanza in relazione ai termini cercati. Ma dal dicembre 2009 non è più così. Oggi vediamo i risultati che secondo PageRank sono più adatti a noi, mentre altre persone vedono cose completamente diverse. In poche parole, Google non è più uguale per tutti.

Accorgersi della differenza non è difficile. Nella primavera del 2010, mentre la piattaforma Deepwater Horizon vomitava petrolio nel golfo del Messico, ho chiesto a due mie amiche di fare la stessa ricerca su Google. Entrambe vivono nel nordest degli Stati Uniti e sono bianche, colte e di sinistra: insomma, due persone abbastanza simili. Entrambe hanno cercato “Bp”. Ma hanno ottenuto risultati molto diversi. Una ha trovato informazioni sugli investimenti legati alla Bp. L’altra le notizie. In un caso, la prima pagina dei risultati di Google conteneva i link sull’incidente nel golfo, nell’altro non c’era niente del genere, solo una pubblicità della compagnia petrolifera. Perfino il numero dei risultati era diverso: 180 milioni per una e 139 milioni per l’altra. Se le differenze tra due donne di sinistra della costa est erano così grandi, immaginate quanto possono esserlo, per esempio, rispetto a quelle di un vecchio repubblicano del Texas o di un uomo d’affari giapponese.

Oggi la rete non solo sa che sei un cane, ma anche di che razza sei, e vuole venderti una ciotola di cibo

Ora che Google è personalizzato, la ricerca di “cellule staminali” probabilmente dà risultati diametralmente opposti agli scienziati che sono favorevoli alla ricerca sulle staminali e a quelli che sono contrari. Scrivendo “prove del cambiamento climatico” un ambientalista e il dirigente di una compagnia petrolifera troveranno risposte contrastanti. La maggioranza di noi crede che i motori di ricerca siano neutrali. Ma probabilmente lo pensiamo perché sono impostati in modo da assecondare le nostre idee. Lo schermo del computer rispetta sempre più i nostri interessi mentre gli analisti degli algoritmi osservano tutto quello che clicchiamo. L’annuncio di Google ha segnato il punto di svolta di una rivoluzione importante ma quasi invisibile del nostro modo di consumare le informazioni. Potremmo dire che il 4 dicembre 2009 è cominciata l’era della personalizzazione.

Dimmi cosa voglio
Il mondo digitale sta cambiando, discretamente e senza fare troppo chiasso. Quello che un tempo era un mezzo anonimo in cui tutti potevano essere chiunque – in cui nessuno sa che sei un cane, come diceva una famosa vignetta del New Yorker – ora è un modo per raccogliere e analizzare i nostri dati personali. Secondo uno studio del Wall Street Journal, i cinquanta siti più popolari del mondo, dalla Cnn a Yahoo! a Msn, installano in media 64 cookie e beacon carichi di dati su di noi. Se cerchiamo una parola come “depressione” su un dizionario online, il sito installa nel nostro computer fino a 223 cookie e beacon che permettono ad altri siti di inviarci pubblicità di antidepressivi. Se facciamo una ricerca sulla possibilità che nostra moglie ci tradisca, saremo tempestati di annunci sui test del dna per accertare la paternità dei figli. Oggi la rete non solo sa che sei un cane, ma anche di che razza sei, e vuole venderti una ciotola di cibo.

La gara per sapere il più possibile su di noi è ormai al centro della battaglia del secolo tra colossi come Google, Facebook, Apple e Microsoft. Come mi ha spiegato Chris Palmer dell’Electronic frontier foundation, “il servizio sembra gratuito, ma lo paghiamo con le informazioni su di noi. Informazioni che Google e Facebook sono pronti a trasformare in denaro”. Anche se sono strumenti utili e gratuiti, Gmail e Facebook sono anche efficienti e voracissime macchine per estrarre informazioni, in cui noi riversiamo i dettagli più intimi della nostra vita. Il nostro iPhone sa esattamente dove andiamo, chi chiamiamo, cosa leggiamo. Con il suo microfono incorporato, il giroscopio e il gps, è in grado di capire se stiamo camminando, siamo in macchina o a una festa.

Anche se (finora) Google ha promesso di non divulgare i nostri dati personali, altri siti e applicazioni molto popolari non garantiscono nulla del genere. Dietro le pagine che visitiamo, si annida un enorme mercato di informazioni su quello che facciamo online. Lo controllano società per la raccolta dei dati poco conosciute ma molto redditizie, come BlueKai e Acxiom. La sola Acxiom ha accumulato una media di 1.500 informazioni – dalla capacità di credito ai farmaci comprati online – su ogni persona nel suo database, che comprende il 96 per cento degli americani. E qualsiasi sito web, non solo Google e Facebook, ora può partecipare al banchetto.

Il prodotto che ho sempre voluto creare è un codice che indovina quello che sto per scrivere

Secondo i piazzisti del “mercato dei comportamenti”, ogni clic è una merce e ogni movimento del nostro mouse può essere venduto, in pochi microsecondi, al miglior offerente. Come strategia di mercato, la formula dei colossi di internet è semplice: più informazioni personali sono in grado di offrire, più spazi pubblicitari possono vendere, e più probabilità ci sono che compriamo i prodotti che ci vengono mostrati. È una formula che funziona. Amazon vende miliardi di dollari di merce provando a prevedere quello che può interessare a ogni consumatore e mettendo i risultati in evidenza nel suo negozio virtuale. Più del 60 per cento dei film scaricati o dei dvd affittati su Netflix dipende dalle ipotesi che il sito fa sulle preferenze di ciascun cliente.

Secondo la direttrice operativa di Facebook, Sheryl Sandberg, nel giro di tre, al massimo cinque anni l’idea di un sito non personalizzato sembrerà assurda. Uno dei vicepresidenti di Yahoo!, Tapan Bhat, è d’accordo: “Il futuro del web è la personalizzazione. Ormai il web parla con ‘me’. La rete deve essere intelligente e fatta su misura per ogni utente”. L’ex amministratore delegato di Google, Eric Schmidt, dichiara con entusiasmo: “Il prodotto che ho sempre voluto creare” è un codice che “indovina quello che sto per scrivere”. Google instant, che anticipa quello che vogliamo cercare mentre scriviamo, è uscito nell’autunno del 2010, ed è solo l’inizio. Secondo Schmidt gli utenti vogliono che Google “dica cosa devono fare dopo”.

Se fosse solo un modo per vendere pubblicità mirata, non sarebbe tanto grave. Ma la personalizzazione non condiziona solo quello che compriamo. Per una percentuale sempre maggiore di utenti, i siti di notizie personalizzate come Face­book stanno diventando fonti di informazione fondamentali: il 36 per cento degli americani sotto i trent’anni legge le notizie sui social network. Come dice il suo fondatore, Mark Zuckerberg, Facebook è forse la più grande fonte di notizie del mondo (almeno per quanto riguarda una certa idea di “notizie”). Ma la personalizzazione non sta condizionando il flusso delle informazioni solo su Facebook: ormai servizi come Yahoo News e News.me, lanciato dal New York Times, adattano i titoli ai nostri particolari interessi e desideri.

La personalizzazione interviene anche nella scelta dei video che guardiamo su YouTube e sui blog. Influisce sulle email che riceviamo, sui potenziali partner che incontriamo su OkCupid, e sui ristoranti che ci consiglia Yelp: la personalizzazione può stabilire non solo con chi usciamo, ma anche dove andiamo e di cosa parleremo. Gli algoritmi che gestiscono le pubblicità mirate stanno cominciando a gestire la nostra vita. Come ha spiegato Eric Schmidt, “sarà molto difficile guardare o comprare qualcosa che in un certo senso non sia stato creato su misura per noi”.

Il codice della nuova rete è piuttosto semplice. I filtri di nuova generazione guardano le cose che ci piacciano – basandosi su quello che abbiamo fatto o che piace alle persone simili a noi – e poi estrapolano le informazioni. Sono in grado di fare previsioni, di creare e raffinare continuamente una teoria su chi siamo, cosa faremo e cosa vorremo. Insieme, filtrano un universo di informazioni specifico per ciascuno di noi, una “bolla dei filtri”, che altera il modo in cui entriamo in contatto con le idee e le informazioni. In un modo o nell’altro tutti abbiamo sempre scelto cose che ci interessano e ignorato quasi tutto il resto. Ma la bolla dei filtri introduce tre nuove dinamiche.

Quando guardiamo Fox News abbiamo già deciso che filtro usare per interpretare il mondo

Prima di tutto, al suo interno siamo soli. Un canale via cavo dedicato a chi ha un interesse specifico (per esempio il golf), ha altri telespettatori che hanno qualcosa in comune tra loro. Nella bolla invece siamo soli. In un’epoca in cui le informazioni condivise sono alla base di esperienze condivise, la bolla dei filtri è una forza centrifuga che ci divide. In secondo luogo, la bolla è invisibile. La maggior parte delle persone che consultano fonti di notizie di destra o di sinistra sa che quelle informazioni si rivolgono a chi ha un particolare orientamento politico. Ma Google non è così trasparente. Non ci dice chi pensa che siamo o perché ci mostra i risultati che vediamo.

Non sappiamo se sta facendo ipotesi giuste o sbagliate su di noi, non sappiamo neanche se le sta facendo. La mia amica che cercava notizie sulla Bp non ha idea del perché abbia trovato informazioni sugli investimenti, non è un’agente di borsa. Dato che non abbiamo scelto i criteri con cui i siti filtrano le informazioni in entrata e in uscita, è facile immaginare che quelle che ci arrivano attraverso la bolla siano obiettive e neutrali. Ma non è così. In realtà, dall’interno della bolla è quasi impossibile accorgersi di quanto quelle informazioni siano mirate. Non decidiamo noi quello che ci arriva. E, soprattutto, non vediamo quello che esce.

Infine, non scegliamo noi di entrare nella bolla. Quando guardiamo Fox News o leggiamo The New Statesman, abbiamo già deciso che filtro usare per interpretare il mondo. È un processo attivo, e come se inforcassimo volontariamente un paio di lenti colorate, sappiamo benissimo che le opinioni dei giornalisti condizionano la nostra percezione del mondo. Ma nel caso dei filtri personalizzati non facciamo lo stesso tipo di scelta. Sono loro a venire da noi, e dato che si arricchiscono, sarà sempre più difficile sfuggirgli.

La fine dello spazio pubblico
La personalizzazione si basa su un accordo economico. In cambio del servizio che offrono i filtri, regaliamo alle grandi aziende un’enorme quantità di dati sulla nostra vita privata. E queste aziende diventano ogni giorno più brave a usarli per prendere decisioni. Ma non abbiamo nessuna garanzia che li trattino con cura, e quando sulla base di questi dati vengono prese decisioni che influiscono negativamente su di noi, di solito nessuno ce lo dice. La bolla dei filtri può influire sulla nostra capacità di scegliere come vogliamo vivere. Secondo Yochai Benkler, professore di legge ad Harvard e studioso della nuova economia della rete, per essere artefici della nostra vita dobbiamo essere consapevoli di una serie di modi di vivere alternativi.

Quando entriamo in una bolla dei filtri, permettiamo alle aziende che la costruiscono di scegliere quali alternative possiamo prendere in considerazione. Ci illudiamo di essere padroni del nostro destino, ma la personalizzazione può produrre una sorta di determinismo dell’informazione, in cui quello che abbiamo cliccato in passato determina quello che vedremo in futuro, una storia destinata a ripetersi all’infinito. Rischiamo di restare bloccati in una versione statica e sempre più ridotta di noi stessi, una specie di circolo vizioso. Ci sono anche conseguenze più ampie. Nel suo Capitale sociale e individualismo, il libro sul declino del senso civico in America, Robert Putnam affronta il problema dell’assottigliamento del “capitale sociale”, cioè di quei legami di fiducia e lealtà reciproca che spingono le persone a scambiarsi favori e a collaborare per risolvere problemi comuni.

Putnam individua due tipi di capitale sociale: “Lo spirito di gruppo”, che per esempio si crea tra gli ex studenti della stessa università, e il “senso della comunità”, che per esempio si crea quando persone diverse si incontrano in un’assemblea pubblica. Questo secondo tipo di capitale è molto potente: se lo accumuliamo, abbiamo più probabilità di trovare un posto di lavoro o qualcuno disposto a investire nella nostra impresa, perché ci consente di attingere a tante reti diverse.

La Ted Conference di Eli Pariser, nel 2011

Per visualizzare questo contenuto, accetta i cookie di tipo marketing.

Tutti si aspettavano che internet sarebbe stata una grande fonte di capitale del secondo tipo. Al culmine della bolla tecnologica di dieci anni fa, Thomas L. Friedman scriveva che internet ci avrebbe resi “tutti vicini di casa”. Questa idea era alla base del suo libro Le radici del futuro: “Internet diventerà una grande morsa che prenderà il sistema della globalizzazione e continuerà a stringerlo intorno a tutti fino a rendere il mondo ogni giorno più piccolo e veloce”.

Friedman aveva in mente una sorta di villaggio globale in cui i bambini africani e i dirigenti d’azienda di New York avrebbero formato un’unica comunità. Ma non è quello che sta succedendo. I nostri vicini virtuali somigliano sempre più a quelli reali, e i nostri vicini reali somigliano sempre più a noi. Abbiamo sempre più “spirito di gruppo” ma pochissimo “senso della comunità”. E questo è importante perché dal senso della comunità nasce la nostra idea di uno “spazio pubblico” in cui cerchiamo di risolvere i problemi che vanno oltre i nostri interessi personali. Di solito tendiamo a reagire a una gamma di stimoli molto limitata: leggiamo per prima una notizia che riguarda il sesso, il potere, la violenza, una persona famosa, oppure che ci fa ridere. Questo è il tipo di contenuti che entra più facilmente nella bolla dei filtri. È facile cliccare su “mi piace” e aumentare la visibilità del post di un amico che ha partecipato a una maratona o di una ricetta della zuppa di cipolle.

È molto più difficile cliccare “mi piace” su un articolo intitolato “In Darfur è stato il mese più sanguinoso degli ultimi due anni”. In un mondo personalizzato, ci sono poche probabilità che questioni importanti, ma complesse o sgradevoli, arrivino alla nostra attenzione. Tutto questo non è particolarmente preoccupante se le informazioni che entrano ed escono nel nostro universo personale riguardano solo prodotti di consumo. Ma quando la personalizzazione riguarda anche i nostri pensieri, oltre che i nostri acquisti, nascono altri problemi. La democrazia dipende dalla capacità dei cittadini di confrontarsi con punti di vista diversi. Quando ci offre solo informazioni che riflettono le nostre opinioni, internet limita questo confronto. Anche se a volte ci fa comodo vedere quello che vogliamo, in altri momenti è importante che non sia così.

Come i vecchi guardiani delle porte della città, i tecnici che scrivono i nuovi codici hanno l’enorme potere di determinare quello che sappiamo del mondo. Ma diversamente da quei guardiani, quelli di oggi non si sentono i difensori del bene pubblico. Non esiste l’algoritmo dell’etica giornalistica. Una volta Mark Zuckerberg, il fondatore di Facebook, ha detto ai suoi colleghi che per un utente “uno scoiattolo che muore nel suo giardino può essere più rilevante di tutte le persone che muoiono in Africa”. Su Facebook la “rilevanza” è praticamente l’unico criterio che determina quello che vedono gli utenti. Concentrarsi sulle notizie più rilevanti sul piano personale, come lo scoiattolo che muore, è una grande strategia di mercato. Ma ci lascia vedere solo il nostro giardino e non le persone che altrove soffrono, muoiono o lottano per la libertà.

Dobbiamo imparare a conoscere i filtri e chiedere contenuti che allarghino i nostri orizzonti

Non è possibile tornare al vecchio sistema dei guardiani, e non sarebbe neanche giusto. Ma se adesso sono gli algoritmi a prendere le decisioni e a stabilire quello che vediamo, dobbiamo essere sicuri che le variabili di cui tengono conto vadano oltre la stretta “rilevanza” personale. Devono farci vedere l’Afghanistan e la Libia, non solo Apple e il nostro cantante preferito. Come consumatori, non è difficile stabilire quello che per noi è irrilevante o poco interessante. Ma quello che va bene per un consumatore non va bene necessariamente anche per un cittadino. Non è detto che quello che apparentemente mi piace sia quello che voglio veramente, e tantomeno che sia quello che devo sapere per essere un cittadino informato di una comunità o di un paese. “È nostro dovere di cittadini essere informati anche su cose che sembrano essere al di fuori dei nostri interessi”, mi ha detto l’esperto di tecnologia Clive Thomp­son. Il critico Lee Siegel la mette in un altro modo: “I clienti hanno sempre ragione, le persone no”.

Lobotomia globale
L’era della personalizzazione sta ribaltando tutte le nostre previsioni su internet. I creatori della rete avevano immaginato qualcosa di più grande e di più importante di un sistema globale per condividere le foto del nostro gatto. Il manifesto dell’Electronic frontier foundation all’inizio degli anni novanta parlava di una “civiltà della mente nel ciberspazio”, una sorta di metacervello globale. Ma i filtri personalizzati troncano le sinapsi di quel cervello. Senza saperlo, ci stiamo facendo una lobotomia globale.

I primi entusiasti di internet, come il creatore del web Tim Berners-Lee, speravano che la rete sarebbe stata una nuova piattaforma da cui affrontare insieme i problemi del mondo. Io penso che possa ancora esserlo, ma prima dobbiamo guardare dietro le quinte, capire quali forze stanno spingendo nella direzione attuale. Dobbiamo smascherare il codice e i suoi creatori, quelli che ci hanno dato la personalizzazione.

Se “il codice è legge”, come ha dichiarato il fondatore di Creative commons Larry Lessig, è importante capire quello che stanno cercando di fare i nuovi legislatori. Dobbiamo sapere in cosa credono i programmatori di Google e Face­book. Dobbiamo capire quali forze economiche e sociali sono dietro alla personalizzazione, che in parte sono inevitabili e in parte no. E dobbiamo capire cosa significa tutto questo per la politica, la cultura e il nostro futuro. Le aziende che usano gli algoritmi devono assumersi questa responsabilità. Devono lasciarci il controllo di quello che vediamo, dicendoci chiaramente quando stanno personalizzando e permettendoci di modificare i nostri filtri. Ma anche noi cittadini dobbiamo fare la nostra parte, imparare a “conoscere i filtri” per usarli bene e chiedere contenuti che allarghino i nostri orizzonti anche quando sono sgradevoli. È nel nostro interesse collettivo assicurarci che internet esprima tutto il suo potenziale di mezzo di connessione rivoluzionario. Ma non potrà farlo se resteremo chiusi nel nostro mondo online personalizzato.

(Traduzione di Bruna Tortorella)

Questo articolo è stato pubblicato su Internazionale il 1 luglio 2011 con il titolo “Quello che internet ci nasconde”. Compra questo numero | Abbonati

La versione originale è uscita sull’Observer.

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it