Secondo una ricerca pubblicata sulla rivista Science, è l’utente di Facebook a determinare gran parte delle notizie che arrivano sul suo wall. Questo succede perché sulle pagine del social network le notizie non compaiono in modo casuale, ma sono selezionate da un algoritmo. Il news feed di Facebook adatta la scelta delle notizie alle preferenze dell’utente, scartando quelle considerate poco affini.

Per esempio, un utente di idee progressiste potrebbe veder comparire raramente articoli favorevoli ai conservatori. Questa selezione occulta delle notizie viene considerata da alcuni un rischio per la democrazia, in quanto gli utenti del social network potrebbero non vedere mai le proprie opinioni messe in discussione da altri punti di vista.

Lo studio, una collaborazione tra i ricercatori di Facebook e quelli dell’università del Michigan, ha mostrato che il news feed riduce, in effetti, la probabilità che l’utente sia esposto a notizie di orientamento diverso dal suo, ma si tratta solo di pochi punti percentuali. Eytan Bakshy, Solomon Messing e Lada Adamic hanno esaminato i dati di oltre 10 milioni di utenti degli Stati Uniti: il loro orientamento politico dichiarato, la rete di amicizie e il tipo di notizie visibili sulla pagina personale. Hanno poi costruito un metodo di classificazione delle notizie e degli utenti, da cui hanno ricavato la loro “accusa” alla creatura di Marc Zuckerberg.

Secondo David Lazer, della Northeastern University, è opportuno che in futuro Facebook renda pubblici i dati e permetta ricerche indipendenti.

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it