Come fa un utente afgano a segnalare un contenuto carico d’odio a Facebook perché lo rimuova? Non è facile, spiega un dipendente del social network, perché l’interfaccia è tradotta malissimo in pashtun e in dari, le due lingue più importanti fra le trenta parlate nel paese asiatico. “In Afghanistan, dove gli abitanti in grado di capire l’inglese sono pochissimi, sembra fondamentale assicurarsi che il sistema abbia come minimo una traduzione ineccepibile”, scrive il dipendente, visto che quello fondato da Mark Zuckerberg è “il principale social network del paese”.

Queste parole sono tratte da una nota del gennaio 2021, una delle migliaia di pagine di documenti interni di Facebook svelati da Frances Haugen, ex dipendente che ha lasciato l’azienda nel maggio 2021, e trasmessi da una fonte parlamentare statunitense a diversi mezzi d’informazione, tra cui Le Monde. Si tratta in gran parte di presentazioni, rapporti e studi condotti dall’unità integrity di Facebook, incaricata di occuparsi della sicurezza dei contenuti sulla piattaforma.

I documenti offrono un raro spaccato sul funzionamento interno del principale social network del mondo, che ha 2,9 miliardi di utenti, il 90 per cento dei quali fuori dagli Stati Uniti. E svelano alcuni problemi del colosso statunitense. Uno dei più importanti riguarda le attività internazionali: in decine di lingue e di paesi, a volte a rischio o al centro di conflitti, i sistemi di protezione e moderazione dei contenuti, sia quelli gestiti da esseri umani sia quelli basati sugli algoritmi, non sono sufficienti. “Facebook non tratta allo stesso modo gli Stati Uniti e il resto del mondo”, denuncia Haugen. “L’azienda è ipocrita, perché non investe in meccanismi di protezione adeguati per tutti quegli utenti che non parlano inglese”. E aggiunge: “I paesi più fragili hanno la versione meno sicura di Facebook”.

Le sue parole sono state riprese da Maria Ressa, giornalista filippina che quest’anno ha ottenuto il premio Nobel per la pace insieme al collega russo Dmitrij Muratov. “Facebook dà la priorità alla diffusione di bugie segnate da rabbia e odio piuttosto che ai fatti reali”, ha scritto Ressa il 9 ottobre. Queste dichiarazioni si aggiungono a una serie di articoli pubblicati dal Wall Street Journal sui problemi di Facebook e Instagram, che hanno fatto precipitare l’azienda nella peggiore crisi politica dopo il 2018, quando venne fuori che la Cambridge Analytica, una società di consulenza britannica al servizio della campagna di Donald Trump per le presidenziali statunitensi del 2016, aveva avuto accesso ai dati di milioni di utenti.

Gli impiegati delle sezioni di contrasto agli abusi evidenziano nei documenti la portata della sfida che l’azienda deve affrontare fuori dagli Stati Uniti. In India, per esempio, su un campione di utenti che postava un alto numero di contenuti politici nello stato del Bengala Occidentale “il 40 per cento delle notizie diffuse erano false”, dice una nota. In un “test utente” del febbraio 2019, un account di controllo creato in India si è visto raccomandare da Facebook contenuti che alimentavano le tensioni tra indù e musulmani: dopo tre settimane la sua sezione notizie era diventata ormai un “fiume in piena di contenuti nazionalisti divisivi, disinformazione e violenza visiva”. Questo test, che mostra il ruolo degli algoritmi sviluppati per selezionare i contenuti da suggerire, non riguarda solo l’India ed è stato già riprodotto altrove, in particolare negli Stati Uniti.

Una gestione spinosa

In un altro documento i dipendenti di Facebook si dicono invece soddisfatti per come hanno gestito le elezioni legislative che si sono svolte in India tra aprile e maggio del 2019. Più in generale, il social network sottolinea gli sforzi costanti per migliorare la sicurezza della sua piattaforma: Facebook sostiene di aver investito in questo settore 13 miliardi di dollari negli ultimi cinque anni, allestendo una squadra di quarantamila persone. Di recente l’azienda ha istituito una “cellula per seguire i paesi a rischio”, dopo le accuse di aver contribuito alla diffusione di esortazioni al genocidio dei musulmani rohingya in Birmania nel 2018. Per quanto riguarda le accuse di Haugen, l’azienda di Zuckerberg le definisce un ritratto “non fedele alla realtà”, basato su estratti di documenti “rubati”.

La lettura di questi documenti, tuttavia, mostra la gestione inevitabilmente spinosa di un servizio di comunicazione e pubblicazione mondiale, quasi una torre di Babele, “disponibile in più di cento lingue, con uffici in più di trenta paesi”. È quanto si legge nel rapporto annuale dell’azienda, citato in una denuncia depositata da Haugen presso la polizia finanziaria statunitense, in cui Facebook è accusata di minimizzare davanti agli investitori le difficoltà di mettere in sicurezza la piattaforma. Facebook difende i progressi fatti e dichiara che della squadra incaricata di seguire i paesi a rischio fanno parte persone che parlano “cinquanta lingue”.

Ma, come dimostra l’esempio afgano, il regolamento della piattaforma che vieta i discorsi carichi d’odio o le discriminazioni a volte non è tradotto. È disponibile solo in 49 lingue. Tra queste ci sono l’oromo, l’amarico e il somalo, diffusi in Etiopia, dove Facebook è accusata, in particolare da Haugen, di aver ospitato contenuti che hanno alimentato il conflitto in corso dal 2020 tra il potere centrale e l’opposizione tigrina. Sono però lingue aggiunte di recente: secondo l’agenzia di stampa Reuters, nel 2019 le condizioni d’uso in queste lingue non erano ancora disponibili. Facebook ha anche sottolineato gli sforzi compiuti per le elezioni etiopi del giugno 2021: ha formato una squadra incaricata di seguire il paese, ha collaborato con alcune ong e ha limitato la “condivisione” di contenuti di amici di amici, come già aveva fatto in Birmania o in Sri Lanka.

La questione delle lingue si lega a un altro problema cruciale: i moderatori che devono valutare se i contenuti segnalati violano le regole sono quindicimila e sono gestiti da fornitori esterni distribuiti in una ventina di sedi in tutto il mondo e, assicura Facebook, coprono settanta lingue. Oltre all’amarico, all’oromo e al tigrino, l’azienda sostiene di aver aggiunto negli ultimi mesi decine di lingue, tra cui il creolo haitiano. Accusata di avere due soli moderatori di lingua birmana prima delle violenze del 2018, Facebook dichiara di averne oggi un centinaio, e a febbraio ha annunciato la messa al bando di account legati alla giunta militare al potere. In un documento interno scritto prima delle elezioni del 2019 in India, paese in cui si parlano centinaia di lingue, un dipendente si rallegra del fatto che all’hindi, al punjabi e al bengali erano stati aggiunti anche “dodici dialetti”.

Facebook ha sempre rifiutato di pubblicare il numero di moderatori per paese o lingua, nonostante le ripetute richieste di politici e giornalisti. Prendiamo l’arabo, la terza lingua più parlata sul social network: i documenti interni mostrano che i dipendenti incaricati di seguire l’arabo, concentrati soprattutto in Marocco e in Germania, non conoscono alcuni dei principali dialetti. “È vero che la squadra di moderatori ha delle risorse, ma ci sono comunque delle lacune su alcune zone e alcune lingue, a volte coperte da un’unica persona”, racconta Katie Harbath, un’altra ex dipendente. “In alcuni casi la carenza non è dovuta al rifiuto di assumere, ma alla difficoltà di trovare persone qualificate per questo lavoro”.

Karachi, Pakistan, 19 maggio 2019 (Rizwan Tabassum, Afp/Getty Images)

I problemi del social network si rafforzano a vicenda, perché una delle principali fonti per individuare contenuti problematici è la segnalazione da parte degli utenti. Nei paesi dove mancano le traduzioni o alcuni utenti non padroneggiano bene gli strumenti digitali o la lingua scritta, le denunce sono meno numerose. Il tasso di segnalazioni da parte di utenti che vivono in Africa è il più basso in assoluto, perché lì “alcune persone non sanno neanche che la piattaforma ha un regolamento”, ha spiegato nel 2019 alla Reuters Ebele Okobi, responsabile per Facebook degli affari pubblici nel continente.

L’intelligenza artificiale

I discorsi carichi d’odio o discriminatori sono individuati anche attraverso i programmi d’intelligenza artificiale. I documenti interni mostrano che anche questi strumenti hanno dei limiti. Nella nota sull’Afghanistan si legge che solo il 2 per cento dei contenuti d’odio nel paese è stato individuato in modo automatico, rispetto a una media mondiale del 90 per cento. Il problema è che questi sistemi informatici hanno bisogno di “classificatori”, categorie che gli permettono di riconoscere un contenuto problematico, per esempio a sfondo sessuale o d’incitamento all’odio, ma che per essere efficaci hanno bisogno di un enorme volume di dati nella lingua corrispondente. “Serve tempo”, ammette un dipendente nel documento.

In una tabella destinata ai paesi più a rischio e datata giugno 2020 si osserva che mancano classificatori della disinformazione in Birmania, Pakistan, Etiopia, Siria o Yemen. Stesso discorso vale per i contenuti fuorvianti o pericolosi sul covid-19, per esempio in punjabi o oromo, o per i discorsi d’odio in oromo e in amarico. “A causa dell’assenza di classificatori in hindi e in bengali, molti contenuti non sono segnalati né moderati”, lamenta un dipendente nella nota sull’India, citando delle dichiarazioni “antimusulmane” del gruppo nazionalista indù Rss.

Facebook assicura che al momento i suoi sistemi d’identificazione automatica funzionano in cinquanta lingue – tra cui l’hindi, il bengali, l’oromo e l’amarico – per i discorsi d’odio e in diciannove lingue per la disinformazione legata al covid-19. L’azienda non fornisce però il numero di classificatori della disinformazione in generale. Per quanto riguarda la propaganda terroristica, secondo la Reuters nel 2019 questi programmi erano attivi in diciannove lingue. In generale i contenuti discutibili in lingue diverse dall’inglese sono contrastati con minore efficacia, perché Face­book investe in proporzione di meno, sostiene Haugen. In una settimana dell’agosto 2019 il 37,7 per cento delle spese per la moderazione non automatizzata dei contenuti d’odio era concentrata sull’inglese americano, una percentuale lontanissima dal 4,8 per cento dello spagnolo e dal 4,7 per cento del portoghese. È quanto emerge da un documento che illustra i costi di questa attività e le indicazioni per controllarli, cioè ridurli, in particolare grazie all’uso degli algoritmi.

E anche in questo settore possono esserci degli squilibri: secondo un altro documento, nel 2020 l’87 per cento delle ore dedicate ad addestrare i sistemi d’identificazione automatica della disinformazione riguardava i contenuti provenienti dagli Stati Uniti. Per gli stessi programmi dedicati ai contenuti d’odio, il 26 per cento del tempo è stato dedicato all’inglese, contro l’8 per cento allo spagnolo, il 7 per cento all’arabo o il 4 per cento al francese. Facebook mette in guardia dall’uso di dati “isolati dal loro contesto” e garantisce “che i suoi sforzi di contrasto alla disinformazione sono rivolti per la maggior parte a contenuti pubblicati fuori dagli Stati Uniti”.

Da sapere
Cosa sono i Facebook files

◆ I Facebook files sono centinaia di documenti interni all’azienda copiati da Frances Haugen mentre lavorava per il social network. L’ex dipendente li ha poi forniti alle autorità e al congresso degli Stati Uniti. In seguito queste note sono arrivate ai mezzi d’informazione dopo essere state ripulite da tutte le informazioni personali che riguardavano i dipendenti dell’azienda. Dai documenti emerge che gli algoritmi di Facebook sono diventati così complessi che il loro funzionamento sfugge anche a chi li ha creati. È l’effetto delle centinaia di modifiche fatte dai tecnici nel corso degli anni. In una lunga nota scritta nell’agosto 2020 prima di lasciare l’azienda, la dipendente Mary Beth Hunzaker sostiene che “le diverse parti delle applicazioni di Facebook interagiscono tra loro in modo complesso” e ogni gruppo di lavoro realizza delle modifiche senza che ci sia una visione d’insieme del sistema. La conseguenza è “un aumento del rischio di problemi, facilitato o amplificato da interazioni impreviste tra funzioni o servizi della piattaforma”. Le Monde


Il social network cerca di orientare il dibattito verso l’idea di “prevalenza”, che misura la presenza di un certo tipo di contenuto: per i discorsi d’odio online sarebbe dello 0,05 per cento, cioè cinque visualizzazioni su 10.000, e sarebbe scesa del 50 per cento negli ultimi nove mesi. Questo calcolo complessivo però è solo una media mondiale, che non dice nulla delle concentrazioni di contenuti preoccupanti in determinati gruppi o in certe zone. E Facebook continua a non comunicare dati sulla moderazione per paese o per lingua.

L’azienda statunitense insiste infine sulla rete di partner che sta costituendo dal 2017 per verificare le informazioni false sulla sua piattaforma. Questi partner, tra cui anche Le Monde, ricevono le segnalazioni su determinati contenuti, li analizzano e, se sono falsi, Facebook li segnala con un avvertimento e ne riduce la circolazione sulla piattaforma. La rete comprende attualmente ottanta partner e dovrebbe coprire sessanta lingue.

Tuttavia per Haugen gli strumenti che Facebook dedica alla sicurezza fuori degli Stati Uniti e alle attività della squadra di cui faceva parte sono insufficienti. All’interno del dipartimento incaricato di studiare gli abusi sulla piattaforma e proporre soluzioni, l’unità dedicata alla “disinformazione civica” aveva solo quattro dipendenti. Sophie Zhang, un’altra dipendente che ha lanciato l’allarme e si è licenziata dall’azienda nel settembre 2020, racconta di aver riferito casi di “falsa attività” condotti sul social network da politici in Honduras o in Azerbaigian e accusa il social network di non aver agito o di averlo fatto troppo tardi, perché questi argomenti avevano poco spazio sulla stampa statunitense. Facebook, da parte sua, sostiene di aver soppresso dal 2017 a oggi “150 reti che avevano l’obiettivo di manipolare il dibattito pubblico”, nella maggior parte dei casi all’estero.

Elezioni in arrivo

“La mancanza di risorse per sviluppare gli strumenti descritti da Haugen era reale per quello che riguarda la parte dell’unità integrity dedicata alla politica o quella dedicata alle elezioni”, osserva Katie
Harbath, che dirigeva un gruppo di trenta persone incaricato di seguire le elezioni in tutto il mondo all’interno dell’unità public policy. Harbath ricorda colleghi frustrati, perché non potevano sviluppare nuovi classificatori per un certo tipo di contenuti pericolosi in una certa lingua, o uno strumento in grado di individuare le date false delle elezioni, messe in circolazione per trarre in inganno gli elettori, com’è successo negli Stati Uniti.

L’unità elections era tenuta a stabilire la “priorità” degli appuntamenti elettorali in funzione della loro importanza o dei rischi connessi agli eventi: per questo nella primavera del 2019 Facebook si è concentrata in primo luogo sulle elezioni al parlamento europeo e su quelle in India e in Indonesia. Eppure, racconta Harbath, si votava anche in Thailandia, Israele e Australia. “Poi Facebook è stato totalmente assorbito dalle presidenziali statunitensi del 2020”. Per il 2024 Harbath prevede uno “tsunami elettorale”: presidenziali statunitensi, elezioni europee e nel Regno Unito, in India, in Indonesia, in Ucraina, a Taiwan, in Messico.

Per quella data può darsi che Face­book e Zuckerberg abbiano già spiegato le loro ragioni davanti alle autorità di vigilanza degli Stati Uniti e di altri paesi. Intanto il 25 ottobre Haugen è stata sentita dai deputati del Regno Unito, e per il 10 novembre è stata convocata a Parigi davanti all’assemblea nazionale. L’8 novembre, invece, sarà davanti a una commissione del parlamento europeo. I paesi dell’Unione europea stanno discutendo di due progetti per regolamentare le grandi piattaforme: uno prevede l’obbligo per i social network di garantire una maggiore trasparenza sulle pratiche di moderazione e sugli strumenti per attuarla. ◆ gim

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it

Questo articolo è uscito sul numero 1433 di Internazionale, a pagina 64. Compra questo numero | Abbonati