Secondo i suoi calcoli, Trevin Brownie ha visto decapitare più di mille persone. Il suo lavoro consiste nell’esaminare un nuovo video su Facebook ogni 55 secondi circa, rimuovendo e classificando i contenuti più dannosi ed espliciti. Il primo giorno, ricorda, ha vomitato per il disgusto dopo aver visto le immagini di un uomo che si uccideva davanti al figlio di tre anni. Poi è andata sempre peggio. “Pedopornografia, bestialità, necrofilia, violenze su esseri umani, animali, stupri”, racconta con la voce tremante. “Gli utenti di Facebook non vedono queste cose. Il mio lavoro è fare in modo che non le vedano”.

La sequenza di orrori senza fine può avere effetti inattesi sui moderatori. “Dopo aver visto cento decapitazioni, arriva il momento in cui speri che quella successiva sia ancora più orribile. Diventa una specie di dipendenza”.

Brownie è uno dei tanti ragazzi, quasi tutti sui vent’anni, assunti dalla Sama – un’azienda di outsourcing di San Francisco, negli Stati Uniti – nella sede di Nairobi, per moderare i contenuti di Facebook. È sudafricano ed è uno dei 184 firmatari di un esposto contro la Sama e la Meta, proprietaria di Facebook, per violazioni dei diritti umani e licenziamento illegittimo. È una delle cause più importanti del mondo nel settore tecnologico, e solo una delle tre avviate in Kenya contro la Meta.

Queste azioni legali potrebbero avere delle ricadute a livello globale sulle condizioni contrattuali di un esercito nascosto, formato da decine di migliaia di moderatori che filtrano ed eliminano i contenuti più tossici sui social network in tutto il mondo.

Nel 2020 Facebook ha pagato 52 milioni di dollari per chiudere una disputa legale impegnandosi a fornire assistenza psicologica ai moderatori di contenuti statunitensi. In Irlanda ci sono stati casi di richieste di risarcimento per disturbi da stress post-traumatico. Quelle in Kenya sono le prime cause che puntano a cambiare il trattamento riservato ai moderatori di contenuti su Facebook attraverso l’intervento di un tribunale. Se avessero successo, potrebbero fare da apripista a molte azioni legali nei paesi in cui la Meta e altri social network appaltano questi compiti ad altre aziende. E migliorare le condizioni di lavoro di migliaia di persone pagate troppo poco per esporsi al peggio che l’umanità possa offrire.

Secondo gli avvocati di chi ha fatto causa all’azienda, se sfiancarsi in fabbrica o respirare la polvere di carbone distruggeva i corpi degli operai nell’epoca industriale, lavorare nei laboratori digitali dei social network rovina la salute mentale. “Sono questioni fondamentali per i diritti dei lavoratori di questa generazione”, afferma Neema Mutemi, docente dell’università di Nairobi, che dà una mano a far conoscere l’azione legale.

Abbiamo chiesto alla Meta di replicare alle accuse, ma l’azienda ha dichiarato di non voler commentare azioni legali in corso.

Una scelta sbagliata

Negli ultimi anni la Meta ha subìto molte pressioni per controllare i discorsi d’odio e la disinformazione sulle sue piattaforme: Facebook, WhatsApp e Instagram. In Birmania l’azienda è stata accusata di aver amplificato attraverso i suoi algoritmi i discorsi d’odio e di non aver rimosso i post che incitavano alla violenza contro i rohingya. Migliaia di appartenenti a questa minoranza sono stati uccisi e centinaia di migliaia sono stati costretti a fuggire in Bangladesh. Secondo alcuni esperti, in India la Meta non è riuscita a reprimere la disinformazione e le istigazioni alla violenza, che hanno causato scontri. Per l’azienda l’India è il singolo mercato più importante.

Nel 2021 l’ex dipendente della Meta Frances Haugen ha fatto trapelare migliaia di documenti interni che svelano come l’azienda protegge i suoi utenti. Haugen ha dichiarato di fronte al senato statunitense che “il profitto ha la priorità sulla sicurezza”. Dai documenti emerge che la Meta non era stata in grado di filtrare i contenuti divisivi e d’impedire che arrivassero agli utenti di paesi come l’Etiopia, l’Afghanistan e la Libia, considerati “ad alto rischio” anche dalla stessa azienda per il panorama politico instabile e la frequenza dei discorsi d’odio.

Negli ultimi anni la Meta ha investito miliardi di dollari per contrastare i contenuti tossici sulle sue piattaforme, reclutando circa quarantamila persone per la sicurezza e la protezione degli utenti, affidandosi in molti casi ad aziende fornitrici di servizi come la Accenture, la Cognizant e la Covalen.

Tra i nuovi assunti, i moderatori sono circa quindicimila. Fuori degli Stati Uniti, la Meta lavora con aziende in più di venti sedi in tutto il mondo – in paesi come l’India, le Filippine, l’Irlanda e la Polonia – che contribuiscono a setacciare i contenuti nelle lingue locali.

La Sama lavorava da anni a Nairobi classificando dati per addestrare i soft­ware d’intelligenza artificiale di clienti come la Tesla e la Meta. Nel 2019 questa le ha chiesto di occuparsi anche della moderazione dei contenuti. Avrebbe dovuto far parte di un nuovo centro africano in cui si filtravano i post scritti nelle lingue del continente. Per la Sama era un campo nuovo. La sua squadra, però, ha voluto accettare l’incarico – che altrimenti sarebbe stato affidato a un’azienda delle Filippine – anche per la responsabilità di contribuire con la sua competenza culturale e linguistica alla moderazione dei contenuti africani. Ha assunto persone originarie del Burundi, dell’Etiopia, del Kenya, della Somalia, del Sudafrica e dell’Uganda, per farle lavorare nella sede di Nairobi.

È stato un errore. Quattro anni dopo la Sama ha deciso di abbandonare la moderazione dei contenuti, rescindendo il contratto con Facebook e licenziando alcuni manager che avevano gestito le nuove attività.

Brownie, assunto nel 2019 in Sudafrica per lavorare nella capitale keniana, è uno di quelli che hanno ricevuto il preavviso di licenziamento a gennaio, quando la Sama ha informato i dipendenti di aver chiuso il contratto con Face­book.

“È un lavoro importante, ma sta diventando sempre più difficile”, ha dichiarato al Financial Times Wendy Gonzalez, amministratrice delegata della Sama, aggiungendo che la moderazione dei contenuti rappresentava appena il 2 per cento del giro d’affari dell’azienda.

Molti moderatori che lavorano in Kenya raccontano di aver subìto danni psicologici, di essere tormentati da alcune immagini e di non riuscire a mantenere relazioni sociali normali.

Mercy Mutemi (seduta, al centro) partecipa a un incontro online in preparazione del processo contro la Meta, Nairobi, 12 aprile 2023 (Tony Karumba, Afp/Getty)

“Dopo aver visto quelle cose non puoi far finta di niente. Molti di noi non riescono più a dormire”, racconta Kauna Ibrahim Malgwi, nigeriana, laureata in psicologia, che si occupava dei post in lingua hausa, parlata in tutta l’Africa occidentale.

Oggi, spiega Malgwi, deve prendere degli antidepressivi.

Cori Crider, una delle responsabili di Foxglove, uno studio legale non profit di Londra che segue la causa degli ex moderatori della Sama, afferma che questi non hanno ricevuto alcuna protezione contro lo stress mentale. “I poliziotti che indagano sui casi di immagini di abusi sui minori hanno una schiera di psicologi a disposizione ed esistono dei limiti molto rigidi sulla quantità di materiale che possono guardare”, osserva Crider. Invece i terapisti e gli psicologi assunti dalla Sama per conto della Meta “non sono qualificati per diagnosticare o curare il disturbo da stress post-traumatico. Ti consigliano di respirare profondamente e di dipingere con le dita. Non sono dei professionisti”.

La Sama replica che i suoi consulenti hanno le qualifiche professionali riconosciute in Kenya.

Secondo la Meta, i casi di licenziamento senza giusta causa sono fuori dalla giurisdizione dei tribunali keniani. Il 20 aprile 2023, però, un giudice ha stabilito che la Meta può essere citata in giudizio in Kenya, segnando una grande vittoria per i moderatori e i loro avvocati. La Meta ha fatto ricorso.

“Se la Shell scarica dei rifiuti sulle coste keniane è piuttosto evidente che la giurisdizione sia del Kenya”, afferma Mercy Mutemi, avvocata dello studio Nzili and Sumbi, che rappresenta i moderatori. “Qui non siamo di fronte a qualcosa di materiale, di tangibile. Parliamo di tecnologia. Ma il ragionamento è lo stesso. La Sama è venuta qui a fare danni”.

Tre cause

Quella dei 184 moderatori è una delle tre cause intentate dallo studio legale di Mutemi con il sostegno di Foxglove. La prima è stata avviata l’anno scorso contro la Sama e la Meta da Daniel Motaung, un moderatore sudafricano che lavorava a Nairobi. Anche nel caso di Motaung un giudice keniano ha respinto l’obiezione della Meta secondo cui la questione non rientra nella giurisdizione dei tribunali keniani. Il moderatore sudafricano dice di essere stato licenziato ingiustamente dopo che aveva cercato di formare un sindacato per chiedere salari e condizioni di lavoro migliori. Dice inoltre di essere stato spinto ad accettare il lavoro con l’inganno, senza sapere di preciso in cosa consistesse.

La Sama ha contestato le accuse, sostenendo che i moderatori di contenuti erano informati dei loro compiti durante il processo di assunzione e formazione, e che Motaung è stato licenziato perché aveva violato il codice di condotta. “Per quanto riguarda la formazione di un sindacato, le nostre politiche favoriscono la libertà di associazione”, afferma Gonzalez. “Se nascesse un sindacato, non sarebbe un problema”.

I moderatori di contenuti assunti in altri paesi africani erano pagati sessantamila scellini keniani al mese, compresa un’indennità per il lavoro all’estero, l’equivalente di 564 dollari nel 2020.

Di solito questi lavoratori dovevano fare turni di nove ore, con una di pausa, due settimane di giorno e due settimane di notte. Al netto delle tasse, erano pagati 2,20 dollari all’ora.

La Sama fa notare che in Kenya questi salari sono molto più alti di quello minimo, simili a quelli percepiti dai paramedici e dagli insegnanti più qualificati. “Sono dei buoni salari”, afferma Gonzalez. Dall’analisi dei dati risulta che per i lavoratori provenienti dall’estero gli stipendi erano quattro volte più alti del salario minimo keniano, ma Crider di Foxglove non si lascia impressionare: “Due dollari all’ora per guardare una serie di immagini di omicidi, torture e violenze su bambini? È una miseria”.

Secondo Frances Haugen, la battaglia di Motaung è l’equivalente nell’era digitale delle lotte salariali del passato. “Se l’orario lavorativo è di quaranta ore a settimana, dobbiamo ringraziare persone che si sono opposte ad altre persone”, ha detto Haugen in un evento a Londra nel 2022, parlando di questo caso. “Dobbiamo applicare quella solidarietà a nuovi fronti e a questioni come i centri di moderazione dei contenuti”.

A maggio i lavoratori di Nairobi hanno votato per formare quello che, secondo i loro avvocati, è il primo sindacato per i moderatori di contenuti al mondo. Secondo Motaung è un passo “storico”.

La terza causa intentata in Kenya contro la Meta non riguarda le leggi sul lavoro ma gli effetti della pubblicazione di alcuni contenuti su Facebook. I querelanti sostengono che l’incapacità del social network di gestire i messaggi d’odio e l’istigazione alla violenza ha alimentato gli attacchi a sfondo etnico durante l’ultima guerra civile in Etiopia.

Secondo Crider, le tre cause sono legate tra loro perché il trattamento inadeguato dei moderatori ha come risultato diretto la circolazione indiscriminata di contenuti non sicuri sulle piattaforme della Meta. Uno dei due querelanti, il ricercatore Abrham Meareg, sostiene che suo padre, un professore universitario di chimica, è stato ucciso nella regione etiope dell’Amhara nell’ottobre 2021, dopo la pubblicazione di alcuni post su Facebook in cui l’uomo veniva attaccato e si svelava il suo indirizzo.

Abrham Meareg dice di aver chiesto molte volte a Facebook di rimuovere quei contenuti, senza successo.

Nel periodo in cui in Etiopia infuriava un conflitto che ha inasprito le rivalità etniche e che potrebbe aver causato fino a seicentomila morti, la Sama aveva venticinque persone a moderare i contenuti nelle tre principali lingue etiopi: amarico, tigrino e oromo.

Gli avvocati in Kenya chiedono l’istituzione di un fondo da 1,6 miliardi di dollari (1,4 miliardi di euro) per le vittime e condizioni di lavoro migliori per i futuri moderatori di contenuti. Chiedono anche che Facebook modifichi i suoi algoritmi per evitare che episodi come quello del padre di Abrham Meareg possano ripetersi. Ma, sempre secondo gli avvocati, nella competizione con le altre piattaforme il social network punta sul coinvolgimento degli utenti per generare profitti, e questo può contribuire a far diventare virali contenuti pericolosi.

“Quello di Abrham non è un’eccezione o un caso isolato”, afferma Rosa Curling, di Foxglove. “Su Facebook si trovano infiniti esempi d’istigazioni all’omicidio. E a volte è proprio quello che succede”.

Secondo Curling, i casi ora discussi in tribunale hanno conseguenze dirette sulla qualità della moderazione dei contenuti fatta nella sede di Facebook di Nairobi.

Gonzalez ammette che ci sono lacune nella regolamentazione di questo settore e che la questione dovrebbe essere “una priorità” per i dirigenti dell’azienda. “Queste piattaforme, e non solo Face­book, si muovono un po’ alla cieca”, dice. “Servono sistemi di controllo e forme di protezione”.

Da sapere
Le prime denunce

◆ Nel febbraio 2022 il magazine statunitense Time ha pubblicato in copertina la foto di Daniel Motaung, ex moderatore di contenuti su Facebook per conto della Sama, un’azienda che svolgeva servizi per il colosso tecnologico Meta nella capitale keniana Nairobi. Motaung era stato licenziato per aver cercato di formare un sindacato ed era stato tra i primi a denunciare le condizioni di lavoro e le pressioni psicologiche a cui erano sottoposti i dipendenti.


La Meta ha sotto contratto decine di migliaia di moderatori, ma sta già facendo investimenti per sostituirli con programmi d’intelligenza artificiale in grado di filtrare la disinformazione, i discorsi d’odio e altri contenuti tossici. Nell’ultimo trimestre, secondo l’azienda, il 98 per cento dei “contenuti violenti o espliciti” è stato individuato grazie all’intelligenza artificiale.

Gli scettici, però, fanno notare che l’enorme quantità di contenuti dannosi che continuano a circolare su internet in paesi come l’Etiopia evidenzia il fatto che l’intelligenza artificiale non riesce a cogliere tutte le sfumature necessarie a moderare le immagini e i testi scritti dagli umani.

Oltre a poter stabilire dei precedenti legali, le cause in Kenya offrono una rara opportunità per saperne di più sulle condizioni lavorative dei moderatori di contenuti, che spesso operano nel più completo anonimato.

Gli accordi di riservatezza che sono obbligati a firmare, di solito su richiesta di appaltatori come la Sama, gli impediscono di condividere dettagli del loro lavoro perfino con i familiari. Secondo Gonzalez, questo serve a proteggere i dati sensibili dei clienti.

Frank Mugisha, ex dipendente ugandese della Sama, ha un’altra spiegazione. “Non ho mai potuto condividere la mia esperienza con nessuno perché sono sempre stato trattato come un segreto sporco”. Dopo aver perso il lavoro, i dipendenti della Sama originari di altri paesi rischiano l’espulsione dal Kenya, sebbene un tribunale abbia emesso un’ordinanza temporanea che vieta alla Meta e alla Sama di rescindere i contratti fino al raggiungimento di un verdetto definitivo.

Tuttavia, molti ex dipendenti della Sama non sono pagati da due mesi e rischiano di essere sfrattati dai loro alloggi perché sono rimasti indietro con l’affitto. I moderatori di contenuti con cui abbiamo parlato hanno firmato degli accordi di riservatezza. Ma secondo i loro avvocati, non gli è vietato di raccontare le loro condizioni di lavoro.

I moderatori provenienti da vari paesi africani hanno espresso critiche simili. Tutti hanno ammesso di aver accettato il posto senza essere stati adeguatamente informati sulle sue implicazioni. Hanno lamentato pressioni costanti dei loro dirigenti, che li spingevano a lavorare sempre più in fretta, con l’obbligo di gestire ogni ticket, ogni richiesta, in 50 o 55 secondi.

Nella sua replica, la Meta precisa di non chiedere il raggiungimento di quote ai revisori di contenuti e di “non spingerli a prendere decisioni frettolose”, anche se “efficacia ed efficienza” sono fattori importanti.

Di fronte ai tentativi di Facebook di tenere a distanza i lavoratori, coinvolgendo terze parti come la Sama, Malgwi, la psicologa nigeriana, fa notare: “Ogni mattina ci colleghiamo a una piattaforma della Meta. Il messaggio che leggiamo è: ‘Benvenuti. Grazie di proteggere la comunità di Meta’”.

Nel completo anonimato

Fasica Gebrekidan, moderatrice etiope che ha studiato giornalismo all’università di Mekelle, il capoluogo del Tigrai, ha ottenuto un posto alla Sama poco dopo essere scappata dalla guerra civile in Etiopia nel 2021. Quando ha saputo che avrebbe lavorato indirettamente per la Meta, ha pensato di essere “la ragazza più fortunata del mondo”. Ma, aggiunge, “non mi aspettavo di dover vedere ogni giorno dei corpi smembrati a causa degli attacchi con i droni”.

Finora Gebrekidan non ha parlato con nessuno e non ha detto in cosa consiste il suo lavoro neanche alla madre. “Quello che faccio non è un lavoro normale”, osserva. “Ma mi considero un’eroina perché tolgo di mezzo tutta questa roba tossica e negativa”. ◆ gim

Gli autori di questo articolo sono Madhumita Murgia e David Pilling.

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it

Questo articolo è uscito sul numero 1516 di Internazionale, a pagina 62. Compra questo numero | Abbonati