Guardare per dodici ore fino a dieci video in contemporanea, con nuovi contenuti che compaiono ogni 25 secondi. Questa la vita dei moderatori di TikTok, che devono censurare immagini problematiche e violente. A raccontarlo è Candie Frazier, ex dipendente di un’azienda che aveva in appalto il lavoro di moderazione. Frazier ha denunciato la piattaforma cinese per non averla protetta, sostenendo di aver visto violenze di ogni genere, tra cui pedopornografia e cannibalismo. Nel 2018 in una causa simile, Facebook sborsò 52 milioni di dollari. Da allora tutte le piattaforme cercano soluzioni, per esempio fornendo supporto psicologico e abbassando la definizione delle immagini da valutare. 
Gaia Berruto

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it

Questo articolo è uscito sul numero 1442 di Internazionale, a pagina 84. Compra questo numero | Abbonati