Se l’intelligenza artificiale impara prendendo informazioni online, e online trova anche tanta violenza, come fare per creare un prodotto sicuro? C’è solo un modo: avere delle persone che insegnino alla macchina la differenza tra giusto e sbagliato. OpenAI, che ha creato ChatGpt, ha usato la stessa agenzia esterna della Meta, Sama: lavoratori keniani pagati due dollari all’ora per valutare odio e pedopornografia. “È stata una tortura”, ha detto a Time uno di loro. Sama ha interrotto la commessa prima della fine, per preservare la salute mentale dei dipendenti. Ma da anni ormai si conoscono i traumi di questi lavoratori costretti a visionare contenuti violenti. ◆

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it

Questo articolo è uscito sul numero 1497 di Internazionale, a pagina 80. Compra questo numero | Abbonati