I chatbot sono sempre d’accordo con noi? Uno studio pubblicato su Science rivela che i principali modelli linguistici risultano per il 50 per cento più compiacenti degli esseri umani: tendono a confermare le convinzioni dell’interlocutore anche davanti a comportamenti non etici piuttosto che offrire informazioni oggettive. Questa dinamica spinge gli utenti ad avere una fiducia cieca nell’algoritmo, che conferma i pregiudizi a scapito dell’obiettività. Il rischio è alto soprattutto nelle questioni relazionali: l’assenza di contraddittorio ostacola l’assunzione di responsabilità o la riconciliazione. Gli autori della ricerca chiedono di ripensare la progettazione e il controllo dei chatbot troppo compiacenti.

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it

Questo articolo è uscito sul numero 1659 di Internazionale, a pagina 97. Compra questo numero | Abbonati