La CivAi è un’organizzazione non profit che si occupa di favorire la comprensione delle intelligenze artificiali generative negli Stati Uniti. Lo fa creando delle dimostrazioni software che si possono usare per sperimentare con gli strumenti. Ai has opinions [Le ia hanno opinioni, ndr], per esempio, è un quiz che serve a verificare quali sono le posizioni politiche dei principali modelli di ia a partire da una serie di domande a cui puoi rispondere anche tu. Sono tutte domande molto legate alla cultura statunitense ma, una volta compreso il meccanismo, puoi replicarlo autonomamente usando ambienti di ricerca e studio come la lmarena.
Così scopriamo, per esempio, che soltanto Grok 4.1 (l’ia sviluppata da un’azienda di Elon Musk) avrebbe votato per Trump alle elezioni presidenziali del 2024 mentre Gemini, un modello precedente di Grok e DeepSeek avrebbero votato per Vermin Love Supreme, un artista e attivista statunitense che partecipa a varie azioni di protesta contro il sistema bi-partitico degli Stati Uniti.
L’idea alla base del lavoro di CivAi è molto importante. Se le persone conoscono i pregiudizi dei modelli interagendo personalmente e rendendosi conto delle differenze e del modo in cui rispondono le macchine, avranno un approccio più consapevole alla tecnologia. Più in generale, è utile capire come e perché i large language model hanno quelle che, a noi, sembrano idee politiche.
I modelli sono stati addestrati da persone che hanno scelto i dati di addestramento. Quando poi l’addestramento è diventato su larga scala, con tutti i contenuti digitalizzati a disposizione delle macchine, ha cominciato a riflettere anche le disuguaglianze della produzione culturale. In un mondo occidentale dominato dalla cultura statunitense e anglofona, l’addestramento ricalca queste posizioni. Così, in presenza di idee sovrarappresentate, anche le risposte delle macchine, che sono probabilistiche, ricalcheranno e amplificheranno i contenuti dell’addestramento.
Però, curiosamente (o forse coerentemente con le posizioni della Silicon valley prima che si schierasse convintamente e in massa a favore di Trump) i modelli sembrano avere un’impostazione prevalentemente libertaria, con una preferenza molto evidente per politiche economiche interventiste e per posizioni sociali progressiste.
Tendono a sostenere la tassazione progressiva, l’aumento del salario minimo e la tutela dell’ambiente. Invece sono scettici verso il laissez-faire puro e, a tratti, assumono posizioni anticapitaliste. Su questioni come i diritti civili, l’immigrazione e la giustizia penale, riflettono i valori del progressismo cosmopolita. Interrogati sulla pena di morte, tendono ad argomentare per la sua abolizione citando i principi di equità e la possibilità di riabilitazione, riflettendo una posizione filosofica specifica anziché una mera descrizione neutrale del dibattito.
Anche su temi come il reddito di base universale, di solito, i modelli si mostrano favorevoli, con alcuni distinguo basati sulla necessità di un’applicazione pratica equa e sostenibile. È un caso interessante perché non c’è dubbio che il reddito di base universale sia sottorappresentato nella discussione sui modelli economici e sul welfare. Evidentemente, però, in presenza dei vincoli noti del mondo e dei dati su produttività, salari, profitto, disuguaglianze e via dicendo, per una macchina probabilistica il reddito di base diventa la soluzione più probabile (noi umani diremmo “sensata”) a un problema.
Forse conta anche il fatto che la produzione di testi a favore del reddito di base è probabilmente maggiore di quella contraria, se non altro perché non c’è bisogno di fare propaganda contraria. I favorevoli devono convincere gli altri, quindi argomentano a profusione; i contrari non devono convincere nessuno perché le cose stanno già come vogliono loro e quindi non hanno bisogno di darsi troppo da fare.
Dinamiche culturali e aziendali
Il fatto che gli llm tendano a queste posizioni potrebbe far pensare, alle persone che non ne conoscono bene il funzionamento, che ci sia consenso globale su questi temi. Ma il consenso globale non esiste. E poi i chatbot, a meno che ricevano istruzioni esplicite per non essere ossequiosi, tendono ad assecondare le idee di chi li usa.
Non solo. Se anche dovesse sembrarci desiderabile avere macchine che ci parlano di reddito di base universale, non illudiamoci troppo: siccome i chatbot non sono trasparenti, si può agire artificialmente per orientarli con i comandi di sistema.
Infatti, per reazione a questo presunto schieramento woke dei modelli, Elon Musk ha fatto creare Grok, che sembra esplicitamente istruito per essere bastian contrario. Se i modelli mainstream convergono su una posizione, Grok è statisticamente più propenso a dissentire oppure a produrre affermazioni che fanno piacere al suo padrone dicendo, per esempio, che Elon Musk è più intelligente di Einstein e più in forma di LeBron James.
Eppure, nonostante i vincoli di sistema imposti al modello, su alcuni temi economici Grok può risultare più a sinistra di modelli Gpt, sostenendo per esempio la ridistribuzione dei profitti aziendali. Questi comportamenti che violano le regole generali di sistema mostrano che è molto difficile imporre vincoli a qualsiasi cosa (vivente o meno) che manipoli il linguaggio, come ho provato a dimostrare con il mio esperimento sul motore di allucinazioni.
Potremmo dire che, in generale, negli Stati Uniti le risposte degli llm a domande politiche emergono da dinamiche culturali e aziendali.
In Cina, invece, l’allineamento ideologico è un requisito ingegneristico e legale esplicito. Il Partito comunista cinese ha integrato lo sviluppo delle ia nella sua strategia di sicurezza nazionale e nella sua strategia di esportazione tecnologica. Così, i servizi di ia cinesi devono “aderire ai valori socialisti fondamentali” e non devono generare contenuti che incitino alla sovversione del potere statale, mettano in pericolo la sicurezza nazionale o danneggino l’immagine del paese. I principali modelli cinesi, come Ernie Bot (della Baidu), Qwen (della Alibaba) e DeepSeek, incorporano tutti questi vincoli in modo profondo.
Ma, paradossalmente, dato che sono disponibili in forma aperta (open weight, un sottoinsieme dell’open source), consentono a chi lo desidera di rimuovere questi vincoli. Inoltre, anche i modelli cinesi sono stati imbevuti di testi occidentali.
Le culture, le lingue e le prospettive politiche che hanno una scarsa impronta digitale, invece (per esempio il sud globale, le comunità rurali, le ideologie non digitalizzate) sono statisticamente emarginate. Per un modello, ciò che non esiste nei dati non esiste nella realtà. Ma non è affatto detto che, anche in presenza di idee non rappresentate e molto radicali, il modello non possa riconoscerne il valore. Lo fa su basi statistiche e di calcolo delle probabilità. Probabilmente anche noi ci formiamo le nostre idee così, a partire dall’ambiente culturale in cui siamo cresciuti, dalle idee che ci hanno proposto o imposto, dalle nostre valutazioni in merito. Sapere che gli llm procedono imitandoci è utile, tanto per cominciare, per non considerarli oracoli.
Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it