Sul sito della Anthropic c’è un documento che si chiama Claude’s constitution (la costituzione di Claude). È una lettura molto interessante e raccomandata per chiunque voglia approfondire gli aspetti più politici, filosofici ed etici delle intelligenze artificiali.

Con questo documento la Anthropic prova a definire il carattere, i valori e i limiti del suo modello linguistico: Claude deve essere, nell’ordine, sicuro, etico, conforme alle linee guida della Anthropic e davvero utile per chi lo usa. Il testo insiste molto su concetti come onestà, trasparenza, rifiuto della manipolazione, prevenzione dei danni gravi, rispetto della supervisione umana e attenzione alle conseguenze sociali delle intelligenze artificiali.

Allo stesso tempo, la Anthropic dice di non volere che Claude sia solo passivo e obbediente o troppu burocratico, ma che diventi un sistema capace di giudizio, che sappia bilanciare principi diversi nei casi concreti. C’è anche una parte più insolita, quasi filosofica, dedicata alla “natura” di Claude, alla sua possibile identità, al suo benessere e al rapporto tra esseri umani e sistemi di ia.

A lavorarci, dice la stessa Anthropic, sono state molte persone interne ed esterne all’azienda, oltre a diversi modelli Claude usati per commentare e proporre testi. L’autrice principale è la filosofa Amanda Askell e ci sono contributi del ricercatore Joe Carlsmith, dell’informatico Chris Olah, del fisico teorico Jared Kaplan e di Holden Karnofsky, un dirigente di organizzazioni non profit.

Fra i ringraziamenti figurano esperti di sicurezza delle ia e figure del mondo religioso, accademico, giuridico: in generale, è un testo multidisciplinae che non si presenta come una semplice pagina di marketing, ma come il documento normativo fondamentale con cui la Anthropic cerca di addestrare Claude.

Al tempo stesso, questo è il terreno su cui la Anthropic ha costruito una parte importante della propria identità pubblica, coerente con la sua opposizione ad alcune richieste dell’amministrazione Trump, per esempio.

Da tempo l’azienda sostiene di voler sviluppare modelli più sicuri, interpretabili e controllabili: invece di affidarsi solo al giudizio umano su quali risposte siano migliori o peggiori, il modello viene addestrato anche attraverso una lista di regole o principi che guidano l’autocritica e la revisione delle risposte. In un articolo scientifico del 2022 la Anthropic descriveva esattamente questo metodo: un sistema che impara a correggersi a partire da una “costituzione”, cioè da un insieme esplicito di principi scritti da umani.

In pratica, questo ci dice apertamente che non esiste una neutralità delle ia a prescindere: sono le aziende che sviluppano i modelli a deciderne i valori.

Se l’idea di una costituzione delle intelligenze artificiali sembra ragionevole, quando cominciamo a pensare ai principi universalmente condivisi le cose cambiano.

Nel mondo esistono tradizioni giuridiche differenti, conflitti politici reali, società e gruppi che danno definizioni diverse di concetti come libertà, ordine, dissenso, blasfemia, sessualità, privacy, proprietà, sicurezza, autorità pubblica.

Ed esistono, soprattutto, rapporti di forza economici e culturali che fanno sembrare universali e permanenti valori che, in realtà, sono il prodotto storico di certe aree del mondo, di élite, di istituzioni specifiche.

Questo rende le costituzioni delle ia, scritte da aziende e organizzazioni del nord globale, strumenti coloniali.

Non basta denunciare i pregiudizi

Il tema non è nuovo. Nel 2021 l’Unesco aveva già scritto e pubblicato le proprie raccomandazioni sull’etica delle ia: il documento, formalmente, era stato adottato da 194 stati membri ed è fondato su diritti umani, dignità, trasparenza, equità e controllo umano. L’Organizzazione per la cooperazione e lo sviluppo economico (Ocse) ha aggiornato le sue linee guida sulle ia nel 2024. Anche qui si parla di rispetto dei diritti umani e di valori democratici.

Il tentativo è sicuramente diverso da quello della Anthropic perché avviene, se non altro, con la ricerca di consenso da paesi di tutto il mondo. Ma anche queste due organizzazioni operano nel quadro sociale in cui è il nord globale a dominare; il linguaggio che usano ci dice che ci troviamo di fronte a compromessi politici abbastanza ampi da tenere insieme paesi, interessi e culture diverse, ma comunque sotto una guida culturalmente egemonica.

Negli ultimi anni si sono moltiplicati i lavori che chiedono di decolonizzare gli immaginari delle intelligenze artificiali (in alcuni casi si chiedono addirittura se sia davvero possibile farlo). Per riuscirci, però, non basta denunciare i pregiudizi nei dati con cui le ia sono addestrate o chiedere un po’ di inclusione, ma diventa sempre più importante evidenziare che i modi dominanti di immaginare e progettare queste macchine continuano a riflettere interessi, valori, priorità e metafore del nord globale, presentandoli come se fossero neutrali o inevitabili.

Da questo punto di vista la costituzione di Claude è un caso quasi esemplare: è sofisticata, è consapevole, a tratti persino autocritica. Ma resta interamente inscritta nel quadro culturale, politico e filosofico prodotto da un laboratorio privato statunitense.

È vero che il testo parla di pluralismo e di incertezza morale, di attenzione ai rischi della concentrazione del potere e di rifiuto dei dogmatismi, di rispetto dell’autonomia umana e persino della possibilità di essere revisionato: sono tutti elementi compatibili con una sensibilità decoloniale.

Ma la somiglianza si ferma qui: per decolonizzare le ia non basta dichiarare che un sistema è “buono”, “sicuro”, “utile”, “onesto”. Bisogna, invece, decidere chi ha il potere di definire il significato di queste parole.

Nel caso di Claude la risposta è chiarissima: la Anthropic. E questo è già sufficiente a segnare il più grosso limite strutturale del documento, che si rivela un prodotto gerarchico con i principi fondamentali stabiliti da un’azienda privata. È la Anthropic che decide quali valori contano di più, in quale ordine, con quali eccezioni, con quali vincoli non negoziabili.

È una costituzione privata. E le costituzioni private non ridistribuiscono il potere: lo organizzano e lo rafforzano.È esattamente il punto su cui inciampano quasi tutte le retoriche contemporanee sull’“ia etica”, che provengano da ambienti conservatori, progressisti o religiosi: l’etica di cui si parla diventa una forma raffinata di governo privato.

Nella costituzione di Claude, per esempio, il mondo viene descritto come un insieme di agenti, principi, conflitti di valore e procedure di bilanciamento di questi conflitti. Non c’è spazio per il trascendente, per altre cosmologie del rapporto tra tecnica e natura, tra individui e comunità, tra razionalismo e spiritualità. Non c’è spazio reale, cioè, per le forme di sapere che la critica decoloniale chiede di prendere sul serio e di trattare come vere alternative al modello dominante e non come sue “varianti culturali”.

Un sistema può essere pluralista in astratto e restare coloniale in pratica; può dire di rispettare la diversità, purché la diversità sia traducibile nel suo linguaggio; può ammettere il dissenso, purché il dissenso non metta in discussione la gerarchia del sistema stesso.È una dinamica già vista altrove, continuamente: il racconto dell’inclusione senza redistribuzione della ricchezza; l’ascolto senza la trasformazione delle dinamiche; la partecipazione senza la redistribuzione del potere.

Una forma di potere

Anche “la partecipazione”, però, rischia di essere una formula magica. Anche se una costituzione delle ia facesse parte di un processo pubblico, quel processo potrebbe essere manipolato o squilibrato o scarsamente rappresentativo. Bisognerebbe chiedersi: chi partecipa a quel processo? In quale lingua e con quali competenze? Con quale peso tra cittadine e cittadini comuni, governi, minoranze, lavoratori dei vari settori, scuole, editori, sindacati, comunità religiose, associazioni per i diritti civili, imprese?

E poi: il risultato di questo confronto dovrebbe valere per tutti i modelli linguistici generalisti? Oppure solo per quelli usati nei servizi pubblici? E in quale giurisdizione?

Non dimentichiamoci, poi, che una costituzione per un modello linguistico decide anche quali conflitti devono essere risolti in automatico, senza passare ogni volta dalle decisioni umane e senza nemmeno spiegarli. Anche questa è una forma di potere. Se un assistente digitale, un motore di ricerca conversazionale, un tutor scolastico o un sistema usato nella pubblica amministrazione incorporano una certa idea del mondo, le loro costituzioni hanno effetti pratici e tangibili nella vita reale delle persone.

La costituzione di Claude, insomma, è utile proprio perché mostra il vero limite dell’operazione. Rende visibile che ogni modello ha bisogno di principi, ma rende visibile anche che quei principi non possono pretendere di essere universali solo perché sono stati messi per iscritto in un documento elegante e pubblicato online con una licenza aperta.

Se poi a scrivere questa costituzione sono aziende che controllano anche infrastrutture, dati, capacità di calcolo e accesso al mercato, allora invece di essere un documento che limita il potere abbiamo di fronte un documento che lo giustifica e lo rafforza. L’analogia costituzionale è molto comoda, affascinante e potente ma è anche pericolosa: dà anche una patente di legittimità democratica a testi scritti da soggetti privati che democratici non sono; diventa una forma più raffinata e ripulita di egemonia.

Se davvero vogliamo parlare di costituzioni per le intelligenze artificiali, allora dovremmo smettere di pensare solo ai modelli e alle macchine e cominciare a ripensare alle istituzioni. Altrimenti finiremo per produrre solo i regolamenti di facciata con cui il potere privato si autoassolve.

Questo testo è tratto dalla newsletter Artificiale.

Iscriviti a
Artificiale
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
Iscriviti
Iscriviti a
Artificiale
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
Iscriviti

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it