31 marzo 2024 09:01

“L’informazione è potere. Ma come per ogni forma di potere, c’è chi vuole tenerla per sé. Il patrimonio scientifico e culturale mondiale viene sempre più digitalizzato e bloccato da una manciata di società private. Il movimento per l’open access si è battuto valorosamente per chiedere agli scienziati di non cedere e perché il loro lavoro sia pubblicato su Internet, secondo condizioni che consentano a chiunque di accedervi”.

Questo è l’inizio del Guerrilla open access manifesto, pubblicato originariamente in inglese nel 2013 e scritto da Aaron Swartz. Programmatore e attivista statunitense, cofondatore di Reddit, di OpenLibrary, di Tor2web, Swartz ha contribuito anche allo sviluppo delle licenze creative commons (come quelle sotto cui è disponibile il materiale scritto dalla redazione di Internazionale e le “opinioni” di alcuni autori italiani).

La storia di Swartz, raccontata da Giovanni Ziccardi in Aggiustare il mondo (Milano university press, 2022, scaricabile gratuitamente), è un punto di partenza importante per capire le ragioni di chi chiede accesso libero e gratuito al sapere. È una storia che non ha lieto fine: accusato di svariati reati per aver scaricato file protetti da un server dell’Mit, sottoposto a una serie di processi kafkiani, Swartz si è suicidato l’11 gennaio 2013.

La sua eredità rimane fondamentale per chi pensa che l’accesso libero alla conoscenza sia un requisito fondamentale per un’umanità migliore.

Ma cosa sta succedendo nel mondo delle intelligenze artificiali? Sappiamo che la OpenAi ha sviluppato il suo modello ChatGpt in maniera chiusa, dopo gli esordi non profit. Elon Musk, nella sua battaglia contro la Microsoft e la OpenAi, ha affermato di aver reso open source Grok, l’intelligenza artificiale sviluppata dalla sua azienda xAI.

Però Stefano Maffulli, direttore della Open source initiative, non è affatto d’accordo: di Grok sono stati resi noti i pesi – per semplificare, i parametri numerici che permettono a un modello di intelligenza artificiale di funzionare – ma non i dati né le modalità di addestramento.

Emad Mostaque, controverso amministratore della Stable diffusion, ha dato le dimissioni. L’azienda ha sviluppato un modello completamente open source di intelligenza artificiale generativa da testo a immagine. Infatti, i suoi dati di addestramento si possono esplorare. Le ragioni delle dimissioni? La difficoltà strutturale dell’azienda di fare profitto con i prodotti open source. Se aggiungiamo a queste considerazioni le reazioni di molte realtà o individui che vogliono a tutti i costi proteggere i propri contenuti dalle intelligenze artificiali per stringere accordi economici, si vede molto chiaramente che il mondo open source delle intelligenze artificiali è parecchio traballante.

Eppure, secondo un’importante ricerca del fondo di investimento Andreessen Horowitz, con enormi interessi nel mondo delle ia, ci sarebbe una crescita notevole di modelli open source.

Com’è possibile? Semplice: le aziende vogliono poter lavorare su modelli addestrati da altri – il costo dell’addestramento è elevatissimo – per poi sviluppare proprie soluzioni chiuse. In alcuni casi perché non vogliono che i propri dati privati siano a disposizione delle poche aziende oligopoliste del settore. In altri casi per mere ragioni di profitto. E questo accade anche se, come viene detto in una lunga conversazione su Reddit, nessuna azienda ha addestrato i propri modelli su dati prodotti internamente.

Non è esattamente il tipo di open source che auspicava Aaron Swartz. Anzi, assomiglia molto a quel potere escludente e disuguale di cui parla nel suo manifesto.

Questo testo è tratto dalla newsletter Artificiale.

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it