Siamo in tempo per mettere dei paletti etici all’uso dell’intelligenza artificiale (ia) in ambito bellico? Difficile a dirsi, viste le recenti accelerazioni. Anthropic si è rifiutata di accettare le condizioni del Pentagono, dichiarando di non poter lasciare che l’esercito usi l’ia per la sorveglianza domestica di massa o per uccidere senza intervento umano. Trump ha così chiuso la commessa da 200 milioni di dollari e, poco dopo, la concorrente OpenAI ha annunciato di aver firmato l’accordo. L’amministratore delegato Sam Altman sostiene che nel contratto ci siano le stesse richieste fatte da Anthropic. Ma, senza quadri normativi condivisi, l’intero settore è in balia di accordi privati poco trasparenti.
Gaia Berruto

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it

Questo articolo è uscito sul numero 1655 di Internazionale, a pagina 90. Compra questo numero | Abbonati