26 giugno 2016 18:02

Un’auto senza conducente si sta dirigendo verso cinque pedoni. Può continuare in linea retta e travolgerli oppure svoltare e schiantarsi contro un muro, uccidendo il passeggero. Per quale scelta deve essere programmato il computer del veicolo? Uno studio pubblicato sulla rivista Science immagina una serie di dilemmi morali che i programmatori delle auto automatiche devono prevedere nei loro algoritmi.

Tre ricercatori dell’università della California a Irvine, Jean-François Bonnefon, Azim Shariff e Iyad Rahwan, hanno condotto sei sondaggi online tra giugno e novembre 2015, presentando ai volontari situazioni di traffico eticamente problematiche.

In un primo caso, tra sacrificare il passeggero o investire dieci pedoni, il 76 per cento dei volontari ha scelto l’approccio utilitaristico di sacrificare il passeggero. Se però il pedone è uno solo, non viene più considerato tanto morale sacrificare il passeggero. Allo stesso modo, se a bordo del veicolo si trova un familiare, il sacrificio risulta meno accettabile. I ricercatori hanno anche cercato di capire quanto fosse desiderabile comprare un’auto che si guida da sola utilitaristica, programmata in modo da sacrificare il passeggero in alcune circostanze. È emerso che l’auto utilitaristica è considerata molto morale, la migliore da immettere in circolazione. Tuttavia, pochi volontari la comprerebbero per sé.

Secondo Joshua Greene dell’Harvard University, lo studio dimostra “quanto sarà difficile creare macchine autonome che si comportino in modo adeguato alle nostre sensibilità morali”. La difficoltà nel risolvere i dilemmi etici potrebbe portare a un paradosso. Le auto senza conducente sono infatti più sicure di quelle convenzionali, causano meno incidenti e meno vittime. Se però non si riuscirà a trovare una soluzione accettabile ai problemi etici, la produzione di massa di questi veicoli potrebbe venire rimandata.