Nessuno al volante

L’auto senza conducente promette di cambiare non solo il modo in cui si spostano le persone, ma l’intera società.

Le auto senza conducente dovrebbero uccidere i passeggeri pur di salvare un pedone?

04 novembre 2015 15:19

Immagina di trovarti in un’auto che si guida da sola e che stia per investire un gruppo di pedoni. L’unica alternativa sarebbe sterzare e finire in un burrone. Che dovrebbe fare l’auto? I filosofi si sono scervellati su un dilemma simile per anni, ma la discussione oggi assume un nuovo significato con l’arrivo delle automobili senza guidatore, che nei prossimi anni dovrebbero diventare molto comuni.

In particolare, le auto di Google, della Tesla e di altri produttori dovranno affrontare un esperimento mentale molto discusso chiamato “dilemma del carrello”. Nell’esperimento un carrello ferroviario sta per travolgere cinque persone: tu puoi tirare una leva per deviare la corsa su un altro binario, dove c’è solo una persona. Dovresti ucciderla per risparmiare le altre cinque?

Secondo molte persone, le auto dovrebbero essere programmate in modo da non ferire i passanti

Molti credono di sì, ma questo istinto morale è complicato da altri scenari. Per esempio: sei su un cavalcavia sopra il binario e vedi un carrello ferroviario lanciato a grande velocità contro cinque persone. Accanto a te c’è un uomo grasso, e sai che il suo peso basterebbe a fermare la corsa del veicolo. È morale scaraventarlo giù per salvare quei cinque?

Finire nel burrone

Secondo uno studio pubblicato a ottobre sul sito scientifico Arxiv se si chiede a persone che non si occupano di filosofia come dovrebbe comportarsi un’auto senza pilota nel caso sia inevitabile la morte degli occupanti o quella dei pedoni, la maggior parte risponderà che le auto dovrebbero essere programmate in modo da non ferire i passanti.

I ricercatori, guidati dallo psicologo Jean-François Bonnefon della scuola di economia di Tolosa, hanno presentato a novecento persone vari scenari di possibili incidenti. E hanno scoperto che il 75 per cento pensa che l’auto debba sempre sterzare e uccidere il passeggero, anche per salvare un solo pedone.

Il “dilemma del carrello” è al centro delle discussioni perché è un esempio della tensione tra il dovere morale di non fare danno e quello di non commettere azioni malvagie.

La vecchia scuola di pensiero, l’utilitarismo, sostiene che l’azione morale è quella che genera la felicità maggiore al maggior numero di persone. In base a questo ragionamento, un’auto senza conducente dovrebbe scegliere l’azione che garantisce di risparmiare il maggior numero di persone, indipendentemente dal fatto se siano passeggeri o pedoni.

Se morissero cinque occupanti dell’auto nello schianto contro il muro, il mezzo dovrebbe proseguire la sua corsa anche se ciò comportasse l’investimento di un pedone. Il ragionamento può sembrare semplicistico, ma è difficile contestare i dettagli della teoria utilitaristica, concepita dal filosofo inglese dell’ottocento John Stuart Mill.

Di chi è la responsabilità

In ogni modo, altri pensatori intervenuti nella discussione sul “dilemma del carrello” sostengono che l’utilitarismo è un approccio rozzo, e che l’azione moralmente corretta non si limita a valutare le conseguenze, ma considera anche di chi sia la responsabilità morale.

In una serie di lezioni al riguardo, Helen Frowe, docente di filosofia pratica all’università di Stoccolma, afferma che i produttori di auto a guida autonoma dovrebbero programmare i loro veicoli in modo da proteggere i passanti, perché chi si trova nell’auto ha più responsabilità negli incidenti che potrebbe provocare.

Nell’auto che si guida da sola potrebbero esserci due bambini. Come cambia il calcolo morale?

“Abbiamo imperativi piuttosto rigorosi che ci dicono di non uccidere le persone”, ci ha detto. “Se hai deciso di salire su un’auto a guida automatica, questo crea il rischio”.

La questione etica assume aspetti più complicati quando l’argomentazione di Frowe rimanda a un’azione morale diversa da quella della teoria utilitarista. Per esempio, un’auto a guida autonoma potrebbe avere quattro occupanti, o magari due bambini nel sedile posteriore. Come cambia il calcolo morale?

Se i passeggeri sono tutti adulti, Frowe ritiene che siano loro a dover morire per evitare lo scontro anche con il pedone, perché gli adulti hanno scelto di salire nell’auto e quindi ne hanno la responsabilità morale.

Anche se Frowe ritiene che i bambini non siano moralmente responsabili, sostiene che non è ammissibile dal punto di vista etico uccidere una persona per salvare due bambini. “Più è alto il numero di bambini, più diventa facile giustificare il fatto che ne venga ucciso anche uno solo. Ma nei casi in cui ci siano solamente adulti sul veicolo, potrebbe essere necessario doverne salvare un bel po’ – più di dieci, magari tutti quelli che ci stanno in un autobus – per rendere moralmente accettabile l’uccisione anche di una sola persona”.

Meglio non far nulla

Non invidiamo i poveri progettisti del software (e anche i legali) impegnati a venirne a capo, dato che le cose possono diventare ben più intricate. E se un pedone fosse sbadato, o addirittura fosse spuntato davanti all’automobile con la precisa intenzione di farla sterzare e uccidere l’occupante? Visto che le auto senza conducente non sono in grado di valutare le intenzioni dei pedoni, questo risvolto morale è davvero molto difficile da prendere in considerazione.

I filosofi sono lontani da una soluzione, nonostante i fiumi di carta in cui hanno sviscerato ogni minimo dettaglio etico. Per esempio, è più immorale puntare l’auto contro un pedone isolato, oppure non fare proprio niente e lasciare che la vettura investa qualcuno? Il professore Warren Quinn, che insegnava alla University of California, ha respinto l’idea utilitarista secondo la quale la moralità deve massimizzare la felicità, per sostenere invece che gli esseri umani hanno il dovere di rispettare le altre persone. Dunque dal punto di vista etico un’azione che arreca danni in maniera diretta e deliberata è peggiore di una indiretta che li provochi in maniera casuale.

Ovviamente, capiterà molto di rado una situazione in cui le auto senza conducente si trovino a dover scegliere tra due sole linee di condotta e siano in grado di calcolare, con un grado di certezza pari al 100 per cento, che entrambe portino alla morte. Però quando tra un po’ di tempo ci saranno abbastanza auto senza conducente sulla strada, non è del tutto assurdo che i programmi di guida dovranno scegliere se ferire un pedone o un passeggero. Qualsiasi auto senza conducente sicura dovrebbe essere in grado di riconoscere e valutare questi casi.

I produttori di auto autonome devono ancora rendere noto il loro punto di vista sulla faccenda. Però, data la mancanza di unanimità anche al livello filosofico, pare improbabile che riescano a trovare una soluzione che accontenti tutti.

(Traduzione di Alessandro de Lachenal)

Questo articolo è stato pubblicato per la prima volta su Quartz. Clicca qui per vedere l’originale. © 2015. Tutti i diritti riservati. Distribuito da Tribune Content Agency

This article was originally published in Quartz. Click here to view the original. © 2015. All rights reserved. Distributed by Tribune Content Agency

pubblicità

Articolo successivo

La guerra in Yemen dopo il caso Khashoggi
Pierre Haski