Le auto a guida autonoma davanti ai dilemmi etici. Con il Moral Machine, la preferenza è la tua

Immaginate un carrello che si dirige instabile verso cinque operai posizionati sui binari. Le loro vite possono essere salvate da una leva che dirotta il pericolo su una linea diversa, dove però vi è un altro operaio. Chi salveresti: il singolo o il gruppo di persone?

 

Questo problema etico esposto negli anni ’60, noto come “il dilemma del carrello”, è tornato improvvisamente in auge con l’avvento delle auto a guida autonoma, aprendo la questione del comportamento di un veicolo in situazioni impreviste. La maggior parte delle persone ritiene che sacrificare un uomo per salvarne un gruppo più numeroso sia la scelta migliore, secondo un principio di male minore, ma questa prospettiva si complica nel momento in cui uno dei soggetti coinvolti siamo noi stessi. Se improvvisamente un pedone, un bambino magari, ci si para davanti, senza che la macchina abbia la possibilità di frenare in tempo e sterzando rischiasse di mettere a repentaglio la nostra sicurezza, quale sarebbe il comportamento corretto da adottare? 

Gli esseri umani alle prese con la guida in situazioni di questo tipo valutano il da farsi caso per caso, reagendo d’istinto, senza porsi un reale quesito morale sul proprio agire, frenando e sterzando per evitare un ostacolo spesso a proprio danno. 

Si ipotizza che l’introduzione di macchine a guida autonoma porterebbe a una riduzione del 90% degli incidenti automobilistici, grazie all’eliminazione proprio del fattore umano. Per il restante 10% non esiste ancora una cornice legale che ne legittimi l’uso. Bisogna risolvere alcune domande a livello etico, prima ancora che a livello giuridico, così da immettere sul mercato le auto comandate dall’AI. 

Per approfondire il dilemma tre studiosi, Lyad Rahwan del MIT, Jean-Francois Bonnefon della Toulouse School of Economics, e Azim Shariff della University of California, hanno deciso di dare il via a un sondaggio per stabilire quali siano le priorità della popolazione mondiale. Il test chiamato Moral Machine, al quale è possibile parteciparvi sul sito moralmachine.mit.edu, garantisce a chiunque lo desideri di descrivere come vorrebbe fosse programmato il cervello elettronico di un’automobile e come sarebbe opportuno che si comportasse in situazioni estreme. 

Al termine del quiz è possibile confrontare le proprie scelte con quelle prese dagli altri utenti che hanno partecipato, circa 2 milioni di persone, delineando così una fotografia accurata sulle opzioni etiche della nostra società contemporanea. “Questo ci permette di capire come la moralità venga vissuta diversamente nei vari paesi del mondo”, ha spiegato lo sviluppatore Lyad Rahwan, “facendo emergere anche significative differenze regionali legate alle culture di appartenenza”. I tre studiosi hanno potuto identificare tramite questa piattaforma tre blocchi regionali caratterizzati da una differenza di priorità.

Un problema non banale quindi, che con la crescita del mercato apre diverse prospettive ma soprattutto pone in modo chiaro come, almeno in un prossimo futuro, una garanzia del 100% sulla sicurezza stradale non possa essere garantita. Di fronte a questa incertezza, ognuno agisce come ritiene, arrivando in alcuni casi a situazioni paradossali come l’impossibilità per un guidatore USA di oltrepassare il confine fra uno stato e l’altro, dove non sono ancora in vigore leggi sul tema. La Germania, primo paese al mondo ad aver stilato delle linee guida etiche per le auto autonome, ha scelto di basarsi su un principio solo, la priorità va sempre data alle vite umane rispetto ad animali e oggetti e l’uomo deve sempre avere il potere di sottrarre il comando alla macchina. 

L’altra voce da tenere in considerazione è quella delle Case produttrici, che parrebbero orientate sulla massimizzazione della sicurezza dei passeggeri, come dichiarato da Mercedez rispetto ai propri veicoli, questo potrebbe tradursi in un aumento del rischio per pedoni, ciclisti e altri utenti della strada. 

 

Print Friendly, PDF & Email