martedì 25 ottobre 2016

Auto a guida autonoma: chi investire, chi salvare? Il Mit di Boston mette a punto la “Moral Machine”

La Stampa
omar abu eideh (nexta)

Salvare i più giovani, chi passa col verde, il gruppo più numeroso? A quale vita deve dare più valore l’auto del futuro in caso di incidente inevitabile? On line i test per stabilire il “codice etico”



Se inevitabile, meglio investire tre anziani o due giovani? Sacrificare gente grassa (più soggetta a malattie cardiovascolari) o atletica? Salvare gli occupanti dell’abitacolo o i pedoni? Queste sono solo alcune delle domande a cui in futuro potrebbero essere chiamati a rispondere, in frazioni di secondo, i sistemi di guida autonoma per auto. E più il traguardo dell’autonomous driving si avvicina, più i dilemmi etici sul tema si fanno concreti.

Per questo il MIT, il Massachusetts Institute of Technology (una delle più importanti università di ricerca del mondo, con sede a Cambridge, vicino a Boston, Usa) ha messo a punto la “Moral Machine”, una piattaforma on line che permette a chiunque lo desideri di descrivere come vorrebbe fosse programmato il cervello elettronico di un’automobile e come sarebbe opportuno si comportasse in situazioni di guida estreme.

Al termine del quiz – che tiene di fattori come il numero di vite in gioco, distinguendole fra passeggeri e pedoni, l’età delle persone e del codice della strada – è inoltre possibile confrontare le proprie “scelte sacrificali” con la media di quelle formulate da altri utenti. Questi ultimi possono inoltre suggerire altre situazioni limite per il miglioramento del sistema.

Lo scopo di questa piattaforma, spiega Iyad Rahwan, professore associato e co-sviluppatore della Moral Machine è “portare avanti la nostra conoscenza scientifica su cosa pensa la gente della moralità delle macchine. Per esempio, le persone tendono a favorire i passeggeri di un’auto o i pedoni? E questi ultimi vengono penalizzati se attraversano quando per loro è rosso?”



“Gli esseri umani in un momento di panico sono raramente capaci di prendere decisioni morali, come se sia meglio uccidere una persona piuttosto che un’altra in una determinata situazione di guida”, suggerisce Michael Ramsey, analista della Gartner, multinazionale della consulenza strategica: “Semplicemente cercano di evitare di uccidere qualcuno o qualcosa”, continua Ramsey , “lo scenario più probabile è che la macchina del futuro sarà programmata semplicemente per evitare una collisione, senza scegliere chi salvare”.

Mentre Jeffrey Miller, professore associato di ingegneria all’Università Southern California, sostiene che “non è su chi vive e chi muore la vera questione morale a cui i costruttori devono rispondere quando programmano un’auto a guida autonoma”. Ci sono prima altri problemi come ad esempio “se valga la pena di infrangere la legge per preservare la sicurezza”, mantenere una velocità adeguata al traffico pure in caso di emergenza o bruciare un semaforo rosso. Situazioni che capitano spesso ai guidatori in carne ed ossa.

Senza contare che per Miller i veicoli a guida autonoma “non dovrebbero marciare così velocemente, specie in città, da essere chiamati a rispondere a questo tipo di scenari. Anche perché questa tecnologia non sarà in grado di distinguere fra una donna incinta o un anziano ancora per molti anni”.
Nel frattempo i dati raccolti dalla Moral Machine (già hanno partecipato al test 2 milioni di persone da tutto il mondo) serviranno per “creare una fotografia di quello che la società ritiene essere il codice etico più opportuno”, spiega Rahwan, e di come la percezione di macchina morale potrebbe cambiare in base alla cultura dei differenti paesi. Tutto questo senza la presunzione di usare i dati rilevati per programmare le scelte delle auto del domani.