Secondo la commissione d’indagine, l’azienda avrebbe privilegiato la tecnologia a scapito della sicurezza.
Nel marzo 2018 un veicolo autonomo di Uber ebbe un incidente a Tempe, in Arizona: travolse e uccise una donna che stava attraversando la strada accompagnando a piedi la bicicletta.
Il caso scatenò immediatamente comprensibili polemiche circa la sicurezza delle auto a guida automatica, un settore che tuttora è in crescita e ancora è lungi dal raggiungere la perfezione, e naturalmente anche un’indagine da parte della NTSB. l’agenzia federale che ha il compito di indagare sugli incidenti.
Ora quelle indagini sono giunte al termine e la commissione della NTSB ha indicato all’unanimità il colpevole: Uber, che non avrebbe messo in atto tutte le misure che sarebbero state necessarie per proteggere la sicurezza degli altri utenti della strada.
«La collisione è stata l’ultimo anello di una lunga catena di azioni e decisioni prese da un’organizzazione che sfortunatamente non ha fatto della sicurezza la propria priorità principale» ha commentato il presidente della NTSB, Robert Sumwalt, il quale ha peraltro lodato la collaborazione ottenuta da Uber durante l’intera indagine.
In particolare, sotto accusa è finita la disattenzione da parte del guidatore umano, che avrebbe dovuto essere sempre attento e vigile in modo da prendere il controllo proprio in caso di decisioni errate da parte dell’intelligenza artificiale.
La commissione ha spiegato che, in base alle indagini, la guidatrice non stava prestando sufficiente attenzione all’ambiente circostante «perché durante il viaggio era visivamente distratta dal proprio cellulare personale»; pertanto, pur trovandosi dietro al volante, non ha agito prontamente.
Già lo scorso marzo la Procura dello Stato dell’Arizona ha deciso che Uber non era responsabile penalmente per quanto accaduto. La polizia invece, secondo la quale l’incidente sarebbe stato «del tutto evitabile», sta ancora conducendo le indagini e potrebbe usare le conclusioni della commissione per sostenere le accuse contro la donna alla guida, la quale «stava guardando il programma The Voice» sullo smartphone, secondo quanto dichiarato dalla polizia stessa.
La NTSB ha comunque deciso di non assegnare l’intera responsabilità all’elemento umano in quanto, in base alle indagini, buona parte della colpa resterebbe comunque a Uber, che avrebbe preso delle decisioni discutibili durante lo sviluppo del software dell’auto.
Innanzitutto, la IA non avrebbe riconosciuto la donna investita come pedone (forse a causa della bicicletta); inoltre non avrebbe valutato correttamente il rischio e non sarebbe intervenuta per evitare la «noncuranza» dell’operatrice, che a quanto pare si affidava completamente al sistema automatico.
A peggiorare il quadro c’è poi la disattivazione del sistema di frenata d’emergenza di cui è equipaggiato il modello Volvo XC90, protagonista dell’incidente; test successivi condotti da Volvo con la stessa auto e uno scenario analogo hanno mostrato che in 17 casi su 20, se la frenata d’emergenza fosse stata attiva, la collisione sarebbe stata evitata.
L’indagine si conclude quindi con una raccomandazione sentita da parte della NTSB: l’istituzione di regole più rigide per il test dei veicoli autonomi e la diffusione della consapevolezza, presso il grande pubblico, del fatto che «tutti i veicoli oggi sulla strada hanno bisogno di un operatore sempre all’erta».
«Secondo me» – ha concluso Jennnifer Homendy, membro della commissione – «hanno dato priorità all’avanzamento tecnologico anziché alla protezione delle vite».