uber incidente guida autonoma

Uber – incidente mortale con auto a guida autonoma

Un giorno arriveremo a fare anche breaking news, nel frattempo ci limitiamo ad un’analisi sull’incidente fatale a Tempe, in Arizona, dove un veicolo Uber a guida autonoma si è scontrato con un pedone nella notte tra il 18 e il 19 marzo 2018.

Il luogo dell’incidente, a Tempe (un sobborgo di Phoenix), è all’incrocio tra una strada, la Northbound Mill Avenue, che ha una svolta a destra in corrispondenza di una pista ciclabile. L’incidente è avvenuto a meno di 100 metri da un attraversamento pedonale.

L’auto in questione è una Volvo XC90, equipaggiata con un dispositivo messo a punto dal fornitore di componenti Velodyne Lidar Inc. e utilizzato da Uber per la visione del veicolo durante la marcia a guida autonoma. L’Arizona è uno stato da anni molto gettonato, al pari della California (che però è molto più restrittiva sul concedere licenze su questo tipo di sperimentazioni) per via del clima secco e del bel tempo durante l’anno, l’ideale per condurre dei test sulla guida autonoma senza l’interferenza continua di agenti atmosferici.

uber incidente guida autonoma

Secondo il rapporto di polizia iniziale (scritti prima di esaminare i dati dei video dell’auto) la 49 enne Elaine Herzberg stava spingendo a mano una bicicletta ed era appena scesa dal marciapiede che divide la strada dalla pista ciclabile quando è stata investita; il SUV viaggiava a 38 mph (circa 60 km/h) in direzione nord e non ha fatto alcun tentativo di frenare, né da parte del conducente (per questo genere di test viene definito safety driver) né del sistema di guida autonoma.

“L’autista ha detto che è stato come un lampo, la persona è uscita davanti a lui”, ha spiegato il capo della polizia Tempe Sylvia Moir. “Il primo allarme per la collisione è stato appunto il rumore della collisione ormai avvenuta, poiché il sistema non ha emesso alcun avviso.”

Mercoledì sera (21/03/18), il dipartimento di polizia di Tempe ha pubblicato un video (preferiamo non fornirvelo, dato che le immagini sono piuttosto forti per soggetti sensibili, ci limitiamo ad estrarne alcuni fotogrammi) che documenta gli istanti dell’incidente, sia dal punto di vista del conducente che all’interno del veicolo: l’autista di Uber, Rafaela Vasquez, 44 anni, nei momenti prima dell’incidente, chiaramente sta guardando un dispositivo mobile, probabilmente uno smartphone (eh… date un’occhiata al nostro articolo in cui parliamo di sicurezza alla guida). Basandosi sul video, molti esponenti della stampa hanno fornito l’opinione che non avrebbe potuto evitare il pedone per il troppo poco tempo di reazione, ma sono comunque immagini registrate da una fotocamera a bassa risoluzione, perciò fornisce una visuale molto minore e buia rispetto all’occhio umano. La strada infatti era ben illuminata da lampioni e dai fari della XC90 (allo xeno).

uber incidente guida autonoma

Un altro aspetto è stata l’opinione pubblica. Molti sono d’accordo con Sylvia Moir, il capo della polizia di Tempe, secondo cui l’incidente è inevitabile, mentre altri accusano Uber di omicidio stradale. La vittima, Elaine Herzberg, attraversa direttamente il percorso della Volvo XC90 in arrivo ed è visibile per un attimo (circa due secondi) prima dello scontro, ma il sistema Lidar del veicolo avrebbe dovuto vederla prima.

E’ vero che la donna indossava un vestito scuro, che in condizioni di scarsa luce rappresentano solo un problema, ma la tecnologia di guida autonoma ha anche delle telecamere funzionanti nel campo infrarosso; la radiazione infrarossa viene comunque sempre emessa da tutti i corpi, ed aumenta in proporzione alla temperatura; un corpo umano, rispetto ad un ambiente a temperatura notturna, è chiaramente visibile scandagliando la radiazione infrarossa.

L’hardware avrebbe dovuto infatti vedere la donna persino nel buio pesto. Herzberg era già in strada, avendo attraversato almeno una corsia prima dell’impatto, ma l’auto a guida autonoma ha completamente fallito – o perché l’hardware non è riuscito a riconoscere la donna o il software semplicemente non l’ha riconosciuta.

Altro punto sarebbe stato l’intervento di frenata, che non si è verificato. L’auto procedeva a circa 60 km/h, e considerando una decelerazione di emergenza poco sotto 1 g (circa 9.81 m/s2), cioè limite massimo di prestazione di un freno in buone condizioni, avrebbe dovuto fermarsi in circa 2 secondi scarsi, percorrendo 15-18 metri ( la decelerazione , e quindi lo spazio di frenata, naturalmente variano in funzione delle condizioni del manto stradale, di pneumatici e freni – che supponiamo essere in perfetto stato, dato che stiamo parlando di una delle auto più sicure al mondo e scelta per test a guida autonoma – e delle condizioni atmosferiche). Più o meno il tempo trascorso da quando la donna risulta visibile a quando viene investita. Un po’ poco, e considerando che il sistema deve riconoscere il pedone, ed inviare il segnale di emergenza ai freni, anche con 1-2 decimi di secondo l’urto sarebbe stato difficilmente evitabile (inutile fare affidamento sulla prontezza umana, un guidatore medio e attento alla strada avrebbe reagito in circa un secondo, i migliori piloti non arrivano sotto i 3 decimi).

uber incidente guida autonoma

Sulla base delle informazioni raccolte nella causa Uber-Waymo, Uber ha utilizzato principalmente componenti standard di Velodyne per tutto il 2017, e la maggior parte dei veicoli Volvo XC90 usati dall’azienda sono dotati del sensore Lidar HDL-64E che ha un raggio di azione (o meglio, di scansione) di circa 120 metri. Non è noto sapere per ora se quello fosse il modello specifico utilizzato sul veicolo coinvolto nell’incidente.

Poiché come ogni incidente (figurarsi qui, che ci è scappato il morto), se più aziende sono tirate in ballo, è prassi comune il difendersi anche contor il proprio partner. Il fornitore di componenti Velodyne Lidar Inc. si è infatti dissociato dalle dichiarazioni di Uber Technologies in seguito al rilascio del filmato dell’incidente.

uber incidente guida autonoma

Velodyne, che fornisce apparecchiature di rilevamento autonomo a molte delle aziende automobilistiche e tecnologiche del mondo (incluso Uber), sta attualmente collaborando con gli investigatori federali.

“Siamo sconcertati come chiunque altro”, ha scritto Marta Thoma Hall, presidente di Velodyne, in una e-mail a Bloomberg. “Certamente, il nostro Lidar è in grado di raffigurare chiaramente Elaine e la sua bicicletta in questa situazione. Tuttavia, il nostro Lidar non prende la decisione di premere i freni o di scartare l’ostacolo. ” (e di qui un reimpallo di responsabilità).

Velodyne afferma che la responsabilità di garantire il funzionamento del sistema di guida autonoma del veicolo dipende esclusivamente da Uber Technologies. Finora, Uber non ha replicato alle affermazioni ma ha in ogni caso bloccato i test autonomi. Il dirigente di Velodyne ha inoltre aggiunto che il loro sistema Lidar è totalmente efficace, indipendentemente dall’illuminazione esterna (infatti le telecamere di scansione si basano anche sugli infrarossi, oltre che la luce visibile, come già detto prima).

“Oltre a Lidar, i sistemi autonomi hanno in genere diversi sensori, tra cui telecamera e radar per prendere decisioni”, ha spiegato Thoma Hall. “Non sappiamo quali sensori si trovavano sull’auto coinvolta nell’incidente, se stavano lavorando, o come venivano usati da Uber.”

“Noi di Velodyne siamo molto tristi e ci scusiamo per il recente incidente automobilistico di Uber che ha avuto una vita”, ha detto. “David Hall, CEO di Uber, ritiene che l’incidente non sia stato causato da Lidar. Il problema sta altrove. “

Non si sono fatte attendere opinioni da aziende produttrici di tecnologie concorrenti: secondo il prof. Amnon Shashua, CEO di Mobileye, la divisione Intel sviluppatrice di soluzioni per le auto a guida autonoma (tanto per capirci, fornisce il radar di cui sono equipaggiate le Tesla, e finito nel 2017 nell’occhio del ciclone per via di un incidente mortale a bordo di un’auto della casa di Elon Musk), ha pubblicato un’analisi dell’incidente, su cui emerge il pensiero che “c’è soprattutto un problema di percezione da parte dei media e dei comuni guidatori sulle reali difficoltà tecniche di realizzare un’auto a guida autonoma assolutamente sicura”. Difficoltà note a chi sviluppa tali tecnologie ma un grosso problema da far comprendere alla gente comune, all’opinione pubblica come già detto.

uber incidente guida autonoma

Secondo Shashua, il problema vero non è raccogliere i dati attraverso i sensori, ma analizzarli efficacemente producendo un feedback significativo, e quindi mettere a punto un sistema efficace di riconoscimento degli oggetti. Secondo Shashua c’è un eccesso di fiducia (inteso da parte di chi guida, il safety driver nel nostro caso che come visto, era distratto) nelle capacità reazione di un’intelligenza artificiale.

Per dimostrarlo ha analizzato il  filmato pubblicato dalla polizia con il software Intel di analisi ADAS: forse per via del dover analizzare il video di un altro video attraverso uno schermo, il software è riuscito a individuare l’ostacolo da evitare un secondo prima dell’impatto (quindi troppo poco per evitarlo, dati i calcoli riportati sopra).

Il pensiero del CEO di Mobileye si chiude sulla ridondanza degli apparati di sicurezza: “Una vera ridondanza del sistema di percezione deve poter contare su fonti d’informazione indipendenti: fotocamera, radar e Lidar. Fonderne insieme i dati è vantaggioso per il comfort di guida, ma è un male per la sicurezza”. I dati raccolti dai sensori devono essere considerati complementari, raccolti e analizzati indipendentemente e poi incrociati per ottenere valutazioni dei pericoli più precise, come l’incastrare i pezzi di un domino; troppi dati richiedono troppi calcoli e quindi un aumento dei tempi di reazione. Mi viene in mente la Infiniti Q50, che ai più potrebbe non dire nulla, ma che ha un piantone dello sterzo con una frizione che scollega il volante dalle ruote durante la marcia, per farle sterzare esclusivamente grazie ad un motore elettrico; senza alimentazione e ad auto spenta e per una qualsiasi anomalia dell’elettronica, la frizione si richiude e diventa un collegamento meccanico, mentre nel funzionamento normale ci sono tre centraline che lavorano in parallelo e inviano al motore dello sterzo gli stessi dati: il sistema li confronta e, se sono tutti uguali, attua la sterzata richiesta, altrimenti scarta quelli troppo diversi. Un eccesso di ridondanza che, per ovvi motivi di sicurezza, gli ingegneri di Infiniti non potevano tralasciare (anche per questioni di omologazione), ma nel caso di Uber si hanno molti più dati da analizzare, motivo per cui la ridondanza (che implica per forza un confronto fra i calcoli) non sempre può essere considerata un vantaggio.

uber incidente guida autonoma

Dopo circa una settimana, il 27/03, il governatore dell’Arizona Doug Ducey ha comunicato ad Uber “il fallimento” degli esperimenti a guida autonoma e di fatto proibito su tutto il territorio la possibilità di eseguire altri test (sospensione che comunque Uber ha già effettuato in autonomia su tutto il territorio degli Stati Uniti).

“Nel miglior interesse delle persone del mio stato, ho dato mandato al Dipartimento dei Trasporti di sospendere la licenza di Uber per i test e le operazioni con i veicoli autonomi sulle strade pubbliche dell’Arizona”. Sicuramente molto deve aver pesato l’opinione pubblica, dato che il governatore dell’Arizona aveva sempre concesso licenze di sperimentazione elogiandone i vantaggi che tale tecnologia avrebbe comportato sulla vita civile. A seguire anche Nvidia, fornitore dei processori installati a bordo dell’auto a guida autonoma, ha dichiarato di aver sospeso a tempo indeterminato i propri test.

Ultima cosa in ordine di tempo (30/03/2018), Uber  ha raggiunto un accordo per il risarcimento con la figlia della vittima. Non si andrà quindi a processo per l’incidente che è costato la vita alla 49enne, anche se i termini dell’accordo non sono stati rivelati. Cristina Perez Hesano, rappresentante legale della donna investita, ha però confermato che “il contenzioso è stato risolto“; nè Uber nè lo studio legale che ha seguito la vicenda rilasceranno commenti sul caso nelle settimane a venire.

Cosa che non si poteva in ogni caso evitare, anche se l’incidente fosse stato più lieve, è l’aver sollevato dubbi sulla sicurezza della tecnologia di guida autonoma e sulla responsabilità delle aziende nel garantire la loro efficacia, considerando che i test si svolgono su strada aperta.

Negli ultimi 5 anni, molte case automobilistiche e di tecnologia informatica si sono buttate a capofitto sull’immenso business che ha generato la guida autonoma, con il risultato di buona fetta dell’opinione comune che ne ha demonizzato immediatamente (o almeno pesantemente contestato) le tecnologie, il futuro dell’automobile, immaginando un futuro distopico in cui la guida manuale è illegale, le aziende si pubblicizzano all’infinito, tutti possono conoscere i nostri spostamenti  e spiarci (cari George Orwell e Ray Bradbury, ci avete terrorizzati con l’idea di futuro tecnologico, dobbiamo ammetterlo) e gli hacker possono assumere il controllo totale del proprio veicolo (su questo punto non è che siano poi così fantasiosi, ma basterebbe mantenere un pulsante fisico ed accessibile al pilota – e passeggeri – per disattivare la guida autonoma ed eventualmente scollegare la connessione dati col sistema di guida per risolvere la questione).

uber incidente guida autonoma

La questione di affidare le decisioni di guida ad un’intelligenza artificiale non è mai stata esente da critiche, nemmeno prima che i test su guida assistita ed autonoma iniziassero, e sono man mano esplosi quando si è verificato il primo incidente serio (nel caso della Tesla occorso nel maggio 2016) fino ad arrivare ad oggi, con il caso Uber, sebbene l’azienda fosse già stata pesantemente contestata in passato (nella foto in alto, una Volvo XC90 ribaltatasi dopo una manovra errata del safety driver; questo non ha evitato polemiche sugli esperimenti che fino all’incidente del 19 marzo si tenevano su strade aperte).

Non si placheranno di sicuro, sebbene molti incidenti di auto a guida assistita e autonoma si verifichino per imprudenze del guidatore: ultimo esempio in ordine di tempo, il 23 marzo 2018  una Tesla Model X  si è scagliata contro uno spartitraffico a Mountain View, prendendo fuoco e uccidendo Wei Huang, 38 anni, un ingegnere della Apple, che aveva attivato il sistema di guida autonoma; il conducente, però, non aveva le mani sul volante (dal primo incidente mortale del 2016 la tecnologia Autopilot obbliga il conducente a reggere saldamente il volante) e secondo la ricostruzione di Tesla «aveva ricevuto diversi segnali e un avvertimento audio; ha avuto circa 5 secondi e 150 metri per attenuare l’impatto prendendo il controllo del veicolo».

Di sicuro, l’affare guida autonoma, che per ogni singola azienda potrà significare nel medio periodo, ricavi di miliardi di euro, ha spinto a correre all’impazzata per offrire i propri prodotti come i migliori sul mercato, i più performanti, i più accessibili, tralasciando alcune volte il discorso sicurezza, che deve in ogni caso essere il pilastro principale.

Vuol dire che dovremo rinunciare alla guida autonoma, e limitarci ad esempio a quella assistita e lasciare il pieno potere di decisione al guidatore? Nemmeno per sogno, i veicoli autonomi possono ancora essere la migliore difesa contro la guida ubriaca o pericolosa.

Anzi la guida autonoma sarà un incentivo alla sicurezza ad esempio nella marcia in colonna o in autostrada, con veicoli connessi in fila che gestiranno in automatico distanze di sicurezza, traiettorie e capacità di muoversi in relazione agli altri veicoli (sì, se una tecnologia è dotata di potenza, sensori e software sufficienti per gestire una mole immensa di dati, nella quasi totalità delle situazioni sarà sempre migliore e più sicura di un essere umano). Sicuramente il governatore dell’Arizona ha creato un lato positivo, con il veto di sperimentazione sulle strade dello stato: non il dare ascolto soltanto all’opinione pubblica (perché se ci si basasse solo su quella, alcuni aspetti tipo l’uso delle cinture di sicurezza e gli airbag non sarebbero mai arrivati allo stato attuale, passate da questi articoli (1),(2) e (3) così capite di cosa sto parlando) e non il fatto di aver precluso una tecnologia irresponsabile: darà uno stimolo in più alle case automobilistiche e all’indotto di produrre sistemi molto più incentrati sulla sicurezza ad ogni costo, e farà da monito perché chi non si adeguerà a questa sensibilizzazione si vedrà precludere mercato di vendita e terreno di sperimentazione.

E qui arriviamo al punto limite, il più importante della guida autonoma: se avete letto alcuni miei articoli, troverete che sono un poco all’antica, soprattutto a prendere citazioni, spunti e metterli nei miei pensieri. Nei primi anni ’40, uno scrittore che di lì a poco sarebbe diventato uno dei padri della fantascienza, Isaac Asimov, tra la guerra, un dottorato in chimica e un matrimonio, concepì non solo un’appassionante saga di racconti sui robot, ma definì con una lungimiranza che potrebbe avere dell’impensabile (con un QI di 160, non così impensabile, a dir la verità) le tre leggi della robotica (poi diventate quattro) che vi riporto:

0. Un robot non può recare danno all’umanità, né può permettere che, a causa del proprio mancato intervento, l’umanità riceva danno.

  1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno. Purché questo non contrasti con la Legge Zero
  2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Legge Zero e alla Prima Legge.
  3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Legge Zero, la Prima Legge e la Seconda Legge.

Perchè questo sproloquio? Perchè nel momento in cui un’auto a guida autonoma si troverà a fronteggiare una situazione limite, in cui dovrà salvare una persona piuttosto che un’altra, dovrà essere programmato per scegliere la situazione che arrecherà globalmente (umanità) meno danno. Se devo evitare un pedone e lo posso fare solo con uno scarto (perchè non c’è abbastanza spazio per frenare, e so che se lo investo morirà), ma lo scarto avverrà ad una velocità tale che l’auto si ribalterà ferendo seriamente gli occupanti, dovrà decidere o l’una o l’altra. E’ quello che viene definito “moral machine”, forse la cosa che più preoccupa chi programma un computer per eseguire ordini, un’etica inserita nell’intelligenza artificiale per farle prendere una decisione piuttosto che un’altra. Sembra ridicolo, o addirittura scandaloso (credetemi, lo pensano in molti) che un’auto abbia capacità di decidere, però è da considerare che sarà in ogni caso programmata per viaggiare in modo molto più rigoroso e attento di un essere umano (se ad esempio non si supera mai il limite di velocità, cosa che molti di noi quotidianamente fanno, i pericoli diminuiscono di un fattore considerevole), e che comunque l’uomo non è meglio, perché non ha la lucidità di ragionare a freddo e razionalmente come un computer durante una situazione di emergenza; in questi casi, notatelo, saremo tutti portati per via del panico a compiere azioni d’istinto, conservative per noi stessi ma quasi mai per gli altri, dato che il nostro istinto mette la sopravvivenza al primo posto (un richiamo ancestrale di cui una macchina non sentirà mai l’effetto, se adeguatamente programmata).

Chiudo con due punti: per le dinamiche esatte dell’incidente, e quindi la sua responsabilità, bisognerà attendere il verdetto di chi sta investigando in questo momento; la seconda questione sarà, una volta assimilato che la tecnologia della guida autonoma non può essere infallibile (e che come detto, nelle situazioni limite dovrà essere programmata per decidere), dato che di incidenti ne sono successi e probabilmente altri ne accadranno, far prendere coscienza comune alle persone che un aiuto o un sostituto alla guida può essere solo un aumento della sicurezza, da qualsiasi lato lo si voglia vedere.

Matteo

[Foto: Uber, Autoblog.com, ilfattoquotidiano.com, Velodyne]

uber incidente guida autonoma