L’incidente fatale di Uber in Arizona: causato da un “talent show” o dalla “zona grigia”?

La polizia dell’Arizona incolpa soprattutto la distrazione del supervisore del robo-taxi di Uber: eppure le conclusioni non sono rassicuranti per il futuro

L’agenzia Reuters ha riferito i risultati delle prime indagini della polizia dell’Arizona sull’incidente che è costato la vita ad un pedone investito da un veicolo sperimentale a guida autonoma, nel corso dei test che fino a quel giorno di marzo Uber stava conducendo a Tempe.

Gli sviluppi della vicenda sembrano alleggerire a prima vista le responsabilità della società americana del ride-hailing. A ben guardare, però aggiungono benzina sul fuoco al latente conflitto che è in corso dove computer e guidatori si alternano nel controllo dell’auto, con conseguenze difficilmente prevedibili.

Le autorità hanno infatti asserito di aver trovato prove che il supervisore a bordo della Volvo XC90 utilizzata da Uber fosse distratto: guardava un programma televisivo sul proprio smartphone.

Il dipartimento di polizia di Tempe ha pertanto descritto nel suo rapporto di 318 pagine l’incidente che è costato la vita a Elaine Herzberg con l’espressione “assolutamente evitabile”.

Questo perché Rafaela Vasquez, che era a bordo del veicolo-test di Uber in qualità di safety driver, pare non essere stata né una garanzia di safety (sicurezza) né di attenta supervisione, dato che ha ripetutamente guardato in basso e non la strada (come si notava anche dal video diffuso poche ore dopo l’incidente che è costato la vita alla quarantanovenne vittima).

Secondo il rapporto del dipartimento della cittadina del Sudovest americano, la signora Vasquez potrebbe trovarsi a dover rispondere di omicidio colposo, dal momento che l’incidente avrebbe potuto essere evitato se chi era al volante avesse prestato la necessaria attenzione.

La polizia ha chiesto ed ottenuto alla fine del mese di maggio i dati di archivio da Hulu (un servizio streaming americano): i tabulati riportavano che la signora Vasquez al momento del sinistro si era collegata al talent show “The Voice” fino alle 9:59 della sera, quando si è verificato l’incidente.

Il veicolo-test di Uber era controllato dai computer di bordo al momento dell’incidente. Peraltro Uber, come altre società in lizza per realizzare robo-taxi che non hanno bisogno di autista (veicoli che finora solo Waymo utilizza su strada, proprio in Arizona ma in un’altra cittadina) pretende che chi siede dietro il volante intervenga se il sistema fallisce o al sopraggiungere di una situazione pericolosa.

In questo caso la situazione pericolosa in parte era dovuta al fatto che la vittima ha attraversato lontano dalle strisce pedonali spingendo una bicicletta carica di sacchetti e borse (la signora Herzberg non aveva fissa dimora).

In parte però la situazione è diventata pericolosa perché, come rilevato dall’agenzia federale NTSB, i sensori dell’auto di Uber hanno identificato l’ostacolo sei secondi prima dell’impatto, ma il veicolo non ha frenato né rallentato come avrebbe dovuto.

Sia aziende che sviluppano sistemi in concorrenza con Uber (come Mobileye/Intel) sia fornitori stessi di Uber (come Velodyne che produce i sensori laser più diffusi al mondo) hanno sottolineato come la rilevazione dell’ostacolo da parte dei sensori fosse adeguata a consentire un intervento.

Che il veicolo controllato dai computer di Uber abbia proseguito sulla sua strada come niente fosse sarebbe, secondo alcune fonti, attribuibile alla classificazione della persona che attraversava spingendo la bicicletta come un falso positivo: come se i sensori avessero rilevato qualcosa che non c’era.

Questo ed una casistica di altri possibili errori sono il motivo per cui le società che sviluppano i sistemi di controllo per la guida autonoma in passato avevano a bordo addirittura due supervisori destinati a vigilare, in taluni casi poi scesi a uno, come in Arizona.

Impegnata a guardare il suo streaming, la signora Vasquez ha alzato lo sguardo solo mezzo secondo prima della collisione, mentre la Volvo viaggiava a 44 miglia orarie (70 km/h) ed ha urtato la signora Herzberg senza frenare.

I rapporti della polizia e del National Transportation Safety Board confermano che al SUV Volvo coinvolto, come ad altri usati nei test, era stato disattivato il dispositivo di frenata di emergenza di serie, presumibilmente per evitare che interferisse coi propri sistemi.

L’incidente fatale di Uber a Tempe sembrerebbe così trovare un responsabile principale: uno in carne ed ossa. Un esito comodo per il colosso americano dei taxi privati, che ha peraltro già pagato un prezzo salato sulle prospettive di sviluppo dei suoi robo-taxi, tanto che si prospetta per la società di San Francisco la fine di questi programmi e la possibilità di una collaborazione con altri gruppi, come Waymo o forse Toyota.

Nell’incidente di Tempe l’alternativa tra controllo dei computer e controllo del supervisore è finita in dramma mostrando i limiti della guida semi-autonoma

Il caso di Tempe però non si esaurirà con un più attento e rigido monitoraggio dei test sulla guida autonoma in corso in tutto il mondo. Se Uber può tirare un mezzo sospiro di sollievo, questo incidente ci ricorda che la transizione tra controllo dei computer e controllo degli esseri umani è una zona grigia fonte di diatribe, nel migliore dei casi, e di drammi, nel peggiore.

Oggi come oggi nessuno può garantire che quello che è successo in un test, in cui il controllo del veicolo è stato una alternativa tra il lacunoso software messo in strada da Uber e la pessima supervisione di Rafaela Vazquez, non possa avvenire nel caso dell’impiego dei sistemi non in test su prototipi ma su auto vendute al pubblico e sulle strade aperte a tutti.

Se nel caso del test di Uber la transizione tra controllo dei computer ed umano era stabilita anche da un contratto di lavoro del supervisore, nel caso dei sistemi montati sulle auto in vendita al pubblico le cose cambiano, e la zona grigia della transizione tra controllo umano e dei computer può rivelarsi un terreno minato, sia per gli automobilisti, sia per le case auto.

Ancora nessuna casa ha attivato sistemi di Livello 3 SAE (ma già un’auto è stata commercializzata con l’hardware ed il software necessario: la nuova Audi A8), la controversa autonomia condizionata secondo la quale i computer di bordo possono controllare la guida salvo chiamare ad intervenire chi è al volante con un preavviso.

Attualmente quei dispositivi non sono autorizzati dalle norme in alcun paese, il che risparmierà eventuali problemi di attribuzione di responsabilità in caso di sinistri. A chi scrive il caso del mancato intervento del supervisore di Uber fa temere una moltiplicazione all’ennesima potenza delle controversie che stanno avviluppando Tesla ed i suoi clienti che hanno avuto problemi con l’Autopilot, malgrado si tratti di un dispositivo ancora non al Livello 3 SAE.

La casa californiana dopo gli incidenti verificatisi con l’Autopilot inserito, in queste settimane ha effettuato aggiornamenti che inviano segnali frequenti, anche molto frequenti, a chi non tiene le mani sul volante. Fino ad essere secondo alcuni così fastidiosi da cancellare l’incentivo di usare il sistema per alleggerire il compito di guidare.

Il problema, e non solo nel campo dell’auto ma perfino in quello aeronautico, sembra essere che i sistemi automatizzati man mano migliorano le proprie performance tendono a disincentivare le abilità.

In misura maggiore di quanto avvenuto finora, ad esempio, con l’ABS, che ha tolto l’incentivo ai guidatori a sapere modulare la frenata. Nel caso della guida, la disattenzione è un sotto-prodotto che ci si può attendere come inevitabile al migliorare dei cruise control adattivi e proporzionalmente col diffondersi dei sistemi di assistenza alla guida semi-autonomi.

I momenti della transizione da computer a essere umano in altre parole, l’avventurarsi nella zona grigia, saranno appuntamenti nei momenti peggiori e con guidatori sempre meno preparati ad affrontarli.

Non solo, ma l’incidente fatale di Uber a Tempe ha dimostrato che un sistema potrebbe sbagliare in pieno: quindi senza nemmeno prevedere il tempo di cedere il volante al cliente, per quanto preparato questi sia. Si tratta di un caso raro che è già capitato e potrebbe capitare ancora.

Il lato che mette a disagio è capire nel caso di  un’auto privata il cui controllo è affidato a computer, che cosa possa avvenire a chi siede dietro al volante, magari intento a sua volta a rispondere alle mail o a controllare le bollette.

Certo quella persona seduta al posto di guida, al contrario del pessimo supervisore dell’incidente fatale di Uber, non avrà firmato un contratto cogente che comporta un ruolo di intervento attivo proprio nei casi estremi.

Ma le controversie che stanno già nascendo attorno all’Autopilot, un sistema, lo ripetiamo, dalle capacità limitate rispetto a dispositivi semi-autonomi ancora più avanzati, non possono lasciare tranquilli.

Anche per la presenza di asimmetria profonda tra le informazioni a disposizione del futuro cliente e quella delle case auto e dei loro fornitori. Questi ultimi avranno tutti i dati di un sinistro a loro disposizione. Dati a cui invece hanno difficile accesso anche i dipartimenti di polizia americane ed i loro tribunali.

I futuri clienti delle auto semi-autonome con sistemi avanzati saranno proprio certi che i loro legali saranno più bravi ad accedere ai dati in caso di controversie rispetto ad un tribunale o un dipartimento di polizia americano?

Purtroppo, la mancanza di chiarezza e trasparenza nella zona grigia della guida semi-automatica nasce a monte. Ad oggi non c’è neppure consenso sulla validità della classificazione dei Livelli SAE della guida autonoma, che sono convenzionali e non fonte di regolazione. C’è chi li contesta sottolineando invece che quello che servirebbe sarebbe una chiara distinzione tra autonomous ed automated, coi primi ovviamente più complessi dei secondi.

Le case auto non aiutano, malgrado talvolta siano animate da ottime intenzioni: ci sono gruppi (in particolare Toyota e quelli francesi) che la tabella SAE la evitano accuratamente, utilizzando definizioni proprie. Poi c’è chi come il gruppo FCA ha fatto delle modifiche in proprio alla tabella SAE originale per aggiungere livelli intermedi come il Livello 2+.

Una confusione che non sembra destinata a essere dissipata tanto presto, visto che i player in campo nel settore si sentono autorizzati dai colossali investimenti che stanno facendo a usare ciascuno la propria road map.

Dove porterà tutto questo? La confusione probabilmente sarà fonte di altri problemi, che in qualche altro caso temiamo finirà per dare occasione di titoli da prima pagina, purtroppo.

Chi potrebbe uscire meglio dalle acque agitate che potrebbero pararsi davanti a chi lavora ai sistemi di guida automatica, potrebbe essere proprio chi sta scegliendo la strada senza compromessi: ovvero, per cominciare, chi sta sviluppando shuttle autonomi senza volante, senza pedali, che in qualche caso non hanno più nemmeno a bordo supervisori ma sono controllati da remoto, come droni, in caso di necessità.

Un comune cittadino può avere più remore a salire su un’auto con sistemi di guida automatica, sapendo che il produttore potrebbe scaricargli addosso la responsabilità nel momento peggiore. Ma questo problema non si pone per gli attuali shuttle di Navya, EasyMile, oppure per i robo-taxi di Waymo o ancora fra pochi anni per i Sedric Volkswagen e gli shuttle Toyota.

Con la massima chiarezza questi produttori (Waymo, Ford e Volvo sono tra i più espliciti nel rimarcare che la zona grigia del Livello 3 SAE comporta troppi rischi) senza se e senza ma si prendono e si prenderanno la responsabilità di quanto possa succedere mentre i loro shuttle, veicoli magari poco pretenziosi e in taluni casi dalla bassa velocità media, circoleranno sulle strade aperte al pubblico.

In altri termini siamo convinti, forse ottimisticamente, che da un punto di vista del cittadino-consumatore il rapporto ed i ruoli saranno molto più chiari e trasparenti con gli autentici veicoli autonomous, rispetto a quelli con caratteristiche automated, come sono oggi quelli dotati di cruise control adattivi avanzati.


Credito foto di apertura: ufficio stampa NTSB