OPINIONI

Cape Canaveral e Delray Beach sono lontane anni luce, come Space X e Tesla

Per far viaggiare le auto sulle autostrade con la stessa sicurezza dei razzi, prendere scorciatoie con un lessico che ammette “funzionalità di guida autonoma completa” è un’idea che si rivela sempre peggiore

A distanza di poche ore dal lancio della capsula Crew Dragon da Cape Canaveral verso la stazione spaziale internazionale ISS, un’altra società di Elon Musk, Tesla, potrebbe aver in parte sciupato all’imprenditore sudafricano il gusto dello straordinario successo di Space X.

Sempre in Florida, ma a Delray Beach, un nuovo incidente ha una volta di più messo in dubbio la complessiva affidabilità degli attuali sistemi di guida semi-autonoma, e in particolar modo l’approccio alle vendite del dispositivo Autopilot da parte della casa di Palo Alto.

L’agenzia federale National Transportation Safety Board ha confermato di aver inviato venerdì un team di tre persone per collaborare con lo staff dell’ufficio dello sceriffo della Contea di Palm Beach nell’appurare i fatti dell’incidente, la cui dinamica ne ricorda un altro avvenuto nel 2016, anche quello in Florida.

Una Tesla, in quest’ultima circostanza una Model 3, si è infilata sotto un semi-rimorchio che girava a sinistra su una highway divisa (in America sono molti i tratti delle autostrade che hanno ancora attraversamenti a raso e quel tratto specifico è riconosciuto come pericoloso dai residenti).

Il guidatore, il cinquantenne Jeremy Beren Banner, ha perso la vita nell’auto a cui il pianale del camion ha portato via tetto e montanti. Uno degli aspetti più importanti dell’inchiesta sarà appurare se sulla Tesla coinvolta il dispositivo Autopilot fosse oppure no attivato, cosa che non è stata accertata al momento in cui scriviamo, e nel caso come questo sia intervenuto.

Nel rapporto sull’incidente del 2016 la NTSB aveva sottolineato i limiti di progettazione del sistema: in particolare come il dispositivo semi-autonomo Tesla non prevedesse un driver monitoring system, ritenuto sempre più indispensabile dalla maggioranza delle case auto nell’implementare sistemi di supporto avanzato alla guida dove si richieda una supervisione del comportamento di chi è seduto al volante.

La NTSB aveva inoltre raccomandato alle agenzie federali e statali che per aumentare la sicurezza del dispiegamento dei sistemi di guida semi-automatici l’uso fosse da circoscrivere a percorsi ben delimitati, con caratteristiche simili a quelli delle autostrade italiane o europee.

Ora l’indagine sull’incidente di Delray Beach andrà ad aggiungersi ad altri dossier che la NTSB ha già aperto: come un incidente mortale avvenuto ad un SUV Tesla a Mountain View, nel quale l’Autopilot era attivo ma il veicolo ha colpito una barriera. In altri due casi in cui l’Autopilot era in funzione, una volta a Los Angeles ed una a Salt Lake City, modelli Tesla hanno urtato veicoli di soccorso dei pompieri fermi sui bordi della carreggiata.

Il tempismo dell’incidente di Delray Beach è pessimo perché nel complesso delle novità annunciate da Tesla nel corso delle ore passate, dall’avvio della produzione della Model 3 da $35.000 ai tagli dei prezzi su tutti i modelli alla chiusura di tutti gli autosaloni di proprietà del marchio, c’era stata anche la re-introduzione della funzionalità Full Self Driving, che in Italia è pubblicizzata con la denominazione “funzionalità di guida autonoma completa.

In aggiunta alle funzionalità Autopilot (€3.500 in Italia noto come Pilota Automatico che include cruise control adattivo), Autosteer e cambio corsia con conferma, il pacchetto Fully Self Driving venduto a €5.700 include Navigate on Autopilot per i tratti autostradali, il parcheggio autonomo Autopark e la funzionalità Summon (richiamo della vettura comandata a distanza).

Per alcune funzionalità come le ultime due la disponibilità non coincide automaticamente col dare per scontato che siano compatibili con le norme dei codici della strada di molti paesi dove le Tesla sono in vendita. Ma soprattutto il lessico usato sia in versione inglese che in italiano è secondo moltissimi esperti (anche secondo noti addetti ai lavori della guida autonoma, come ha scoperto la CNN in questo articolo) decisamente fuorviante.

Da quando, nel 2016,  era apparsa la funzionalità Full Self Driving era stata criticata perché pubblicizzava una elevata capacità (denominata nel ranking della guida autonoma Livello SAE 4 o superiore) per un dispositivo che in realtà era ed è di Livello SAE 2.

Una capacità invece paragonabile a quella del Super Cruise in vendita come opzione sulle Cadillac CT6 che funziona solo su autostrade e superstrade americane mappate e solo fintanto che il conducente ha mani sullo sterzo ed occhi sulla strada (telecamere controllano l’attenzione di chi siede al volante).

Un sondaggio della compagnia assicurativa AAA ha riferito lo scorso anno che circa il 40% degli automobilisti americani ritenevano che sistemi con nomi come Autopilot, ProPilot oppure Pilot Assist, indichino dispositivi in grado di guidare il veicolo. Come si vede la questione del lessico e del messaggio che arriva alla clientela non è né un dettaglio, né è questione che riguardi la sola Tesla.

Tesla e altre case giocano sull’ambiguità dei nomi dei sistemi ADAS e semi-autonomi: se si vende un dispositivo con “funzionalità di guida autonoma completa” il pubblico può credere ed aspettarsi che sia tale

Tesla cerca di aggirare il problema pubblicando un chiarimento, disponibile anche sul sito italiano: “Le attuali funzioni Autopilot richiedono la supervisione attiva del conducente e non consentono la guida autonoma del veicolo. L’utilizzo futuro di queste funzioni senza alcuna supervisione dipende dal raggiungimento di un livello di affidabilità che va ben oltre il controllo di un conducente, e che sia dimostrato da migliaia e migliaia di chilometri di esperienza su strada, nonché dall’approvazione di apposite normative, il che in alcune giurisdizioni potrebbe richiedere un tempo piuttosto lungo“.

Intanto, come confermano test di AAA, in Europa di ENCAP, o quelli del consorzio assicurativo americano per la ricerca sulla sicurezza IIHS, i sistemi avanzati di assistenza alla guida fanno un lavoro sempre migliore in condizioni ideali, tanto che alcune aziende del settore hanno cominciato a parlare di commercializzare sistemi ADAS di Livello SAE 2+. Quasi a voler sottolineare come la guida semi-automatica sia sempre più affidabile.

Ma guidare, così come pilotare un aereo, con il passare del tempo diventa un compito sempre meno simile a quello che era nel XX° secolo, e si amplia sempre di più il problema noto già nel settore aeronautico della supervisione dei dispositivi e della transizione nel controllo. I miglioramenti nell’affidabilità dei sistemi anche fuori dagli scenari ideali tendono a far crescere la fiducia nelle capacità di controllo dei sistemi.

E paradossalmente questo genera un pericolo, spiega Missy Cummings, che di sicurezza stradale ed aerospaziale si occupa alla Duke University: “Questo è il motivo per cui è così pericoloso. Una delle cose che sappiamo con certezza è che gli esseri umani inizieranno immediatamente a non prestare attenzione una volta che l’auto faccia da sé un lavoro buono abbastanza”.

A ottobre dello scorso anno, Tesla era parsa recepire le critiche alla confusione che termini come Full Self Driving generano nelle aspettative della clientela, esagerando la portata delle funzionalità disponibili. In molti pensavano che al momento del suo ritorno tra le opzioni in vendita la società avrebbe fatto lo sforzo di presentarla con un nome commerciale più accurato.

Invece con un cinismo degno di quello dei manager delle sette sorelle del petrolio che Elon Musk così si compiace di voler rimuovere dallo scenario dei trasporti, il nome della funzionalità è tornato tale e quale e oggi caratterizza il livello più elevato e costoso dei due disponibili di assistenza alla guida sulle Tesla.

Forse bisognava aspettarselo, visto che a dicembre 2018 durante le riprese per la seguita trasmissione “60 minutes” Elon Musk aveva mostrato alla giornalista del canale CBS le funzionalità dell’Autopilot togliendo le mani dal volante, anche se Tesla raccomanda alla sua clientela di tenerle proprio lì.

Il periodo della registrazione del programma è stato forse il migliore di tutta la storia societaria Tesla: appena dopo la conferma del secondo trimestre consecutivo in utile, risultato ottenuto grazie al decollo della produzione Model 3 a Fremont.

Ma non è nelle corde di Musk vantarsi per quello per cui è le sue società sono autenticamente leader (come la tecnologia di batterie, inverter e motori elettrici): l’uomo ci tiene evidentemente a essere leader almeno nel lessico in tutto quello che fa.

Questo vale anche dove sono altri i rivali a poter vantare i migliori risultati: come nella tecnologia autonoma. Pertanto è inevitabile che i consumatori si rassegnino: il management Tesla punterà i piedi per tenersi stretta la sua “funzionalità di guida autonoma completa“.

A intervenire dovrebbero quindi essere agenzie di controllo là dove la commercializzazione in parte o in gran parte fuorviante ha luogo. La NTSB americana ha il ruolo di fare raccomandazioni sulla sicurezza riguardo a quello che accerta o accerterà. Il regolatore americano che può chiedere richiami e modifiche a veicoli se identifica rischi per la sicurezza sarebbe la National Highway Traffic Safety Administration.

E qui subentra lo scetticismo visto il track record della NHTSA nel trattare i precedenti incidenti all’Autopilot (della sicurezza di questo e non delle Tesla come automobili in sé si tratta). Investigando l’incidente costato la vita a Joshua Brown l’agenzia aveva finito per sottolineare come la presenza dell’Autopilot avesse contribuito ad un taglio del 40% dei sinistri, finendo per premiare l’atteggiamento della casa californiana.

Ma una recente revisione del lavoro compiuto dalla NHTSA ha clamorosamente bocciato la metodologia dell’agenzia nell’arrivare alla conclusione. NHTSA ha chiesto a Tesla dati sugli incidenti principali prima e dopo l’installazione della funzionalità Autosteer (pilastro dell’Autopilot che mantiene la carreggiata e sovrintende ai cambi di corsia dopo conferma del conducente con azionamento dell’indicatore di direzione).

Tesla ha fornito alla NHTSA i dati di 43.781 veicoli, ma solo 29.051 di questi avevano i dati sulle miglia percorse precedentemente all’attivazione dell’Autosteer. Il personale dell’agenzia ha contato i 29.051 veicoli come se avessero avuto 0 miglia precedenti all’attivazione. Ma a questo sottogruppo del campione ha arbitrariamente assegnato (forse per formattare in modo più appropriato i dati del campione?) 18 incidenti pre-Autosteer.

Un valore che è superiore del 20% agli 86 incidenti (sono stati contati quelli in cui gli airbag si erano attivati) pre-Autosteer dei veicoli che avevano dati completi. La bizzarra impostazione metodologica sul set di dati incompleti ha sopravvalutato conseguentemente il tasso di incidenti pre-Autosteer.

Come ha indicato la società QCSC che ha effettuato la revisione dello studio, in questo modo concludere che i dati indicano inequivocabilmente che l’Autopilot riduce gli incidenti del 40% è supportato da evidenze molto tenui. C’è da sperare che le prossime conclusioni della NHTSA arrivino appoggiandosi su metodologie e dati più solidi, ma questo è ancora da dimostrare.


Credito immagine di apertura: screenshot sito web NBC News