Sulle Tesla per gli americani i radar sono già storia
La casa di Elon Musk non è sola nel cercare la semplificazione dei sensori di guida autonoma avanzati: ci provano anche Baidu in Cina col V2X e l’MIT che con un innovativo end-to-end learning filtra i dati dei LiDAR
A un paio di mesi di distanza dall’annuncio di Elon Musk, come sempre via Twitter, che Tesla avrebbe preso la direzione di un approccio pure vision, basato solo su telecamere, per i propri sistemi di guida Autopilot, in America la casa californiana passa ai fatti.
Dal sito internet americano giunge la conferma che le Model 3 e Model Y destinate alla clientela degli Stati Uniti e del Canada saranno prive di radar. La novità, a quanto sembra, non riguarderà le Model S e X appena sottoposte a facelift né le Tesla di ogni modello consegnate in Asia e in Europa.
La scelta di Musk e dei suoi scienziati che si dedicano alla guida autonoma avanzata, guidati dal guru di settore Andrej Karpathy, è il contrario di quanto avviene sui veicoli delle principali aziende americane impegnate nella corsa alla commercializzazione dei robotaxi.
Waymo, Cruise, Aurora e Argo AI, tutte si appoggiano come noto a software che filtra e integra informazioni raccolte da tre famiglie di sensori dalle caratteristiche molto diverse: telecamere come nel caso di Tesla, ma anche i radar che Musk ha appena messo nel dimenticatoio, e soprattutto i LiDAR.
La strada della Tesla Vision avrà qualche “paletto” nei primi giorni di consegne: la transizione richiederà che i sistemi Autopilot e il discusso FSD (che ne è la versione avanzata per guida affidata a computer e software in autostrada e in alcune versioni aggiornate anche in città) richiederà la limitazione di alcune funzionalità.
L’Autosteer, un dispositivo di cruise control automatizzato, funzionerà solo fino a 75 miglia orarie e con una distanza maggiore del solito rispetto alla vettura che precede, mentre i sistemi Smart Summon ed Emergency Lane Departure Avoidance potrebbero essere disattivati alle di fine maggio o inizio giugno e poi riattivati via etere.
In un’altra comunicazione via Twitter Musk ha fatto sapere che nelle prossime due settimane l’Autopilot basato sulla Tesla Vision sarà aggiornato alla clientela attuale e sulle nuove consegne, mentre probabilmente richiederà un’ulteriore settimana, verso metà giugno quindi, la release del FSD beta V9.0, che sarà parimenti basato integralmente sul concetto di pure vision, rendendo quindi i radar già presenti sulle Model 3 e Y circolanti in Nordamerica una sorta di reliquia tecnologica.
Non è difficile trovare commenti di esperti di settore e della sicurezza automotive all’insegna dello scetticismo sulla monocultura di Musk e dei suoi scienziati per quanto riguarda lo sviluppo dei sistemi di guida autonoma, anche perché è noto che la casa ha su strada alcuni veicoli che stanno verificando il contributo dei LiDAR (in questo caso della startup Luminar).
Ma va sottolineato che la Tesla Vision non è affatto l’unico esempio di ricerca tecnologica che cerca di liberarsi dei costi e delle complicazioni di integrazione di una suite di sensori laser, radar e telecamere.
Infatti è di pochi giorni fa l‘annuncio di Baidu che in Cina il progetto Apollo Air, in collaborazione con l’Institute of AI Industry Research dell’università Tsinghua, sarà il primo a supportare guida autonoma di Livello 4 SAE, grazie al coordinamento in tempo reale tra veicoli privi di sensori, smart road e a nuvole di sensori nell’infrastruttura stradale basati su connettività 5G e tecnologia V2X (Vehicle-to-Everything).
Un altro esempio di ricerca che è indirizzata verso la semplificazione dei sistemi di bordo per la guida autonoma è quello presentato nei giorni scorsi da un team dell’MIT. Il risultato è un sistema che si affida solo a LiDAR, con l’apprendimento end-to-end dei computer finalizzati a guidare il veicolo che analizza “solo” le nuvole di punti tridimensionali generate dai sensori laser, integrate da mappe GPS del tutto basiche, analoghe a quelle disponibili su comuni smartphone, piuttosto che far ricorso a mappe 3D di grande dettaglio che sono sfruttate per sistemi come il Super Cruise disponibile su alcuni modelli General Motors.
Per rimediare alle incertezze derivanti dal supporto semplificato dei dati provenienti dai sensori, la squadra di ricercatori, del gruppo della Professoressa Daniela Rus, ha integrato nell’algoritmo elaborato quanto appreso in studi precedenti: MapLite mirato a creare un quadro di riferimento privo di mappe di estrema precisione, “variational end-to-end navigation” che insegna a guidare alle macchine da zero partendo da dati di guida umani, e SPVNAS per ottimizzare i processi di deep learning.
Un approccio di questo genere nel caso del paper pubblicato dal gruppo dell’MIT ha l’obiettivo della semplificazione della gestione a bordo di una mole esplosiva di dati per accelerare il processo delle decisioni di guida: un sensore laser 64-canali produce 2 milioni di punti al secondo da leggere, classificare, elaborare. “Vedere” ed interpretare più rapidamente quei dati è mettere un turbo alla sicurezza del processo decisionale di guida.
Questa impulso a sfoltire la mole di dati è comune anche alla Tesla Vision ma, rispetto al lavoro di Karpathy & C., nel caso del laboratorio del Massachusetts ha anche la caratteristica di spingere il sistema verso processi di auto-apprendimento che non richiedano continui interventi di programmatori esperti nel mettere a punto il processo nel corso del suo perfezionamento.
L’approccio del gruppo di lavoro dell’MIT continuerà con ulteriori perfezionamenti, che metteranno i veicoli sottoposti a test alla prova in condizioni di tempo avverso e a confronto con le interazioni del traffico, mentre finora si è concentrato sulla guida su strade aperte al pubblico ma in condizioni scorrevoli e prive di complicazioni derivanti dall’incertezza aggiuntiva dei comportamenti di altri utenti della strada.