Da Monaco a Shanghai: sono ancora chip e sensori della Silicon Valley a far notizia
Nel settore della guida autonoma tutti gli occhi sono sull’imminente Autonomy Day, ma l’hype intorno a Tesla non impedisce ad Aeva di attrarre Audi e ad Ambarella di trovare sbocchi in Cina
L’attesa che oggi sta man mano crescendo dietro le quinte è focalizzata su quello che Tesla svelerà agli investitori durante l’Autonomy Day, un day che in effetti per l’Italia sarà in piena notte. Le previsioni dei fan della casa di Palo Alto sono per uno show con protagonisti gli “assi della tecnologia” Andrej Karpathy, Pete Bannon e Stuart Bowers nel quale saranno annunciati imminenti e sostanziali progressi per il FSD (full self-driving) computer delle auto californiane.
Se Elon Musk scalpita per portare la sua marca al vertice nel settore della guida autonoma come lo è nella tecnologia elettrica, malgrado le recenti schermaglie col proprio fornitore Panasonic, non si può certo dire che dorma la concorrenza globale, e quando scriviamo globale intendiamo relativa a società che collaborano ma separate da oceani e molti fusi orari.
La questione della coesistenza tra sviluppo delle piattaforme software e hardware, con sensori ed algoritmi sempre più efficienti e più veloci, si ripropone ogni settimana. Anzi, quasi ogni giorno, come ci ricordano gli annunci recenti di Aeva e di Ambarella, due aziende californiane attive rispettivamente nei settori dei sensori laser e dei chip per computer vision.
Aeva ha annunciato una partnership con Autonomous Intelligent Driving, il centro ricerche bavarese di proprietà Audi che cura lo sviluppo delle tecnologie dell’autonomia per la casa di Ingolstadt (ma in prospettiva per tutto il gruppo Volkswagen): una flotta di SUV elettrici E-tron presto sarà sulle strade di Monaco coi 4D Lidar di Aeva in funzione.
Proprio quei sensori laser che Musk considera un inutile lusso per creare una piattaforma di guida autonoma sicura, sono quello che ha attirato la consociata Audi. Questi LiDAR basati su laser a bassa potenza sono in grado di identificare fino alla distanza di 300 metri la velocità di un oggetto facendo ricorso ad un singolo frame usando come leva l’interferenza della luce.
Normalmente i sensori laser diffondono nuvole di punti che “bombardano” gli oggetti sul percorso del veicolo sul quale sono montati e misurano la velocità e la direzione degli oggetti confrontandone gli spostamenti tra un frame e l’altro. Un metodo che funziona, ma che richiede tempo e sforzo computazionale.
Quello che fa Aeva, con una soluzione originale che trasferisce in ambito ottico le caratteristiche del radar doppler, è abbreviare di millisecondi l’analisi degli oggetti e dei loro percorsi e velocità. I millisecondi che non sono impiegati a monte dall’analisi degli elementi dello scenario del traffico possono essere spesi per una migliore e più sicura messa a punto del percorso.
I nuovi partner non hanno fornito dettagli sull’impatto economico, sul numero di vetture previste per i test o su ulteriori sviluppi. Peraltro gli accordi non sono esclusivi: Aeva sta lavorando anche a progetti con altre case auto, inoltre a dicembre dello scorso anno è partita una collaborazione tra AID e Luminar Technologies, un’altra startup dei LiDAR dalla reputazione di azienda dalla crescita rapida.
Da tutt’altra parte del globo nasce invece l’accordo tra l’americana Ambarella (nota in Italia per avere acquisito il controllo del VisLab di Parma) e la cinese Momenta. A quest’ultima, attiva nel campo della guida autonoma, interessano i chip di Santa Clara per ampliare la propria offerta che si concentra su implementazione ed aggiornamento delle mappe HD e la localizzazione di veicoli autonomi.
L’elaborazione avanzata di immagini assicurata dai chip a basso consumo CV22AQ basati sulla architettura CVflow rende più semplice per una società come Momenta spremere il meglio dal proprio software che ricostruisce automaticamente le mappe HD ed esegue localizzazione e aggiornamento mediante crowdsourcing, semplificando il processo di identificazione dei cambiamenti dei singoli elementi delle mappe che devono avere ritocchi frequenti passando via cloud.
I nuovi SOC (system-on-chip) CV22AQ sono in grado di lavorare anche in condizioni di bassa visibilità grazie all’efficienza dei loro ISP (image signal processor), mentre l’elaborazione HDR estrae più dettagli dalle immagini ad alto contrasto.
Momenta si serve di una camera monoculare per generare due flussi di dati, uno relativo allo scenario (corsie, segnali stradali, oggetti o persone presenti) ed un altro nel quale l’algoritmo sviluppato estrae dal flusso ottico le indicazioni necessarie mediante tecnologia SLAM (self-localization and mapping), il metodo di localizzazione e mappatura simultanea che è certo già da tempo familiare a chi si interessa ai droni più sofisticati.