E adesso Elon Musk vuol mettere… Mies van der Rohe alla guida dell’Autopilot Tesla

Passa a Tesla la startup di Berkeley DeepScale: da un decennio sviluppa reti neurali che moltiplicano accuratezza dei calcoli e abbassano la latenza con un minimo consumo di energia

L’attivissima reporter Lora Kolodny, della testata finanziaria americana CNBC, ha pubblicato per prima una indiscrezione molto interessante sul rafforzamento di Tesla nel settore dell’automazione e del software per la guida autonoma. Sebbene la casa californiana al momento in cui scriviamo non abbia ancora confermato, avrebbe acquisito la startup DeepScale.

Uno dei due co-fondatori, Forrest Iandola, ha già confermato il passaggio sotto Tesla aggiornando il proprio curriculum su Linkedin, e lo stesso hanno già fatto altri esperti e tecnici. DeepScale è stata fondata da Iandola e da Kurt Keutzer, docente all’università di Berkeley. come spin-off del celebre ateneo californiano.

I due che hanno avviato l’azienda erano insieme in un gruppo di ricerca che si chiamava  “Berkeley Deep Drive” e si dedicava a far fare balzi da gigante all’efficienza di uno dei più popolari strumenti dell’apprendimento automatico: le DNN (deep neural nets), con particolare riferimento ai loro impieghi nel settore della computer vision.

Al contrario della maggior parte dei colleghi, nel periodo successivo all’esplosione della popolarità del settore, Iandola e Keutzer non si erano gettati nel filone principale della ricerca sulle reti neurali, che nella maggior parte dei casi per ottenere risultati lusinghieri si affidava al potenziamento delle risorse di calcolo.

Una filiera numerosa anche perché facilitata dalla crescita della potenza delle GPU di Nvidia e in qualche caso dalla nascita di speciali chip meno potenti ma specializzati su certi task. A Berkeley il piccolo gruppo era invece convinto che “less is more“, come ha sempre sostenuto uno dei padri dell’architettura moderna.

Come dei novelli emuli di Ludwig Mies van der Rohe, Iandola e Keutzer si sono invece dedicati al lavoro di sottrazione: inseguendo reti dalla struttura semplificata, con l’obiettivo di ottenere sistemi che aumentassero la rapidità e l’accuratezza dei calcoli e abbassassero la latenza nel condurre in porto gli obiettivi. Il tutto abbinato a un consumo di risorse il più ridotto possibile.

Se queste caratteristiche vi hanno fatto pensare che si tratta di qualità che potrebbero servire nel mondo automotive, dalla base dei sistemi di sicurezza ADAS ai più sofisticati software di guida autonoma avanzati, siete probabilmente giunti alla stessa conclusione di Elon Musk.

Musk che però non è arrivato per primo ad interessarsi a DeepScale: preceduto nei precedenti round di finanziamento da investimenti di professionisti del venture capital ma anche da  qualche colosso europeo come Siemens e quando sono stati siglati i primi contratti anche specialisti della fornitura automotive come Hella e Visteon.

I primi successi della startup californiana sono arrivati con una rete DNN battezzata SqueezeNet (squeeze=spremere) che anche nel nome intendeva sottolineare che si trattava di un dispositivo di intelligenza artificiale basato per ridurre al minimo possibile le risorse utilizzate. Nello specifico nel 2012 DeepScale riuscì a far riconoscere alla propria rete le immagini della libreria open source ImageNet con l’accuratezza della assai più potente rete AlexNet con l’uso di solo mezzo megabyte (circa 50 volte più piccola).

In un post su medium.com l’azienda ha fornito altri dettagli sull’approccio seguito per spingere la robustezza e l’accuratezza delle sue DNN concentrate sulla computer vision. E con ambizioni molto alte: sia sul versante dei costi, ovvero arrivare a sistemi che costino $10 invece di $10.000 e a bassissimi consumi di energia, molto più prossimi ai 10 Watt che a 2 kW.

Costi e bassi consumi sono musica per le orecchie dei gruppi auto che hanno in mente di migliorare sicurezza dei sistemi ADAS e di mettere i computer alla guida virtuale. Per questo DeepScale ha anche tenuto un approccio modulare, con la possibilità di combinare i prodotti con una grande varietà di sensori, chip e sistemi, moltiplicando così il possibile numero di clienti.

Keutzer in uno di quei post non ha perso l’occasione di sottolineare che quello di DeepScale è stato fin dalla nascita un approccio quasi low-cost, con l’ottimizzazione degli algoritmi che per due lustri è stata ossessivamente concentrata sul migliorare l’impronta del software sulla memoria, l’efficienza e la velocità alle prese con hardware trattato come commodity.

Se si fa mente locale, non è difficile ricordare come più di un centro ricerche di primari gruppi auto abbia, nello scegliere i modelli su cui sviluppare sistemi di guida autonoma auto ibride invece che elettriche pure. La concorrenza per l’energia delle celle da molti ingegneri è stata ritenuta eccessiva tra motori di elettriche pure e computer assetati di watt.

Si tratta di opinioni che fanno sì che leader di settore come Waymo o Ford/ArgoAI abbiano in servizio un gran numero di Pacifica e Fusion, e che i primi robotaxi finora siano basati su ibride. Secondo DeepScale con gli algoritmi minimalisti sviluppati in-house per le reti neurali sia processori ad alta potenza che più modesti ma preziosi SoC per sistemi ADAS potranno migliorare i risultati della percezione.

Un concetto che per Tesla, che ha sempre considerato uno spreco la ridondanza dei sensori laser nell’implementare il suo Autopilot, sembra fatto apposta, e in grado di valorizzare il suo sistema basato su telecamere e radar.

A partire da quello che DeepScale ha iniziato a vendere nello spazio della fornitura automotive: con Carver21, ha proposto a case auto e gruppi Tier1 software modulare integrabile con qualsiasi processore o sensore.

Estraendone le funzionalità richieste o per sistemi di sicurezza ADAS o per sistemi di guida. Con tre reti neurali DNN che girano in parallelo su un processore NVIDIA Drive AGX Xavier, secondo la startup le elaborazioni di dati di percezione necessari per guida su autostrade o per parcheggi autonomi (una caratteristica che Tesla ha appena iniziato a lanciare sulle sue auto ma che non è chiaro se derivi dal lavoro di DeepScale) sono possibili con appena il 2% della potenza di calcolo del Xavier: ~0,6 TOPS.

La presentazione di Carver21 era stata anche pensata per task molto meno spettacolari. Come piccoli SoCs molto comuni nelle centraline che controllano funzionalità di sicurezza, e che richiedono meno di 5 watt di potenza assorbita.

La flessibilità di quello che si potrebbe ottenere con l’approccio minimalista di DeepScale è una cosa che colpisce, mentre ora viene il dubbio se con l’acquisizione Tesla vorrà rendere la flessibilità dei sistemi basati su queste reti neurali ultra-leggere anche accessibile alla concorrenza.

Soprattutto tenendo contro che a inizio anno Musk aveva ribadito che Tesla ritiene di lanciare la sua rete di robotaxi, basati su auto di proprietà della clientela, nel 2020. DeepScale, da un lato appare utile a non arrivare in ritardo a quel traguardo che oggi come oggi solo la casa californiana sembra ancora ritenere così prossimo, mentre gli altri ben che vada lo collocano a metà degli Anni ’20.

Ma anche se non dovesse arrivare nel 2020 una Tesla a guida autonoma di Livello SAE 4, e ai ritardi di Musk tutti sono avvezzi, l’ingresso dello staff della piccola startup di Mountain View sarà quanto mai utile a rimpolpare le fila di un team come quello dell’Autopilot che è stato depauperato dalle partenze, incluse quelle dell’ex-leader del programma Stuart Bowers e che ha lasciato solo al genio del software Andrey Karpathj la guida del programma.

Una superstar delle reti neurali, senza dubbio, che però si è ritrovato a guidare un vero e proprio progetto industriale, cosa a cui finora non era abituato. L’arrivo di uno staff come quello di DeepScale, per mentalità e filosofia dall’approccio come si è visto molto concreto, per una volta potrebbe creare la sorpresa: Tesla che si presenta puntuale. Less is more, ed è in orario.


Credito foto di apertura: press kit Tesla