EO_476

EDA/SW/T&M VISION PROCESSING/AI 56 - ELETTRONICA OGGI 476 - MARZO 2019 opera a 1080P: i prodotti del futuro lavoreranno con risoluzioni fino a 4k a 60 fotogrammi al secondo (FPS). Le telecamere di sorveglianza in ambito commercia- le sfruttano l’intelligenza artificiale del dispositivo per contrassegnare il video in tempo reale con i dati di identificazione dei soggetti, riducendo le latenze di esecuzione di tali attività nel cloud. Automotive Il mercato automobilistico richiede doti di affidabilità e capacità tali da permettere di operare su un ampio intervallo di temperature, garantendo dei cicli di vita anche superiori ai 20 anni. Nell’ambito dell’ecosistema automobilistico, nei pros- simi dieci-quindici anni le funzionalità di imaging di- venteranno molto complesse a causa dell’ampia gam- ma di dati e di variabili necessari per la prevenzione degli incidenti. Le società automobilistiche che offrono tecnologie di guida autonoma adotteranno il deep-learning e l’intel- ligenza artificiale per analizzare i dati generati in tem- po reale. Soluzioni attuali Oggi, le tecnologie di trattamento delle immagini ten- dono a separare la componente vision/imaging dalla componente AI. Utilizzare le soluzioni attualmente di- sponibili ostacola qualsiasi evoluzione. In prospettiva, ciò che serve è un nuovo approccio. Visione/Imaging Gli algoritmi di elaborazione delle immagini possono essere implementati in un sistema elettronico utiliz- zando una combinazione di CPU e/o GPU generiche, oppure una pipeline hardware o RTL. Poiché le tecnologie di rilevamento stanno evolvendo a un ritmo estremamente rapido e variano notevol- mente in funzione degli approcci adottati dai diversi fornitori, la pipeline RTL fatica a tenere il passo in ter- mini di dimensioni e funzionalità. La soluzione CPU/GPU è più flessibile, ma comporta tut- ti gli svantaggi legati al compromesso tra prestazioni e potenza. Inoltre, se il dispositivo terminale è indossabile, l’opzione CPU/GPU non è in grado di garantire l’autonomia di batteria ne- cessaria. A questo si aggiungono gli aspetti legati alle temperature di fun- zionamento (che limitano la frequen- za operativa) e i notevoli consumi di potenza, in particolare per quanto ri- guarda applicazioni relative, ad esem- pio, ai video HDR. Un’ulteriore opzione è l’esecuzione degli algoritmi su un progetto hard- ware sviluppato in RTL. Tale ap- proccio offre un buon vantaggio in termini di prestazioni/potenza ma presenta una flessibilità limitata. La progettazione dell’hardware richiede un lungo processo di sviluppo e ve- rifica, mentre ogni funzione compor- ta una configurazione individuale a livello di gate che è particolarmente onerosa. Intelligenza artificiale Con l’evolversi delle reti neurali, la necessità di inte- grare i processori direttamente nei dispositivi, anziché ricorrere a CPU o GPU, è cresciuta. Fino ad oggi, i re- quisiti di elaborazione di queste reti potevano essere rispettati solo sfruttando le risorse di un datacenter. Per questo motivo, molte applicazioni AI venivano ese- guite a livello cloud anziché essere incorporate nel di- spositivo. La soluzione Cadence: DSP Tensilica Vision Q6 Il DSP Cadence Tensilica Vision Q6, il cui schema a blocchi è riportato in figura 4, è un nuovo processore per applicazioni di visione embedded e AI realizzato sulla base di una nuova e più veloce architettura di elaborazione. Questo DSP offre prestazioni di visione e Fig. 4 – Architettura DSP Tensilica Vision Q6

RkJQdWJsaXNoZXIy MTg0NzE=