EO_485

DIGITAL FPGA FOR AI 52 - ELETTRONICA OGGI 485 - APRILE 2020 cui sopra continuerebbe ad affinare la sua capaci- tà di identificare correttamente un volto umano una volta resa operativa. In questa fase, il sistema appren- de mentre funziona e migliora la sua funzionalità nel corso del tempo. Dati i numerosi vincoli di esecuzio- ne all’edge, i progettisti non si possono permettere di eseguire l’inferenziazione sul cloud; devono invece mi- gliorare la funzionalità del sistema eseguendo le sud- dette operazioni computazionali in prossimità dell’ori- gine dei dati, ovvero all’edge. Ma i progettisti come possono sostituire le vaste risor- se computazionali disponibili sul cloud per eseguire l’inferenziazione all’edge? Una metodologia prevede l’utilizzo della funzione di elaborazione in parallelo incorporata negli FPGA per accelerare le prestazioni della rete neurale. Impiegando FPGA a densità infe- riori specificamente ottimizzati per il funzionamento a basso consumo, i progettisti possono soddisfare le rigorose limitazioni sulle prestazioni e sulla potenza imprescindibili all’edge. Questo nuovo sviluppo del settore rende possibile molteplici funzioni di “inferenziazione all’edge”: Riconoscimento di volti umani con basso consumo di potenza – Questa funzione, che si caratterizza an- che per la velocità, è progettata per operare all’edge mediante un modello di rete neurale. Utilizzando atti- vazioni e pesi binari, nuovi chip FPGA aiutano i proget- tisti nell’implementazione del riconoscimento visivo utilizzando una potenza inferiore a 1 mW di potenza. Videocamere per l’after-market automobilistico – Nuovi modelli di autoveicoli stanno diventano veri e propri “data center su ruote” e una delle fonti princi- pali di tutti questi dati è la visione artificiale, da qui l’installazione di più videocamere in vari punti della scocca. Tra le nuove funzioni, quella di rilevamento dei segna- li di limite di velocità utilizzando la parallelizzazione, intrinseca negli FPGA. Per esempio, una rete neurale convoluzionale implementata in un FPGA come ECP5 di Lattice Semiconductor è addestrata a leggere i se- gnali stradali mentre il veicolo è in movimento. Una volta completato il training, la videocamera può rile- vare segnali di limite di velocità e visualizzare il limite mentre lo incrocia. Conversione di comandi vocali in azioni del siste- ma – Si tratta di uno sviluppo molto interessante e un obiettivo chiave è la rilevazione di frasi essenziali con potenza inferiore a 5 mW, in genere ottenuta impiegan- do una rete neurale binarizzata, integrata nell’FPGA. È possibile collegare microfoni digitali direttamente a un motore di inferenziazione per consentire l’ascolto inin- terrotto allo scopo di rilevare frasi essenziali. Soluzione per il tracciamento di oggetti – Un’altra area in rapida evoluzione riguarda la progettazione di applicazioni di tracciamento oggetti basate sull’AI. Un modello presenta FPGA per l’accelerazione di una rete neurale convoluzionale con otto livelli di convoluzione implementati in otto motori della rete stessa. Una tale soluzione funziona in modalità autonoma in aggiunta a kit di sviluppo di sistemi di visione artificiale embed- ded e può consumare solo 0,85 W di potenza. In definitiva si può dire che è in corso una vera e pro- pria rivoluzione nel campo dell’edge computing. Men- tre gli utenti cercano livelli superiori di funzionalità, crescerà la richiesta di sistemi che integrino l’inferen- ziazione a bassa potenza in prossimità dell’origine dei dati IoT. I progetti di nuovi FPGA soddisferanno questa esigenza assicurando consumi bassissimi, flessibilità, ridotto fattore di forma e livelli di costo ottimizzati per applicazioni edge. Fig, 2 – Una nuova generazione di applicazioni di edge computing basate sull’intelligenza artificiale richiedono un mix unico di requisiti

RkJQdWJsaXNoZXIy MTg0NzE=