EO_480

SOCS/FPGAS TECH-FOCUS 51 - ELETTRONICA OGGI 480 - SETTEMBRE 2019 d’inferenza. Il training è eseguito solitamente tramite un ampio data set per addestrare la rete sul lavoro da eseguire e definire aspetti come per esempio la topologia migliore. Il training in genere viene effettuato una sola volta e si utilizzano server di grandi dimensioni che effettuano elaborazioni in floating point, tipicamente tramite le GPU. Una volta che la rete è stata addestrata e otti- mizzata, si può effettuare il deployement sul campo, dove entra in gioco l’inferenza. Questa fase ha esigenze diverse dal training e viene effettuata tramite applicazioni embedded. Mentre però aspetti come costi e consumi di energia non sono particolarmente importanti per la fase di training, che viene fatta una sola volta, lo diventano invece per la fase dell’infe- renza che viene ripetuta moltissime volte. Questo aspetto, insieme alla possibilità di usare calcoli in virgola fissa e al fatto che spesso le reti neurali sono sostanzialmente diverse fra loro (una rete neurale per appli- cazioni di visione automotive usa una topo- logia diversa da una usata per il language processing), spiega il notevole interesse nell’uso di tecnologie FPGA per gli inferen- cing engine. zione, che fa ripartire il processo dall’inizio. Di fatto gli FPGA hanno avuto molte aree di applicazione dove sono rimasti per molto tempo, anche se spesso non sono mai stati la soluzione di progettazione ottimale. Questo è stato un problema anche per le aziende che producono FPGA, poiché ha limitato il loro potenziale di crescita, e spiega anche perché i diversi produttori hanno dedicato molte risorse per trovare un ambito applicativo dove le tecnologie con FPGA potessero rappresentare la soluzione ottimale e duratura rispetto ad altri compo- nenti. In effetti oggi il panorama complessivo delle soluzioni FPGA è molto più ampio rispetto al passato, grazie anche, per esempio, a un uso sempre più diffuso di blocchi personalizzati. Alcune opportunità interessanti per i sistemi con FPGA stanno arrivando dalle applicazio- ni d’intelligenza artificiale (IA). Sia Xilinx sia Intel stanno proponendo infatti questi com- ponenti come acceleratori per applicazioni di deep-learning delle reti neurali convolu- zionali (CNN). Queste applicazioni, infatti, sono caratteriz- zate da due fasi, quella di training e quella La soluzione RFSoC di Xilinx è particolarmente interessante poiché integra la logica programmabile con i componenti per la catena di segnale RF all’interno di un SoC

RkJQdWJsaXNoZXIy MTg0NzE=