EO_481

DIGITAL MACHINE LEARNING 54 - ELETTRONICA OGGI 481 - OTTOBRE 2019 l’esecuzione di vari tipi di reti neurali. Gli utenti posso- no interagire con le reti neurali tramite le API RESTful, mentre lavorano all’interno del proprio ambiente di riferimento. Per le distribuzioni locali (on-premise), le schede di accelerazione Xilinx Alveo eliminano le problematiche legate allo sviluppo hardware e semplificano l’inseri- mento dell’apprendimento automatico nelle applica- zioni esistenti dei data centre. L’ecosistema supporta l’introduzione delle funzioni di apprendimento automatico in casi d’uso nei sistemi embedded o a bordo rete, utilizzando non solo l’ot- timizzatore, ma anche un quantizzatore, un compila- tore e un runtime di DeePhi Technology per creare reti neurali ad alte prestazioni ed efficienti, ideali in presenza di hardware embedded con risorse limitate (Fig. 3). L’hardware chiavi in mano come la scheda Zynq UltraScale 9 e il System-on-Module Zynq 7020 semplificano lo sviluppo dell’hardware e accelerano l’integrazione del software. Vi sono anche numerosi fornitori di software indipen- denti e innovativi che hanno realizzato strati d’inferen- za per reti CNN che possono essere installati su FPGA. Mipsology ha costruito Zebra, un acceleratore di infe- renza per reti CNN che può facilmente sostituire una CPU o una GPU e supporta numerose reti standard (ossia Resnet50, InceptionV3, Caffenet) oltre a strut- ture personalizzate, e che ha dato dimostrazione di prestazioni incredibili con valori di latenza minimi, come nel caso di una Resnet50 con 3.700 immagini/ secondo. Omnitek DPU è un altro esempio di uno strato d’in- ferenza che gestisce sistemi DNN ad alte prestazioni su un FPGA. Ad esempio, sulla rete CNN GoogLeNet Inception-v1, l’Omnitek DPU esegue l’inferenza su 224 × 224 immagini utilizzando l’elaborazione a 8-bit interi con oltre 5.300 inferenze al secondo su una scheda di accelerazione Alveo di Xilinx per data centre. Calcolo riconfigurabile per la flessibilità futura Oltre alle sfide associate all’esigenza di garantire le prestazioni richieste per l’inferenza, gli sviluppatori che adottano soluzioni di apprendimento automatico devono anche considerare che l’intero panorama tec- nologico attorno all’apprendimento au- tomatico e all’intelligenza artificiale sta cambiando rapidamente; le attuali reti neurali allo stato dell’arte potrebbe- ro essere rapidamente soppiantate da nuove reti più veloci che potrebbero non adattarsi bene alle architetture har- dware esistenti. Attualmente, le appli- cazioni commerciali di apprendimento automatico tendono a concentrarsi sul- la gestione delle immagini e sul ricono- scimento di oggetti o di caratteristiche, che sono meglio gestite. Per contro, la riconfigurabilità degli FPGA e la pura flessibilità che consente di adattare le risorse sono punti di forza che permet- tono a questi dispositivi di tenere il pas- so con l’evoluzione nel settore. Sappia- mo già che gli FPGA si adattano bene al clustering a bassa latenza utilizzato per l’apprendimento non supervisionato, che costituisce un altro ramo emergente dell’intelligenza artificiale, e sono particolarmente indicati per attività quali l’analisi stati- stica. L’utilizzo di tool come ML-Suite per ottimizzare e compilare la rete per l’esecuzione su FPGA consente agli sviluppatori di lavorare ad alto livello all’interno del proprio ambiente, senza dover avere competenze sugli FPGA per indirizzare le decisioni del compilatore, pur mantenendo la flessibilità necessaria per riconfigurare l’hardware in futuro, allo scopo di supportare le genera- zioni successive di reti neurali. Gli FPGA sono noti per la loro capacità di assicurare l’accelerazione delle pre- stazioni e la flessibilità per il futuro di cui i professioni- sti dell’apprendimento automatico hanno bisogno; non solo per costruire motori inferenziali performanti ed ef- ficienti per l’esecuzione immediata, ma anche per adat- tarsi alla rapida evoluzione della tecnologia e delle esi- genze del mercato dell’apprendimento automatico. La sfida consiste nel rendere i vantaggi architetturali degli FPGA accessibili agli specialisti dell’apprendimento au- tomatico e allo stesso tempo contribuire ad assicurare un’implementazione il più possibile performante ed ef- ficiente. L’ecosistema di Xilinx ha combinato tool FPGA allo stato dell’arte con pratiche API per consentire agli sviluppatori di trarre pieno vantaggio dal silicio senza dover imparare i dettagli della progettazione FPGA. Fig. 3 – L’ML-Suite fornisce strumenti ottimizzati per il Cloud e per l’apprendimento automatico embedded/a bordo rete

RkJQdWJsaXNoZXIy MTg0NzE=