EO_483

DIGITAL ARTIFICIAL INTELLIGENCE 48 - ELETTRONICA OGGI 483 - GENNAIO/FEBBRAIO 2020 di qualcosa che viene quindi utilizzato per compiere inferenze sul mondo reale quando viene impiegato in un’applicazione. Ciò fa sì che un’applicazione IA abbia due fasi di vita principali: training e inferen- ziazione (o in altre parole trarre una conseguenza da una o più premesse). Il training viene eseguito durante lo sviluppo, in gene- re sul cloud, mentre l’inferenziazione rappresenta per i dispositivi una necessaria attività continua. Poiché l’inferenziazione può costituire un problema difficile dal punto di vista computazionale, la maggior parte di essa attualmente viene svolta sul cloud. Ma spes- so il tempo necessario per prendere decisioni è bre- ve. Inviare dati sul cloud e attendere finché non si ri- ceve una decisione può ri- chiedere un certo tempo – e a questo punto potrebbe essere troppo tardi – men- tre prendere tale decisione localmente può fare rispar- miare secondi preziosi. Questa necessità di con- trollo in tempo reale esiste per molte aree di applica- zioni in cui occorre prendere decisioni rapidamente. Molti degli esempi in merito riguardano la rilevazio- ne della presenza di persone: A Elettrodomestici in abitazioni intelligenti A Dispositivi elettronici audio/video intelligenti per i consumatori A Campanelli intelligenti A Distributori automatici A Videocamere di sicurezza A Porte intelligenti Altre applicazioni sempre attive (“always-on”) sono: A Altoparlanti intelligenti A Videocamere in punti di vendita A Droni dotati di fotocamera (“selfie drones”) A Videocamere di caselli autostradali A Visione artificiale A Videocamere per autoveicoli aftermarket Una tale esigenza fa sì che attualmente esista una forte tendenza a lasciare il cloud ed eseguire invece il processo inferenziale alla periferia (edge), ossia nei dispositivi che raccolgono dati e poi operano in base alle decisioni prese dall’IA. Risultano così eliminati dal quadro complessivo i ritardi intrinseci legati all’uso del cloud. L’inferenziazione locale offre altri due vantaggi. An- zitutto la privacy. Sia i dati trasmessi fra il cloud e l’apparecchio sia quelli archiviati sul cloud sono soggetti al rischio di hacking e furto, mentre se non lasciano mai l’apparecchio, il pericolo di danni in- tenzionali è alquanto ridotto. L’altro vantaggio riguarda la larghezza di banda di- sponibile in Internet. L’invio di un video sul cloud affinché sia interpretato in tempo reale impegna una quantità enorme di larghezza di banda, mentre pren- dere le decisioni localmente rende tale larghezza di banda disponibile per tutti gli altri utilizzi complessi. Inoltre, vi sono altri aspetti da considerare tra cui: A Molti di tali dispositivi funzionano a batteria o, se collegati alla rete di alimentazione, sono soggetti a vincoli termici che limitano i consumi sostenibili, mentre nel cloud la responsabilità di gestire consu- mi e raffreddamento è del gestore. A I modelli IA si stano evolvendo rapidamente. Tra l’inizio e la fine del training, le dimensioni del model- lo possono cambiare drasticamente ed è possibile che le dimensioni della piattaforma computazionale necessaria non siano chiare sino a una fase avanza- ta del processo di sviluppo. Non solo: piccole modi- fiche apportate al training possono avere un impatto notevole sul modello, aggiungendo un’altra variabile. Tutto ciò rende difficile dimensionare correttamente l’hardware del dispositivo all’edge. A Occorrerà sempre fare compromessi nel corso dell’ottimizzazione dei modelli per uno specifico dispositivo e ciò significa che un modello potrebbe funzionare in modo diverso in apparecchi diversi. A Infine, i dispositivi all’edge spesso sono molto pic- coli e ciò limita le dimensioni di qualsiasi dispositivo adoperato per l’inferenziazione IA. Tutto ciò conduce ai seguenti requisiti importanti ai fini dell’inferenziazione all’edge. Gli engine d’in- ferenziazione posti alla periferia devono consumare poco, oltre a essere molto flessibili, scalabili e di ri- dotte dimensioni. Nuove piattaforme FPGA consentono ai produttori di apparecchiature originali (OEM) di sviluppare moto- ri che presentano esattamente queste quattro carat- Un FPGA della famiglia ECP5 di Lattice Semiconductor utilizzata come accelerato di una rete CNN per il riconoscimento facciale/di oggetti in un’applicazione “intelligente” alla periferia della rete

RkJQdWJsaXNoZXIy MTg0NzE=