EON_621

25 EON EWS n . 621 - LUGLIO / AGOSTO 2018 reti neurali, come TensorFlow e Caffe, e la parte hardware. Il secondo componente è un processore (chiamato OD) progettato per l’identificazione in tempo reale degli oggetti a una risoluzione full HD con 60 fps. Il processore permette non soltanto di identificare la forma del corpo umano, ma anche i volti e persino la direzione in cui stanno guardando la per- sona. Le dimensioni minime per poter effettuare il ricono- scimento partono da 50 x 60 pixel e si può riconoscere un numero virtualmente illimitato di oggetti per ogni frame. ARM OD può essere usato come pre-processore per analizzare specifiche aree di interesse e usato in combinazione con i processori ARM Cortex, Mali e, ovviamente, l’ARM ML. ARM NN, invece, fa da ponte tra i framework NN esisten- ti e gli IP. ARM NN SDK, per esempio, è un set di software e tool open source Linux che permette di implementare applicazioni di machine le- arning. Gli analisti ritengono che i processori con funzioni di machine learning integrate diventeranno in breve tempo dei componenti essenziali per i progettisti embedded. L e funzioni di machine learning (ML) sono disponibili da diversi anni, ma le capacità di calcolo richieste per implementarle le limitavano a sistemi comples- si di tipo cloud-based. Gra- zie però allo sviluppo di nuovi componenti e sistemi, alcune di queste funzioni stanno passan- do anche su dispositivi come microprocessori e microcon- troller. Il machine learning, o apprendimento automatico, è un insieme di tecniche che per- mette ai computer di fornire del- le risposte adeguate, in base ai dati ricevuti, senza però che lo sviluppatore definisca l’elabo- razione da effettuare. Esistono da tempo molti servizi basati sul machine learning, come per esempio il sistema di ricono- scimento vocale Alexa, oppure quelli di Google, ma uno dei trend che caratterizzano que- sto settore è legato allo spo- stamento a livello edge di sem- pre più funzioni di intelligenza artificiale in modo da risolvere alcuni dei problemi correlati al modello cloud-based, come la latenza, e ridurre i consumi di energia legati alla trasmissio- ne di elevate quantità di dati. Diverse aziende nel mondo dei semiconduttori, e non solo, stanno lavorando da tempo a componenti specializzati in questo senso. Alcuni esempi di chip dedicati alle applicazioni di machine learning, e AI in gene- rale, sono costituiti dai proces- sori low power NeuPro di CEVA dedicati al deep learning, o an- che dalle soluzioni di Lattice Semiconductor che propone un reference design per i disposi- tivi iCE40 UltraPlus che usa l’intelligenza artificiale per im- plementare il rilevamento delle persone. Ci sono inoltre già di- verse implementazioni, basate su framework NN (neural net- work), come per esempio Ten- sorFlow, Caffe2 e Android NN, per la creazione di progetti di machine learning. Anche ARM si è focalizzata sullo sviluppo di prodotti specifici per suppor- tare i sistemi di machine lear- ning e ha realizzato una nuova architettura chiamata progetto Trillium. La nuova piattaforma di ARM si basa su due compo- nenti hardware e uno softwa- re. Il primo è un processore dedicato al machine learning (ARM ML) che il produttore di- chiara essere in grado di ese- guire fino a 4,6 TOPS con una efficienza di oltre 3 TOP/W, caratteristiche che lo rendono molto interessante per appli- cazioni mobile a basso con- sumo come smartphone e tablet. Il processore dispone di una memoria onboard sca- labile che permette di ridurre il traffico di dati con la memoria esterna. Il processore di ARM lavora con Android NNAPI che consente la traslazione tra i framework delle principali Machine learning sempre più vicino Grazie però allo sviluppo di nuovi componenti e sistemi, alcune di queste funzioni di ML stanno passando anche su dispositivi come microprocessori e microcontroller F RANCESCO F ERRARI Schema a blocchi del processore ARM ML. Si noti la presenza di memoria locale per ridurre il traffico con la memoria esterna e migliorare prestazioni e consumi (Fonte: ARM) I chip di Google per il machine learning Molte grandi aziende da tempo sviluppano e realizzano hardware per rispondere meglio alle proprie necessità. È il caso, per esempio, di Amazon, Microsoft e Google che realizzano direttamente server e componenti per il networking, risparmiando rispetto all’acquisto di questi prodotti da terze parti. Questo trend si spinge fino ai singoli componenti e, per esempio, Google ha sviluppato i suoi chip per le applicazioni di intelligenza artificiale chiamati TPU (tensor processing unit) che sono arrivati alla versione 3.0. Questa nuova versione è ot- timizzata per il framework TensorFlow di Goo- gle, e per le prestazioni si parla di valori fino a 100 petaflops per degli insiemi di TPU (POD). In pratica questi ASIC di Google permettono di rendere molto più veloce e efficiente l’ap- prendimento da parte degli algoritmi di ma- chine learning usati nelle reti neurali. È interessante notare che, nel caso di Google, la tecnologia di AI è stata indirizzata anche su compiti riconoscimento delle immagini, indi- spensabile per i progetti legati allo sviluppo di veicoli a guida autonoma. Google ha realizzato questa nuova tensor processing unit (TPU) per rendere più veloci le applicazioni di AI (Fonte: Google) T ECNOLOGIE

RkJQdWJsaXNoZXIy MTg0NzE=