EO_485

DIGITAL FPGA FOR AI 51 - ELETTRONICA OGGI 485 - APRILE 2020 applicazioni saranno eseguite sul cloud; gli esperti osservano che le prime indicazioni di un altro cambiamento nelle archi- tetture – da sistemi centralizzati a distribuiti – sono già palesi. Che la prossima transizione sia prossima o no, un fatto è chiaro: la necessità di ridurre le laten- ze, le preoccupazioni sempre più serie riguardanti la privacy e le limitazioni sulla larghezza di banda per le comunicazioni sono alla base della richiesta di funzionalità superiori all’edge. Via via che i progettisti aggiungono livelli più alti di funzionalità ad applicazio- ni all’edge, hanno bisogno di sistemi che rispondano più velocemente a condizioni ambientali variabili. Ad esempio, quando un’autovettura autonoma entra in una città intelligente, non può chiedere al cloud come evitare un incidente perché non può aspettare la ri- sposta; deve agire subito e prendere una decisione au- tonoma. Analogamente, quando in un’abitazione una videocamera di sicurezza basata sull’AI identifica un movimento all’interno, deve usare le risorse di cui è dotata per determinare se è in corso un tentativo di furto con scasso e chiamare la polizia. Queste nuove applicazioni richiederanno soluzioni di elaborazione basate sull’AI o sull’apprendimento automatico ubica- te in prossimità dell’origine dei dati dei sensori IoT ri- spetto al cloud. Quanto è grande questa esigenza? Al- cuni ritengono che sia enorme. Gli analisti di Gartner stimano che entro il 2022, sino al 50% dei dati generati dalle aziende saranno elaborati all’esterno di un tra- dizionale data center centralizzato o del cloud (Fig. 1). Requisiti per l’edge computing Uno dei problemi più complessi al quale devono far fronte i progettisti di soluzioni di elaborazione all’edge è quello di soddisfare i requisiti relativi a un mix unico – flessibilità, bassi consumi, ridotto fattore di forma e costo contenuto (Fig. 2). L’interrogativo degli sviluppatori è come creare so- luzioni all’edge che consumino poca potenza e ab- biano un ingombro minimo a costi ridotti senza per questo penalizzare prestazioni? In primo luogo hanno bisogno di soluzioni su silicio che assicurino la mas- sima flessibilità di progettazione, li aiutino a sfruttare gli algoritmi e le architetture di reti neurali in rapida evoluzione e siano compatibili con un’ampia gamma d’interfacce di I/O. Infine, hanno bisogno di soluzioni in grado di garantire un compromesso ottimizzato tra precisione e consumo di potenza. Dati i vincoli sull’ingombro esistenti all’edge, i proget- tisti hanno anche bisogno di soluzioni su silicio che permettano di realizzare dispositivi AI compatti a ele- vate prestazioni che offrano prestazioni eccellenti sen- za per questo violare i vincoli sull’ingombro o sulla ge- stione termica. Anche il costo è un fattore cruciale in quanto si tratta di mercati caratterizzati da alti volumi e, ovviamente, anche per i dispositivi edge si applicano le regole relative al time-to-market: la prima azienda ad arrivare sul mercato otterrà uno straordinario vantag- gio competitivo. Conseguentemente, qualsiasi possibi- le soluzione deve avere accesso alle risorse di cui i progettisti hanno bisogno per personalizzarla e ridur- ne il ciclo di sviluppo – che si tratti di demo, progetti di riferimento o servizi di progettazione. Inferenziazione nell’apprendimento automatico basato su FPGA all’edge A questo punto è utile domandarsi quale ruolo svolgo- no gli FPGA all’edge. L’apprendimento automatico in genere richiede due tipi di carichi di lavoro di elabora- zione. In primo luogo, i sistemi in fase di addestramen- to apprendono una nuova funzionalità a partire da dati esistenti. Per esempio, una funzione di riconoscimento visivo impara a riconoscere un volto umano acquisen- do e analizzando decine di migliaia d’immagini. Que- sta prima fase di training è intrinsecamente complessa per quanto riguarda i calcoli. In genere, per elaborare quantità così grandi di dati gli sviluppatori impiegano hardware dalle prestazioni elevate presente nel data center. La seconda fase dell’apprendimento automatico, l’infe- renziazione, applica le funzionalità del sistema a nuovi dati identificando pattern ed eseguendo operazioni. Ad esempio, la funzione di riconoscimento visiva di Fig. 1 – Trend emergenti nel campo dell’edge computing, dettati dalla necessità di superare le limitazioni in termini di latenza e di ampiezza di banda della rete, oltre al rispetto delle normative relative alla privacy

RkJQdWJsaXNoZXIy MTg0NzE=