EO516_marzo_2024

DIGITAL MCU s carichi di lavoro dell’AI su larga scala. Utilizzando librerie software appositamente progettate per il training e l’im- plementazione dell’AI con risorse limitate, TinyML consen- te ai dispositivi alimentati a batteria di eseguire semplici carichi di lavoro tipici dell’intelligenza arrtiificiale, come il riconoscimento dei gesti utilizzando accelerometri: questo tipo di modello potrebbe essere utilizzato in un dispositivo indossabile intelligente per distinguere tra diversi esercizi eseguiti da una persona. I carichi di lavoro TinyML sono semplici e richiedono molta meno memoria e capacità di elaborazione rispetto a un’at- tività AI avanzata come il riconoscimento facciale. Sebbene esistano carichi di lavoro TinyML mirati all’elaborazione delle immagini, come il tracciamento degli oggetti, que- sti non sono in grado di riconoscere un determinato gatto per la gattaiola potenziata tramite l’intelligenza artificiale dell’esempio riportato all’inizio dell’articolo. TinyML pre- senta molti vantaggi che consentono di migliorare la user experience di un prodotto finale, ma il basso consumo energetico richiesto per l’alimentazione a batteria non per- mette di implementare funzionalità AI avanzate. Un’altra soluzione quando si progetta un prodotto basato sull’intelligenza artificiale è selezionare un microcontrol- lore dotato di un core di elaborazione appositamente cre- ato per espletare tali compiti, come ad esempio Arm Cor- tex-M55. Grazie a una nuova estensione del set di istruzioni vettoriali, la tecnologia Helium di Arm , i dispositivi Cor- tex-M55 sono in grado di eseguire operazioni aritmetiche in parallelo, consentendo un funzionamento assimilabile a quellodelleGPU, anche se su scala ridotta. Questo, eulterio- ri sviluppi nell’architettura del microcontrollore come l’ag- giunta della FPU (Floating-Point Unit), consentono al core Cortex-M55 di elaborare carichi di lavoro AI più complessi rispetto alle tipiche applicazioni TinyML. Anche se questa soluzione rappresenta un miglioramento significativo per quanto concerne la complessità dei carichi di lavoro dell’AI che è possibile implementare con un microcontrollore ge- neral-purpose, rimane ancora il problema del consumo energetico, che rappresenta un viincolo stringente per tutti i prodotti alimentati a batteria. Un acceleratore AI per microcontrollori general- purpose Per risolvere questo problema, Armha progettato una nuo- va architettura di elaborazione, denominata Ethos-U mi- croNPU. Questa unità di elaborazione neurale dedicata mi- gliora notevolmente le prestazioni dei core Cortex-M e può essere utilizzata come acceleratore AI/ML per dispositivi IoT embedded. In un prodotto finale potenziato dall’intel- ligenza artificiale che richieda le capacità di controllo di un microcontrollore Cortex-M, i calcoli IA/ML possono esse- re eseguiti direttamente su questa nuova architettura mi- croNPU in un modo molto più efficiente rispetto a quanto possibile sulla CPU Cortex-M. Il trasferimento del carico di lavoro IA/ML a questo core dedicato consente inoltre al core Cortex-M primario di funzionare in modalità di sospen- sione o a basso consumo, assicurando sostanziali risparmi energetici durante le operazioni AI. Inoltre, questamicroN- PU può selezionare i dati utilizzando l’intelligenza artifi- ciale in modo che le funzioni superiori del core Cortex-M vengano attivate solo una volta che la microNPU abbia de- dotto la loro necessittà all’interno dell’applicazione. Utiliz- zando la Ethos-U microNPU, i microcontrollori Cortex-M general-purpose non sono sovraccaricati dal workload IA/ ML e possono eseguire operazioni standard senza per que- sto penalizzare le prestazioni o la durata della batteria. La capacità di eseguire numerosi processi in parallelo, tipica delle GPU, è un fattore essenziale per creare un ambiente di addestramento (training) efficace per l’intelligenza artificiale ELETTRONICA OGGI 516 - MARZO 2024 43

RkJQdWJsaXNoZXIy Mzg4NjYz