EMB_81

MACHINE LEARNING | SOFTWARE 57 EMBEDDED SETTEMBRE logie di ML e deep learning per i propri progetti em- - porto all’apprendimento automatico deve diventare più completo e più facile da usare per gran parte di tali % Á - so di lavoro end-to-end che consente agli sviluppatori di importare i propri dati di apprendimento, di sele- zionare il modello ottimale per la loro applicazione, di addestrare il modello, di eseguire l’ottimizzazione e la À - sitivo di riferimento e quindi di passare alla produzione À # À À sottostanti e gestiscono la complessità del processo di sviluppo dell’apprendimento automatico. L’interfaccia utente ideale consente allo sviluppatore di selezionare alcune opzioni e quindi di importare facilmente i dati di apprendimento e di eseguire il modello sul dispositivo di destinazione. Il numero di piattaforme, infrastrutture, tool e altre risorse di elaborazione disponibili per aiutare gli svi- luppatori a creare e a eseguire le applicazioni di ML e i modelli di reti neurali sono in continua espansione. Esaminiamo ora diversi tool e infrastrutture di svilup- À - care i loro progetti di sviluppo di soluzioni di apprendi- mento automatico. La semplificazione dei flussi di lavoro con una suite di tool per l’apprendimento automatico La suite di tool DeepView ML di Au-Zone Technologies è un buon esempio di interfaccia À ,3C%- - Á consente agli sviluppatori con qualsiasi livello di competen- za, dai progettisti embedded ai data scientist agli esperti di apprendimento automati- co, di importare set di dati e modelli di reti neurali, per poi addestrare ed eseguire questi modelli e carichi di lavoro su un’ampia gamma di disposi- tivi di destinazione. NXP ha recentemente ampliato il proprio ambiente di sviluppo %F O 5 À - ,: ;- % %F Á lavoro ML offre agli sviluppatori funzionalità avanzate per sfrondare, quantizzare, convalidare ed eseguire mo- delli pubblici o proprietari di reti neurali su dispositivi (˜# 0 À sul dispositivo di riferimento forniscono agli sviluppa- tori informazioni dettagliate in fase di esecuzione, per ottimizzare le architetture dei modelli di reti neurali, i parametri di sistema e le prestazioni in fase di esecu- - ne per integrare le tecnologie di inferenza open-source, gli sviluppatori possono, con il minimo sforzo, eseguire e valutare rapidamente carichi di lavoro e prestazio- ni ML su più dispositivi. Una caratteristica chiave di questo motore di inferenza in fase di esecuzione è che ottimizza l’utilizzo della memoria di sistema e il trasfe- rimento dei dati per architetture uniche di dispositivi. Ottimizzazione delle reti neurali con il compilatore open- source Glow % 3 - lare tool di back-end di tipo open source per infrastrut- ture ML di alto livello, che supportano le ottimizzazioni del compilatore e la generazione di codice a partire da À ne di infrastrut- Fig. 1 – I " Á 2 "" " 2+3

RkJQdWJsaXNoZXIy Mzg4NjYz