EMB_86

EMBEDDED 86 • NOVEMBRE • 2022 34 Confezionato in una semplice ma robusta custodia di cartone fustellato, il kit ospita un SBC (Single Board Computer) Raspberry PI Zero. Google AIY Vision Kit include tutto l’hardware, i cablaggi e il firmware ne- cessari per creare un dispositivo di visione basato su reti neurali in grado di rilevare volti, individuare emo- zioni e riconoscere un insieme di un migliaio di ogget- ti di uso quotidiano. Oltre a Raspberry Pi Zero, il kit comprende un modulo telecamera Raspberry Pi V2, Google Vision Bonnet (Hat) oltre a tutti i cavi flessi- bili per la connessione con la scheda PCB e i cablaggi necessari. La scheda Vision Bonnet utilizza una VPU (Vision Processing Unit) Movidius Myriad 2 MA2450 di Intel a basso consumo per eseguire le inferenze re- lative all’elaborazione dell’immagine. Un LED a più colori e un buzzer piezoelettrico forniscono le uscite visivi e udibili. Per far girare gli algoritmi di rilevamento visivo non è richiesta una connessione a Internet. Da un sito Web di supporto è possibile visionare un tutorial che passo dopo passo permette di configurare il kit e implemen- tare tutti gli esempi di reti neurali fornite da Tensor- Flow Lite. La prima demo del tutorial è un modello per il rileva- mento dello stato d’animo. Il LED presente nel kit si illumina nel momento in cui la telecamera rileva il vol- to di una persona. Un sorriso muta il colore del LED in giallo mentre un’espressione corrucciata modifica il colore del LED che in questo caso emette una luce blu. Se il sorriso è particolarmente accentuato il buz- zer piezoelettrico emette un suono. Nel caso vengano rilevati più volti, le uscite del LED e del buzzer piezo- elettrico corrispondono ai punteggi aggregati di tutte le espressioni facciali rilevate. La demo relativa al riconoscimento dell’immagine di un oggetto richiede una connessione a Raspberry Pi per ricevere i messaggi in uscita. Per questo motivo gli utenti devono collegare uno schermo con interfaccia HDMI a Raspberry Pi oppure stabilire una connessio- ne SSH (Secure Socket Shell) con un altro computer. Nel tutorial vengono spiegati entrambi i metodi di connessione. Quando si utilizza uno schermo HDMI è necessaria la presenza di una tastiera e un mouse. Nella figura 2 sono riportati i risultati dell’algoritmo di classificazione dell’immagine che riporta le proba- bilità. Scheda di sviluppo SparkFun 15170 Un’altra piattaforma di valutazione da tenere in con- siderazione è la scheda di sviluppo SparkFun 15170 (Fig. 3). Frutto di un progetto di collaborazione con Google nell’ambito TinyML, questa scheda è caratterizzata da consumi nettamente inferiori rispetto a quelli del kit Google AIY. La scheda 15170 è equipaggiata con il microcontrol- lore Apollo3 Blue di Ambiq basato su ARM Cortex a 32 bit a bassissimo consumo che sfrutta la tecnologia SPOT (Subthreshold Power Optimized Technology) brevettata da Ambiq. Operante a una frequenza di clock di 48 MHz, che può arrivare a 96 MHz in mo- dalità burst, il microcontrollore è caratterizzato da Fig. 2 – Risultati relativi alla classificazione dell’immagine (Fonte: Google) Fig. 3 – La scheda di sviluppo SparkFun 15170 (Fonte: SparkFun) HARDWARE | TINYML

RkJQdWJsaXNoZXIy Mzg4NjYz