EO_488

30 - ELETTRONICA OGGI 488 - SETTEMBRE 2020 TECH INSIGHT ARTIFICIAL INTELLIGENCE I casi d’uso della AI possono però essere classificati, aggiunge PwC, sulla base di due principali tipologie di implementazioni, e cioè quelle che riguardano, da un lato, i sistemi di training e, dall’altro, i sistemi inferenzia- li. I primi sfruttano massicci dataset sia per apprendere come svolgere specifiche attività, sia per far evolvere di continuo lo stesso algoritmo di apprendimento. I si- stemi inferenziali, invece, prendono decisioni in tempo reale utilizzando modelli predefiniti. Da questo punto di vista, la AI crea inedite opportunità per i vendor di semiconduttori su tre diversi fronti: innanzitutto, vi è in sostanza la possibilità di applicare la AI in qualunque settore verticale. Secondariamente, c’è la forte previ- sione per i chip che si renderanno necessari sia a livel- lo di infrastruttura cloud, sia di rete periferica (edge); e, terzo, vi sarà una crescente necessità di requisiti spe- cifici di elaborazione per accelerare i nuovi algoritmi. Il mercato dei semiconduttori “AI-related” crescerà, da- gli attuali 6 miliardi di dollari (2019), a oltre 30 miliardi di dollari entro il 2022, con un CAGR di quasi il 50%. Tuttavia PwC ritiene che la domanda di semicondutto- ri per il funzionamento dei sistemi inferenziali rimarrà probabilmente frammentata, in ragione delle tipologie di casi d’uso potenziali, ampiamenti differenziati, che richiederanno una soluzione specializzata. E, tra questi, si possono collocare anche le applicazioni NLP. Invece, i sistemi di training, saranno primariamente basati su tradizionali CPU, GPU (graphics processing unit), FPGA (field-programmable gate array) e ASIC (application specific integrated circuit). Tutti dispositivi elettronici di elaborazione dati che possono andare a costituire architetture di calcolo eterogenee sia all’interno dei data center, sia a livello dell’infrastruttura edge. Interfacce utente vocali: serve più capacità di calcolo “on-device” I componenti richiesti per gestire un’interfaccia utente (UI) basata sulla voce e in grado di fornire un’espe- rienza d’uso completa e soddisfacente sono numerosi. Il processo è complesso: parte dall’acquisizione del segnale vocale attraverso il microfono, o i microfoni, del dispositivo; continua con una pre-elaborazione del parlato finalizzata a eliminare disturbi ed eco; passa al riconoscimento del discorso e all’elaborazione del linguaggio naturale; infine sintetizza la voce e le paro- le sul dispositivo che sta rispondendo all’utente. Tra- dizionalmente, spiega in un articolo tecnico, Jilei Hou, Vice President & Head of AI Research di Qualcomm , l’intelligenza artificiale che alimenta i componenti UI fondamentali, come il riconoscimento automatico del parlato e l’elaborazione del linguaggio naturale, viene gestita nel cloud, in ragione dei vincoli in termini di capacità di calcolo, storage, energia necessa- ria. Tuttavia, riuscire a integrare risor- se di elaborazione direttamente all’interno del dispositivo dell’u- tente può fornire benefici unici, come capacità di risposta più ra- pida, maggior affidabilità, e, so- prattutto, maggior protezione della privacy. Sotto quest’ultimo aspetto, precisa Hou, gli utilizzatori deside- rano avere il controllo dei propri dati, e poter scegliere se essi deb- bano essere elaborati e archiviati nel cloud. Di conseguenza, la ten- denza è verso lo sviluppo di mag- gior capacità di calcolo sul singo- lo dispositivo per completare le funzionalità del cloud, anche se la sfida resta come riuscire ad am- ministrare complesse funzioni vocali dell’interfaccia utente rispettando i vincoli, a livello termico ed ener- getico, insiti in un dispositivo mobile. Altro aspetto non trascurabile nella progettazione di interfacce vocali conversazionali è lo sviluppo di un’intelligenza contestuale, necessaria per la perso- nalizzazione, e implementabile integrando e fondendo nel dispositivo in questione una molteplicità di sensori, tra cui, ad esempio, microfoni, telecamere, accelerome- tri, sensori di luce e temperatura: queste funzionalità, infatti, consentirebbero di andare verso un vero assi- stente personale digitale, e di fornire al dispositivo, non soltanto la capacità di dare risposte personalizzate quando vengono poste domande, ma anche di pren- dere decisioni in automatico e avviare conversazioni sulla base dell’analisi del contesto specifico. Le interfacce vocali conversazionali richiedono un’intelligenza contestuale (Fonte: Pexels)

RkJQdWJsaXNoZXIy MTg0NzE=