EON_634

11 progetto di sicurezza strada- le “Vision Zero”, nato in Sve- zia nel 1997, ha l’obiettivo di azzerare le vittime causate da fatalità e incidenti stradali in auto, aggiunge il VP, e la roadmap verso il 2025 per Euro NCAP (European New Car Assessment Program- me), il programma europeo di valutazione dei nuovi autoveicoli, pone l’accento sulla safety come obiettivo primario, indicando nel re- golamento nuovi requisiti e funzionalità di prossima ge- nerazione, che includono il monitoraggio evoluto dello stato emotivo del guidatore, come anche il rilevamen- to dello stato interno della vettura; ad esempio, quale numero e tipologia di pas- seggeri la occupano (bambi- ni, anziani a bordo). Ciò sta portanto OEM e fornitori di primo livello, tradizionalmen- te concentrati sullo sviluppo di tecnologia di AI per mo- nitorare e comprendere gli eventi in corso nell’ambiente esterno, anche a sviluppare telecamere, radar, LIDAR, sensori e sistemi AI evoluti per il controllo costante di tutto ciò che succede all’in- terno dell’abitacolo dell’au- tomobile, e prevenire in tem- po reale eventuali problemi, critici per la sicurezza fisica delle persone. Ad esempio, spiega ADI, la propria tec- nologia Time of Flight (ToF) 3D, una tipologia di LIDAR stenza sanitaria, per creare sistemi intelligenti capaci di stabilire un rapporto emotivo col paziente e curarlo meglio; o, ancora, nell’industria auto- motive, per realizzare vetture con la facoltà di comprende- re se il guidatore del mezzo è distratto, o stanco e biso- gnoso di un segnale d’atten- zione alla guida. Nell’ambito della formazione, la emotion AI può essere in grado di av- vertire lo stato d’animo degli studenti, e di adeguare la tecnica di addestramento a quella particolare condizione emotiva. Intelligenza emotiva per percepire cosa accade in auto Nell’evoluzione dei sistemi di navigazione e guida autono- ma in campo automotive, la emotion AI, e le innovazioni nei sensori, possono forni- re un importante contributo, come illustra Chris Jacobs, Vice President Autonomous Transportation and Auto- motive Safety di Analog Devices (ADI), aggiornan- do la platea in occasione di un evento stampa a livello Emea, svoltosi in ottobre, nella sede irlandese di ADI a Limerick. “I dati generati dai nostri dispositivi devono es- sere di elevata qualità, non solo per fornire la miglior qualità di guida, ma anche per garantire la più elevata safety” sottolinea Jacobs. Il Emotion AI, è davvero affidabile? Intanto, mentre il mercato si popola di nuove e meno nuove startup, come la sta- tunitense Affectiva , nata nel 2009 da uno spin-off da par- te del MIT Media Lab , o l’ita- liana Emotiva , fondata alla fine del 2017, dopo due anni di ricerca e sviluppo nell’am- bito dell’affective computing, c’è chi sta riconsiderando il tema, e mettendo in guardia sul fatto che la emotion AI, e i suoi algoritmi di ricono- scimento di emozioni e sta- ti d’animo umani, potrebbe non essere sufficientemente affidabile come sistema da implementare in applicazioni commerciali e industriali. In particolare, uno studio pubblicato a luglio 2019 nel sito web di APS (As- sociation for Psychologi- cal Science), e intitolato Emotional Expressions Reconsidered: Challenges to Inferring Emotion From Human Facial Movements , suggerisce in sostanza che le espressioni emotive del volto, comunemente ricono- sciute come collera, disgu- sto, paura, felicità, tristezza, sorpresa, in realtà possano essere più complesse, e comunicare ben di più che un semplice stato emotivo. In altre parole, la ricerca fu- tura deve concentrarsi sul- lo sviluppo di algoritmi più sofisticati, basati sul con- testo, in grado di inferire il meglio possibile, in base ai movimenti facciali, le ricche sfumature dei diversi stati emotivi di un determinato soggetto: il futuro è svilup- pare una emotion AI più raf- finata, in grado ad esempio di discernere, in base all’e- spressione facciale, non grossolanamente uno stato di collera, ma di compren- dere con maggior profondità se, in realtà, tale collera sia piuttosto catalogabile come sentimento di frustrazione, irritazione, furore. (Light Detection and Ran- ging) “scannerless”, è in grado di catturare particolari di ogni scenario d’interesse con elevata risoluzione, rile- vando dettagli come la pre- senza di bambini a bordo, o altri dati: per quanto tempo gli occhi del guidatore riman- gono aperti, quante volte al minuto sbatte le palpebre, che aspetto ha il suo sguar- do. Per questo, continua Jacobs, ADI sta lavorando sui semiconduttori a livello di sistema, e collaborando con determinazione con i principali brand del settore ( Volkswagen , BMW , Volvo , Audi , Mercedes-Benz , Peu- geot , Bosch , Continental , Magneti Marelli ) per realiz- zare sistemi di trasporto au- tonomo più affidabili e sicuri. Gli algoritmi di AI e ML, pre- cisa Jacobs, devono arriva- re a comprendere e gestire la situazione anche in casi d’uso complessi, realizzan- do ad esempio la capacità del veicolo di adattare, in maniera affidabile e sicura, il sistema di guida autonoma ai differenti scenari di traffi- co cittadino esistenti in varie metropoli e città del mondo. Tuttavia, per raggiungere tale obiettivo, i sistemi devono essere riarchitettati, fonden- do le differenti e specifiche capacità di rilevamento dei vari tipi di sensori attraverso evolute tecnologie e metodo- logie di “sensor fusion”. EON EWS n . 634 - OTTOBRE 2019 L’intelligenza emotiva potenzia le interfacce uomo-macchina (Fonte: Pixabay) R EPORT

RkJQdWJsaXNoZXIy MTg0NzE=