EO_508

DIGITAL CYBERSECURITY vari aspetti legati alla sicurezza che integrano funzioni di protezione scalabili basate su hardware come i compo- nenti della famiglia RA di Renesas . Tuttavia, l’aggiunta dell’intelligenza artificiale comporta l’introduzione di nuove minacce che si diffondono in aree protette, in par- ticolare sotto forma di attacchi ostili. Gli attacchi ostili sfruttano la complessità dei model- li di apprendimento profondo (DL – Deep Learning) e la matematica statistica di base per creare punti debo- li e sfruttarli sul campo, causando perdite di parti del modello, dati di apprendimento o risultati imprevisti. Ciò è dovuto al fatto che le reti neurali profonde sono assimilabili a “black box”, in cui il processo decisiona- le non è trasparente, a causa della presenza dei “livelli nascosti” (hidden layer) e gli utenti non sono disposti a rischiare i propri sistemi con l’aggiunta di una funziona- lità AI, rallentandone la proliferazione fino all’endpoint. Gli attacchi ostili sono diversi dagli attacchi informatici convenzionali poiché nelle tradizionali minacce alla si- curezza informatica, gli analisti della sicurezza posso- no correggere il bug nel codice sorgente e documentarlo ampiamente. Poiché nelle reti DNN non esiste una riga specifica di codice che possa essere valutata, lo scenario tende comprensibilmente a complicarsi. Gli attacchi ostili nella cultura pop possono essere visti in Star Wars. Durante le guerre dei cloni, l’Ordine 66 può essere considerato alla stregua di un attacco ostile in cui i cloni si sono comportati come previsto durante la guerra, ma una volta ricevuto l’ordine, si sono rivoltati, capovol- gendo le sorti della guerra. Esempi degni di nota possono essere trovati in molte ap- plicazioni. Un team di ricercatori, ad esempio, ha attac- cato adesivi su alcuni segnali di stop facendo in modo che l’AI lo rilevi come un segnale di velocità (Fig. 1).[1] Tale classificazione errata può portare a incidenti stradali e generare una maggior sfiducia del pubblico nell’utilizzo dell’IA nei sistemi. I ricercatori sono riusciti a ottenere il 100% di errori di classificazione in un ambiente di labora- torio e l’84,8% nei test sul campo, dimostrando l’indubbia efficacia degli adesivi. Gli algoritmi ingannati erano ba- sati su reti neurali convoluzionali (CNN), quindi possono essere estesi ad altri casi d’uso utilizzando la CNN come base per il rilevamento di oggetti e l’individuazione di parole chiave. Un altro esempio dei ricercatori dell’Università della Ca- lifornia, Berkley, ha dimostrato che aggiungendo rumore o perturbazione a qualsiasi musica o discorso, il model- lo di intelligenza artificiale potrebbe interpretare erro- neamente qualcosa di diverso dalla musica riprodotta o trascrivere qualcosa di completamente diverso, eppure quella perturbazione è impercettibile all’orecchio umano (Fig.2).[2] Questo può essere utilizzato in modo dannoso negli assistenti intelligenti o nei servizi di trascrizione basati sull’intelligenza artificiale. I ricercatori hanno riprodotto la forma d’onda audio che è simile per oltre il 99,9% al file audio originale, ma possono trascrivere qualsiasi file audio di loro scelta con una percentuale di successo del 100% sull’algoritmo DeepSpeech di Mozilla. Fig. 1 – Adesivi attaccati al segnale di STOP per ingannare l’AI facendogli credere che sia un segnale di velocità, gli adesivi (perturbazioni) sono usati per imitare i graffiti da nascondere in bella vista Fig. 2 – Aggiungendo una piccola perturbazione, il modello può essere indotto a trascrivere qualsiasi frase desiderata ELETTRONICA OGGI 508 - MARZO 2023 46

RkJQdWJsaXNoZXIy Mzg4NjYz