Implementare l’Intelligenza Artificiale: comprendere le tecniche di attacco dei cybercriminali per bilanciare obiettivi di business e requisiti di sicurezza

Pubblicato il 20 maggio 2024
Veracode

A cura di Massimo Tripodi, Country Manager di Veracode Italia

Artificial Intelligence (AI) e machine learning sono diventati strumenti essenziali per le aziende di ogni settore e dimensione. A ragione, se consideriamo che per il 56% dei responsabili aziendali l’AI rappresenta un vantaggio competitivo importante, secondo dati Forrester/Experian. È un trend riconosciuto a livello globale, con ripercussioni evidenti anche sull’Italia: nel 2023 il mercato nazionale dell’AI ha fatto segnare un +52%, raggiungendo il valore di 760 milioni di euro, dopo aver già registrato un +32% nel 2022 rispetto all’anno precedente (dati Osservatorio Artificial Intelligence della School of Management del Politecnico di Milano).

Tuttavia, l’adozione di queste tecnologie necessita la giusta considerazione e la ricerca di equilibrio tra obiettivi di business e requisiti di sicurezza, entrambi potenzialmente impattati dalla crescente adozione dell’AI. Questo richiede ai team IT la capacità di comprendere strategie e tattiche dei criminali informatici alla luce di questa evoluzione tecnologia, in modo da poter implementare e soddisfare i più adeguati requisiti di protezione per contrastarli. Si tratta in sostanza di una vera propria corsa agli armamenti che si giocherà tra difensori e attaccanti.

Come l’AI aiuterà i difensori

Senza dubbio ci saranno grandi miglioramenti nella sicurezza informatica e l’AI potrà essere un valido strumento per risolvere le vulnerabilità. Tuttavia, sarà necessario prevedere uno shift left dell’utilizzo dell’AI per eliminare le vulnerabilità in partenza, invece di controllare registri e traffico di rete per tentare di rilevare gli attaccanti.

Inoltre, l’intelligenza artificiale rappresenterà una sorta di assistente junior degli analisti SOC, alleggerendoli di fatto di una parte di compiti, più ripetitivi o a meno valore aggiunto. In particolare, la GenAI permetterà di ottimizzare le risorse dedicate alla protezione dei dati, più precisamente per la remediation, route course analysis e alla postura di sicurezza.

Come l’AI aiuterà i cybercriminali

L’intelligenza artificiale aiuterà gli attaccanti a scalare la portata degli attacchi di social engineering e di impersonificazione. Ad esempio, se un criminale informatico compromette l’indirizzo di posta elettronica di un direttore finanziario, avrà comunque bisogno di tempo per esaminare le vecchie email e comprendere come la vittima si rivolge a determinate persone, al fine di imitarla con successo in un attacco di social engineering. Se questa tipologia di attacchi richiedeva molto tempo per essere eseguita, con l’AI generativa i cybercriminali possono accelerare immensamente il processo, fornendo allo strumento AI i dati di partenza. Con essi, l’intelligenza artificiale generativa può scrivere testi e imitare voci individuali a velocità elevatissima. Attacchi di phishing, spear phishing, pig butchering e compromissione delle email aziendali rappresenteranno un rischio enorme per le organizzazioni nei prossimi cinque anni. E si tratta di attacchi che hanno provato sul campo il loro successo nel corso degli anni.

Infatti, le falle saranno create in modo tale da non essere rilevabili tramite la revisione umana del codice, portando a diversi attacchi diffusi alla supply chain delle aziende che utilizzano inconsapevolmente pacchetti OSS compromessi nel loro software. Le soluzioni di sicurezza basate sull’intelligenza artificiale automatizzeranno molte delle semplici attività attualmente svolte dal personale di sicurezza, come il rilevamento delle minacce, la risposta agli incidenti e il patching. In questo modo i team IT potranno recuperare tempo prezioso per concentrarsi su attività più complesse, come la gestione delle vulnerabilità, la valutazione dei rischi e la progettazione dell’architettura di protezione.

Soluzioni (e sfide)

I team IT hanno bisogno di un’autenticazione più forte e di una verifica dell’identità dei loro interlocutori. È necessario che la tecnologia AI legittima debba essere verificata e convalidata in partenza, come nel caso delle fotocopiatrici a colori: quando raggiunsero un livello di precisione tale da poter facilmente contraffare il denaro, i servizi segreti statunitensi riuscirono a convincere un gran numero di produttori a inserire una filigrana in tutte le pagine stampate. Se non si fossero adeguati, avrebbero potuto essere considerati complici della contraffazione effettuata tramite i loro dispositivi. Questo ha spinto i produttori a incorporare volontariamente i watermark.

Ora si potrebbe proporre alle aziende di AI legittima di fare lo stesso, e questo ha elevate probabilità di accadere. La sfida è rappresentata dagli strumenti di AI completamente open source, con gli attaccanti che potrebbero potenzialmente decodificare il firmware ed eliminarlo. I criminali più sofisticati possono già farlo, mentre sarà più difficile per i meno esperti. Il problema dell’intelligenza artificiale è che ogni persona, anche senza esperienza, può scaricarne una open-source e sarà impossibile aggiungere quel tipo di watermarking come con le stampanti. La soluzione potrebbe essere quella di rendere illegale la mancata divulgazione dell’AI, aggiungendo un ulteriore reato a carico dei criminali che la utilizzano, anche se in realtà, probabilmente, questo non sarà un deterrente decisivo.

Conclusione

L’implementazione di strumenti AI e machine learning all’interno di un’azienda richiede una comprensione profonda degli obiettivi di business e dei requisiti di sicurezza. Adottando un approccio di implementazione gestita, le aziende possono sfruttare i vantaggi dell’AI, garantendo al contempo conformità, trasparenza e processi decisionali etici. D’altro lato, comprendendo le tecniche di aggressori e difensori, è possibile avere un numero maggiore di dati a disposizione per identificare e implementare le migliori tecniche possibile al fine di evitare e contrastare le vulnerabilità e le intrusioni. L’elemento umano rimane essenziale nel ciclo decisionale dell’intelligenza artificiale per sostenere gli standard etici e allinearsi alle norme sociali. Con la continua evoluzione dell’AI, le aziende dovranno dare priorità all’uso sicuro e responsabile di queste tecnologie per promuovere l’innovazione e raggiungere i propri obiettivi.



Contenuti correlati

  • Cloudera
    Sei nuovi acceleratori per progetti di ML da Cloudera

    Cloudera ha annunciato sei nuovi acceleratori per progetti di ML (AMP). Le AMP sono progetti end-to-end basati sull’apprendimento automatico (ML) che possono essere distribuiti direttamente dalla piattaforma Cloudera. Gli acceleratori sono stati concepiti per ridurre il time-to-value...

  • Veracode
    Dall’università al mondo del lavoro: come colmare il divario di competenze nella sicurezza informatica

    A cura di Massimo Tripodi, Country Manager Italia di Veracode Con l’intensificarsi delle minacce informatiche, la sicurezza del software è diventata una priorità per le aziende. È sorprendente notare che oltre il 70% delle organizzazioni è vittima...

  • ESET
    L’AI sul posto di lavoro: il buono, il cattivo e l’algoritmico

    Se da un lato l’AI può liberarci da compiti noiosi e persino eliminare l’errore umano, dall’altro è fondamentale ricordare le sue lacune e le capacità uniche messe in campo dagli esseri umani Di Fabio Buccigrossi, Country Manager...

  • Proofpoint
    Artificial Intelligence: scudo e spada nella cybersecurity moderna

    Daniel Rapp, Group Vice President, AI/ML, Proofpoint, riassume le opportunità e le sfide che la rapida diffusione dell’AI sta portando alle aziende in tema di sicurezza cyber. L’intelligenza artificiale è sulla bocca di tutti, e il mondo...

  • Tempi di remediation azzerati e massima sicurezza: la rivoluzione dell’automazione e dell’AI

    L’automazione non toglie agli sviluppatori la responsabilità di una codifica sicura, bensì li supporta evidenziando errori o lacune in fase iniziale e suggerendo soluzioni Leggi l’articolo completo su EMB93

  • Ripensare l’AI per rivoluzionare i flussi di lavoro

    In che modo l’intelligenza artificiale cambierà nel prossimo futuro il modo in cui lavoriamo, innoviamo e creiamo? È stato questo il tema del TOUGHBOOK Innovation Forum, un evento che ha avuto luogo a Stoccolma per approfondire le...

  • Intel
    Intel porta le sue GPU Arc nelle automobili

    Intel è entrata nel segmento delle GPU discrete per applicazioni automotive presentando la sua prima unità dGPU per questo settore. Le GPU sono quelle con architettura Arc e i prodotti inizieranno a essere distribuiti commercialmente nei veicoli...

  • AMD
    AMD acquisisce ZT Systems e punta sull’AI

    AMD  ha annunciato la firma di un accordo definitivo per l’acquisizione di ZT Systems, un fornitore di infrastrutture AI per le più grandi aziende di elaborazione hyperscale al mondo. La transazione in contanti e azioni è valutata...

  • Juniper
    Un’analisi di Juniper Networks per l’AI nelle reti

    Gli esperti di Juniper Networks hanno riassunto le principali potenzialità delle piattaforme di networking AI native, a seconda del caso d’uso specifico. Le piattaforme di networking AI native, infatti, possono essere utilizzate nell’ambito dell’AI per il networking,...

  • Panasonic
    Ripensare l’AI per rivoluzionare i flussi di lavoro

    di Ulrika Sturk, Nordics Regional Marketing Manager di Panasonic TOUGHBOOK In che modo l’intelligenza artificiale cambierà nel prossimo futuro il modo in cui lavoriamo, innoviamo e creiamo? È stato questo il tema del recente TOUGHBOOK Innovation Forum,...

Scopri le novità scelte per te x