Benefici e rischi dei Large Language Model nel cloud

Pubblicato il 30 gennaio 2024
Palo Alto Networks

Di Tristano Ermini, Manager, Systems Engineering di Palo Alto Networks

Qual è la correlazione tra i modelli linguistici di grandi dimensioni (LLM) e la sicurezza cloud? Questi modelli avanzati possono essere pericolosi, ma possono anche essere utilizzati per favorire la sicurezza dei sistemi basati su cloud. Un modello linguistico di grandi dimensioni è un programma di intelligenza artificiale progettato per comprendere il linguaggio umano e generare contenuti in linea con questo. Viene addestrato su grandi quantità di dati testuali provenienti da Internet, imparando grammatica, eventi e processi di ragionamento. Grazie a queste conoscenze, un LLM è in grado di rispondere a domande, generare testi e persino sostenere una conversazione con gli utenti. Esempi di LLM sono ChatGPT di OpenAI, Bard di Google e il motore di ricerca Bing di Microsoft.

Con il cloud computing che continua a dominare il panorama tecnologico, è diventato più importante che mai garantire una solida sicurezza a servizi e dati che risiedono nel cloud e proprio lo sviluppo di modelli linguistici di grandi dimensioni si è rivelato molto promettente per ottimizzarla.

I rischi degli LLM

Proprio per il carattere rivoluzionario della tecnologia LLM, ci sono problemi e limiti noti che i ricercatori di intelligenza artificiale devono ancora superare. Se da un lato l’AI generativa può produrre contenuti utili e accurati, dall’altro può creare disinformazione che confonde i consumatori. Analizziamo qui di seguito alcuni dei principali rischi:

Allucinazione

Gli LLM possono generare output non fondati sul contesto di input o sulla conoscenza del modello. Ciò significa che il modello linguistico genera un testo non logicamente coerente con l’input, o semanticamente scorretto, che risulta comunque plausibile a un individuo.

Pregiudizi

La maggior parte delle applicazioni LLM si affida a modelli preaddestrati, perché la creazione di un modello ex novo è troppo costosa per la maggior parte delle aziende. Tuttavia, poiché non esistono dati di addestramento perfettamente bilanciati, ogni modello avrà sempre qualche aspetto falsato. Ad esempio, i dati sulla formazione potrebbero contenere più testi in inglese che in cinese o più conoscenze sul liberalismo che sul conservatorismo. Quando gli esseri umani si affidano alle raccomandazioni di questi modelli, i loro pregiudizi possono portare a decisioni non corrette o discriminatorie.

Coerenza

Anche partendo dai medesimi input, gli LLM non generano sempre gli stessi output: sono modelli probabilistici che continuano a “prevedere” la parola successiva in base a determinate distribuzioni di probabilità.

Elusione dei filtri

Gli strumenti LLM sono tradizionalmente dotati di filtri di sicurezza per evitare che i modelli generino contenuti indesiderati, come quelli per adulti, violenti o non rispettosi del copyright. Tali filtri, tuttavia, possono talvolta essere aggirati, ad esempio, manipolando gli input (prompt injection attack). I ricercatori hanno dimostrato varie tecniche per istruire ChatGPT a generare testi offensivi o previsioni non fondate.

Privacy

Gli LLM possono solo ricevere input e generare output entrambi non crittografati, by design. Quando un modello proprietario viene offerto come servizio, ad esempio OpenAI, i service provider accumulano una grande quantità di informazioni sensibili o classificate, la cui violazione potrebbe essere catastrofica, come osservato nei recenti casi di takeover di account e incidenti di query trapelate.

Usi malevoli

Fake news e disinformazione

Grazie alle loro avanzate capacità di generazione del linguaggio, gli LLM possono creare contenuti convincenti, basati su input verosimili ma falsi, contribuendo alla diffusione di fake news, teorie cospirative o narrazioni con intenti negativi.

Attacchi di social engineering

I malintenzionati possono utilizzare gli LLM per creare sofisticati attacchi di social engineering, come le e-mail di spear phishing e contenuti basati sul deep fake.

Violazione della proprietà intellettuale

Gli LLM possono essere utilizzati per generare contenuti molto simili a materiale protetto da copyright, rappresentando un rischio per le aziende che si affidano alla proprietà intellettuale per mantenere un vantaggio competitivo.

Creazione di strumenti di attacco

L’AI generativa è stata utilizzata per verificare codice sorgente e scrivere nuovo codice e i ricercatori hanno dimostrato che può anche scriverne di pericolosi, come i ransomware. Ulteriori ricerche dimostrano che i criminali informatici usano ChatGPT anche per creare script di attacco.

Casi d’uso di LLM nella sicurezza cloud

Gli LLM non rappresentano solamente un rischio potenziale, ma possono anche assumere un ruolo positivo: se usati correttamente, possono essere sfruttati anche per migliorare la sicurezza cloud.

Automatizzare il rilevamento e la risposta alle minacce

Uno dei vantaggi più significativi degli LLM nel contesto della sicurezza cloud è la capacità di ottimizzare i processi di rilevamento e risposta alle minacce. Unendo la comprensione del linguaggio naturale, tipica degli LLM, alla Precision AI (Machine Learning o Deep Learning), si possono identificare potenziali minacce nascoste in grandi volumi di dati e modelli di comportamento degli utenti. Inoltre, imparando continuamente da nuovi dati, è possibile adattarsi alle minacce emergenti e fornire informazioni sui rischi in tempo reale, consentendo alle aziende di rispondere in modo rapido ed efficiente agli incidenti di sicurezza.

Migliorare la conformità alla sicurezza

Con la continua evoluzione dei quadri normativi, le aziende devono affrontare la sfida della compliance rispetto a vari standard e requisiti di sicurezza. Gli LLM possono essere utilizzati per analizzare e interpretare i testi normativi, consentendo di comprendere e implementare facilmente i controlli di protezione necessari. Automatizzando la gestione della conformità, possono ridurre significativamente l’impegno dei team di sicurezza, consentendo loro di concentrarsi su altre attività fondamentali.

Questo aspetto è estremamente importante per le soluzioni che richiedono un elevato livello di conformità e lo è ancora di più quando il cliente che le gestisce desidera rispettare determinate normative.

Prevenzione degli attacchi di social engineering

Gli attacchi di social engineering, come il phishing e il pretexting, sono tra le minacce più diffuse alla sicurezza cloud. Utilizzando gli LLM per analizzare i modelli di comunicazione e identificare i potenziali rischi, le aziende possono rilevare e bloccare in modo proattivo gli attacchi di social engineering. Grazie a capacità avanzate di comprensione del linguaggio, gli LLM sono in grado di discernere le sottili differenze tra comunicazioni legittime e dannose, fornendo un ulteriore livello di protezione per i sistemi basati su cloud.

Migliorare la comunicazione della risposta agli incidenti

Quando si parla di sicurezza cloud, un aspetto critico dell’incident response è rappresentato dall’efficacia dei processi di comunicazione. Gli LLM possono essere utilizzati per generare report accurati e tempestivi, rendendo più facile per i team di sicurezza comprendere la natura degli incidenti e coordinare le attività di risposta. Inoltre, possono essere adottati per creare comunicazioni chiare e concise con gli stakeholder, aiutando le aziende a gestire i rischi per la reputazione associati alle violazioni di sicurezza.

Gli LLM in Palo Alto Networks

In Palo Alto Networks, gli LLM sono impiegati principalmente per migliorare la modalità con cui l’utente si interfaccia con la console delle diverse soluzioni, con strumenti tipo Copilot oppure con la possibilità di effettuare query in linguaggio naturale.

Le funzionalità di Security fanno invece uso di Precision AI, come Machine Learning e Deep Learning.

Come Palo Alto Networks protegge dai rischi degli LLM

Come abbiamo visto, sebbene i vantaggi degli LLM siano numerosi, essi aumentano anche il rischio che i dipendenti delle organizzazioni diffondano dati sensibili attraverso le applicazioni di Generative AI, violando la conformità o i requisiti normativi.

Palo Alto Networks offre ai propri clienti un CASB di nuova generazione, in grado di identificare e bloccare l’accesso a interi cataloghi di app di Gen AI non autorizzate, che possono mettere a rischio utenti e dati. Inoltre, per le app consentite, il CASB può impedire la dispersione di dati sensibili su ChatGPT e altre app di uso comune, ad esempio quando gli utenti incollano codice sorgente o dati personali e/o sensibili negli appositi campi di queste applicazioni.



Contenuti correlati

Scopri le novità scelte per te x