Una indagine di CrowdStrike su un ampio campione di esperti a livello globale svela che la maggior parte dei leader preferisce soluzioni di AI specifiche per la cybersecurity, valuta il ritorno di investimento e presta molta attenzione alla sicurezza stessa dell’AI.
Autore: Redazione SecurityOpenLab
Per gestire le sfide operative, la carenza di competenze e le minacce cyber sempre più sofisticate, l'80% dei leader della cybersecurity preferisce soluzioni di GenAI integrate in piattaforme unificate, piuttosto che applicazioni indipendenti. Il dato emerge dal report State of AI in Cybersecurity 2024 edito da CrowdStrike coinvolgendo oltre mille leader della sicurezza informatica a livello globale, fra le cui priorità sono risultati inoltre l’aumento delle capacità di rilevamento e risposta e la disponibilità di strumenti di GenAI progettati ad hoc per il settore, da impiegare per ottimizzare il lavoro degli analisti senza sostituire l'expertise umana. Consapevoli che l’AI non è esente da rischi, circa il 90% dei partecipanti ha messo inoltre l’accento sull'importanza di un'adozione responsabile delle AI, con particolare attenzione alla sicurezza e alla privacy.
Luca Nilo Livrieri, Director, Sales Engineering Southern Europe di CrowdStrike, ha commentato i risultati del report evidenziando alcune tendenze significative. “Una di queste riguarda la tipologia di AI richiesta – spiega Livrieri - Il 74% degli intervistati ritiene fondamentale utilizzare soluzioni di AI specifiche per la cybersecurity, anziché strumenti generalisti come ChatGPT o simili. Questo sottolinea la necessità di soluzioni dedicate, capaci di rispondere alle esigenze specifiche dei CISO e dei SOC manager, da applicare concretamente ai casi d’uso quotidiani dei SOC”.
Come accennato in apertura, l’altro tema chiave è il ruolo dell’AI come strumento di potenziamento delle capacità umane, piuttosto che come sostituto dell’expertise umano. A tale proposito Livrieri spiega che “nel contesto della cybersecurity l’AI non è vista come una minaccia, ma come un mezzo per velocizzare il tempo di detection e response agli attacchi. Questo approccio consente di prioritizzare le minacce e di fornire informazioni elaborate agli analisti umani, che rimangono fondamentali per la revisione e l’analisi finale degli incidenti. Aumentare la velocità operativa di un SOC è uno degli obiettivi principali”.
Sul fronte del ROI, Livrieri aggiunge delle informazioni interessanti: “attualmente, questo valore viene calcolato soprattutto sui nostri servizi, in particolare quando forniamo noi il servizio chiavi in mano. Un approccio, quest’ultimo, che consente un ROI di oltre il 400%. È in corso anche il calcolo della nostra AI per fornire ai clienti una metrica che possano usare internamente per valorizzare al meglio l’investimento; i primi risultati ci danno già un risparmio notevole in termini di tempo 'liberato' per analisti e costo.”
Un altro dato interessante emerso dalla ricerca è che il 61% degli intervistati considera l’AI uno strumento da maneggiare con cautela: solo il 39% ritiene che non presenti rischi. È quindi fondamentale adottare l’AI in modo responsabile, seguendo best practice adeguate, dato che può essere un target per attacchi come il data poisoning, che compromettono l’affidabilità dei modelli.
Un aspetto critico è rappresentato dalla cosiddetta "shadow AI", cioè l’uso di strumenti di AI in azienda all’oscuro dei team di security. Livrieri ha portato l’esempio di dipartimenti come il marketing o l’engineering, che potrebbero adottare AI per scopi specifici, senza che gli strumenti siano stati sottoposti a una revisione di sicurezza. L’intenzione è senza dubbio buona, ma può aprire a uno scenario di rischio che dev’essere gestito. “In risposta, CrowdStrike ha sviluppato strumenti per monitorare e gestire lo shadow AI, verificandone vulnerabilità, configurazione e sicurezza” sottolinea Livrieri.
Inoltre, c’è il tema della privacy e della sicurezza dei dati: l’adozione di un’AI deve garantire una gestione corretta dei dati sotto questi aspetti. “Tra i vari approcci emergono soluzioni come Charlotte, l’AI di CrowdStrike che utilizza una struttura basata su molti agent piuttosto che su modelli monolitici – rimarca Livrieri - Questo approccio consente di evitare l’esposizione diretta di modelli LLM agli utenti, riducendo i rischi".
Proprio i modelli LLM possono essere al centro di alcuni fra i maggiori rischi, come abbiamo descritto in recenti pubblicazioni. Livrieri ha infatti spiegato che uno degli aspetti principali della sicurezza dell'AI è la capacità di prevenire l'esposizione non autorizzata dei dati; “esistono diversi livelli di sicurezza nell'AI. Uno riguarda la gestione di dati sensibili, personali o aziendali, che non devono essere esposti in modo inappropriato. Pertanto, la sicurezza dell'AI implica la gestione di come questi dati, processati dai modelli, vengono trasformati in output”. In questo senso, per esempio, è fondamentale implementare un controllo degli accessi basato sui ruoli (Role-Based Access Control), in modo da garantire che solo gli analisti con determinati privilegi possano interagire con l'AI. È inoltre necessario applicare un filtro nelle interazioni tra l'utente, la console e il modello AI: significa che il dato sensibile, personale o aziendale, non dev’essere passato direttamente al modello, ma trasformato in un hash.
Fondamentale è poi quella che Livrieri presenta come “un'architettura multi-AI, in cui diversi agenti collaborano per fornire una risposta. In questa configurazione ci sono più livelli di controllo: un primo agente comprende la domanda, un secondo la indirizza verso i sotto-agenti appropriati e un terzo fornisce una risposta specifica. Se il sistema non è in grado di rispondere, raccoglie ulteriori dati per validare l'output. L'obiettivo è evitare che un modello LLM "nudo" (naked) esponga in modo diretto le risposte all'utente, senza alcun filtro”.
Oltre all’esposizione di dati, l’altro rischio ruota attorno alla possibilità che l’LLM fornisca output imprecisi. “Per esempio – argomenta il manager - in assenza di un'architettura multi-AI con agenti che verificano e convalidano gli output, un utente potrebbe ricevere una risposta errata o non prevista. Questo porta al tema del data poisoning, che riguarda gli attacchi al modello AI stesso: un LLM può essere manipolato con dati falsi, compromettendone le performance o inducendolo a fornire risposte sbagliate. Si tratta di un problema particolarmente rilevante se il modello è progettato male o se è eccessivamente esposto agli utenti finali”. A questo proposito Livrieri aggiunge che gli attaccanti potrebbero corrompere l'LLM come front-end o back-end, influenzandone sia le risposte che le performance, sfociando in una degradazione del modello, in un aumento di falsi positivi e negativi, e in un calo di funzionalità.
Da qui l’importanza di disporre di agenti dedicati a monitorare la sicurezza dell'AI e a controllare gli output esposti agli utenti, cosa che la piattaforma CrowdStrike fa: “un esempio pratico è dato dai flussi seguiti dalla piattaforma Falcon. Qui, dall'input iniziale al risultato finale, vari agenti lavorano in sinergia: alcuni si occupano di comprendere la richiesta, altri verificano l'output, coinvolgono le API necessarie e controllano la coerenza tra input e output. Questo processo è paragonabile al contare fino a dieci prima di parlare, con il ruolo degli agenti che funge da filtro per garantire risposte affidabili e sicure” sottolinea Livrieri.
Sul fronte dei vantaggi che l’AI comporta, anche CrowdStrike come molti altri vendor mette l’accento sull’incremento delle performance degli analisti, sulla riduzione dei falsi positivi. Livrieri aggiunge che CrowdStrike sfrutta questa risorsa anche per la simulazione di un percorso di attacco. “In pratica – sintetizza Livrieri - l'AI analizza una detection di un incidente o di un attacco su un determinato endpoint e simula le possibili strade che l'attaccante potrebbe percorrere, sia dall'interno che dall'esterno della infrastruttura, ipotizzando il percorso dell'attacco”.
Un ulteriore utilizzo dell'intelligenza artificiale da parte di CrowdStrike riguarda i comportamenti degli attacchi: “l'AI non si limita a simulare il percorso, ma identifica possibili indicatori di attacchi futuri. Per esempio, analizza le tecniche, tattiche e procedure che un attaccante potrebbe sviluppare combinando le informazioni presenti nella rete aziendale, mediante una funzionalità chiamata "Signal" che permette di anticipare nuove tecniche di attacco e di creare pattern predittivi” conclude Livrieri.
L'AI trova poi applicazione anche in ambiti più pratici. “Per esempio – argomenta il manager - genera automaticamente parser per l'integrazione di nuove soluzioni o tecnologie in azienda, come log di sicurezza di videocamere o altre sorgenti. Questa automazione semplifica l'integrazione delle soluzioni nei SOC e accelera la gestione dei log, migliorando l'interoperabilità e la capacità di integrazione con le soluzioni aziendali”. Altri use case includono il triage più rapido, la ridefinizione delle priorità, la gestione del percorso di attacco e, in generale, il potenziamento dei workflow, dall'identificazione del problema fino alla remediation.
Presentando altri punti di forza dell’AI di CrowdStrike, Livrieri ricorda che questa dotazione è pienamente integrata nella piattaforma proprietaria, frutto di oltre 12 anni di sviluppo. Analogamente alla piattaforma, quindi, l'AI di CrowdStrike lavora trasversalmente su tutte le sue aree: cloud, endpoint, identità e shadow IT, coprendo l'intera superficie d'attacco e beneficiando di una threat intelligence integrata trasversalmente in tutte le soluzioni. In virtù di questo, argomenta Livrieri, “l'AI di CrowdStrike fornisce risposte e visual detection ad alta fedeltà, con un basso tasso di falsi positivi, apprezzate anche da agenzie di sicurezza a livello mondiale. Alleniamo la capacità di detection di Charlotte AI basandosi sui nostri playbook testati sul campo da decenni integrando l’expertise umano a quello artificiale”.
Fra le peculiarità ci sono l'approccio OODA (Observe, Orient, Decide, Act) che permette di garantire azioni rapide e precise, e una visibilità completa delle vulnerabilità interne ed esterne, a cui vengono assegnati punteggi dinamici tramite il sistema brevettato ExPRT AI che identifica e prioritizza le vulnerabilità critiche, suggerendo all'azienda dove concentrare gli sforzi. Infine, l'azienda adotta un approccio rigoroso anche nell'acquisizione di nuove società, assicurando che ogni soluzione sia pienamente integrata prima di essere resa operativa.