L'Agentic AI promette difese autonome ma solleva rischi di controllo e trasparenza. Prepararsi ora è essenziale per contrastare gli attacchi futuri.
Autore: Redazione SecurityOpenLab
Si potrebbe evitare di agire di rincorsa, per una volta. Dopo la GenAI e gli LLM, la prossima frontiera - costituita dall’Agentic AI – è dietro l’angolo. L’argomento è ormai all’ordine del giorno: per chi avesse perso qualche puntata, ricordiamo che l'Agentic AI consiste in un’architettura avanzata di AI progettata per eseguire attività in modo autonomo. Sfrutta la GenAI per interpretare i dati, prendere decisioni informate ed eseguire azioni senza intervento umano, combinando autonomia e adattabilità.
Secondo i bene informati, i threat actor stanno già iniziando a sperimentare, utilizzando gli LLM per distribuire i propri agenti malevoli di Agentic AI che potrebbero fra qualche anno eseguire attacchi autonomi end-to-end. Non siamo ancora a questo punto, per ora si tratta “solo” di test per comprendere fino a che punto questi agent possono eseguire attacchi completi senza richiedere l'intervento umano. Ma il tempo stringe e sarebbe catastrofico aspettare che si concretizzi uno scenario alla Skynet prima di correre ai ripari.
Facciamo un passo indietro e cerchiamo di capire meglio la differenza di funzionamento dell’Agentic AI rispetto a un attuale LLM. Il ricercatore Sohrob Kazerounian spiega che gli LLM sono sviluppati e istruiti per svolgere lavori mirati, mentre l’Agentic AI per portare a termine una missione completa. È il motivo per il quale, nella pratica, se chiediamo a un LLM di scrivere del codice dobbiamo incrociare le dita e sperare che il codice prodotto non abbia troppe imprecisioni.
Quello scritto dall’Agentic AI, al contrario, funzionerebbe perché i modelli di Agentic AI suddividono gli obiettivi in sotto compiti ben definiti, dotando singoli agenti della capacità di eseguire ciascuno un diverso sotto obiettivo. Nello scenario della scrittura di codice, un agente agirebbe da coordinatore, uno scriverebbe il codice, un altro condurrebbe i test delle singole unità di codice e un altro ancora si occuperebbe del debug di eventuali errori.
Ovviamente i vantaggi non mancano. Circoscrivendo l’ambito alla cybersecurity, se una Agentic AI rilevasse un attacco, potrebbe attuare un'indagine, disattivare un’utenza, disconnettere un sistema dalla rete adattando le strategie di difesa in funzione delle mosse degli attaccanti, senza la necessità di istruzioni pre-scriptate. Il tutto a velocità macchina.
Sull’altra faccia della medaglia ci sono i contro. Uno su tutti lo ha evidenziato Massimo Carlotti di CyberArk in una recente intervista: l’adozione degli Agent AI implica una deliberata rinuncia a un certo livello di controllo perché le loro decisioni possono sembrare imprevedibili. È una questione di trasparenza, del fatto che l’Agentic AI agisce in una scatola nera, ossia prendendo decisioni che gli esseri umani (i team SOC in particolare) potrebbero non comprendere appieno. L’ovvia conseguenza di un approccio poco trasparente e in parte incomprensibile è un aumento del rischio di decisioni errate o di azioni non intenzionali che potrebbero compromettere i sistemi.
Poco importa se il saldo del rapporto fra vantaggi e svantaggi sia positivo o negativo: siamo obbligati ad adottare l’Agentc AI. Perché, come detto sopra, gli attaccanti li stanno già testando. È solo questione di tempo prima che assisteremo ad attacchi reali, che permetteranno agli threat actor di ottenere ampi benefici in termini di tempo e costi di attacco su scala, a fronte di danni notevoli.
L’atteggiamento corretto è quindi quello di trasformare un problema in un’opportunità e di iniziare fin d’ora a cambiare drasticamente l’approccio alla difesa cyber, avviando una corsa agli armamenti per creare, testare e attuare fin d’ora l’Agentic AI con l’obiettivo di accelerare l'analisi delle minacce, i tempi di risposta agli incidenti e assistere i team di sicurezza nei processi decisionali. Questo richiede l'implementazione di modelli di AI predittivi di qualità, in grado di filtrare le fonti di dati ad alta dimensionalità in segnali attivabili, sia attraverso la detection che tramite contesto, al fine di alimentare il processo investigativo. Sarà una sfida importante e le basi che prepariamo oggi definiranno quanto sarà efficace la difesa contro attacchi gestiti dall’Agentic AI.