L’AI sta rivoluzionando la cybersecurity: dalle minacce come deepfake e malware AI-driven, alle difese avanzate e competizioni globali. L'Europa deve accelerare per competere.
Autore: Redazione SecurityOpenLab
L’Intelligenza Artificiale tiene banco da tempo e continuerà a farlo a lungo. Circoscrivendo il campo alla cybersecurity, la buona notizia è che forse non dovremo lambiccarci a lungo il cervello sulle solite, poche e tediose considerazioni su guardie e ladri. A portare uno spiraglio di novità - non sulle soluzioni, ma sui punti di vista da cui analizzare la questione - ci ha pensato il Vice President di WithSecure Intelligence, Paolo Palumbo, che ha proposto in un incontro stampa una discussione sull’evoluzione del threat landscape in relazione alla diffusione dell’intelligenza artificiale.
La premessa è sempre la stessa: l’AI è uno strumento e in quanto tale l’uso che ne viene fatto – positivo o negativo che sia – dipende dall’utente, non dalla tecnologia stessa. Detto questo, quello che Palumbo ha fatto è variare il punto di vista. Sovente la discussione che ci viene proposta sull’AI è vendor-centrica: il vendor presenta una precisa esigenza, a cui fa fronte la sua soluzione. Un passaggio lecito, a monte del quale però sarebbe importante mettere a fuoco lo scenario complessivo, così da comprendere meglio (e in maniera indipendente) il contesto in cui si sviluppano i problemi che ci riguardano direttamente.
È proprio in quest’ottica che la discussione con Palumbo è stata produttiva: il manager ha portato all’attenzione applicazioni concrete ma poco pubblicizzate dell’AI, che sono di per sé intriganti perché costituiscono un elemento di novità per molti; in più la loro stessa esistenza ha fatto emergere diversi interrogativi.
Partiamo dall’uso dell’AI come strumento di offesa. Si fa tanto parlare del rischio che l’AI venga usata per scrivere codice malevolo, ma Gianluca Galasso, Direttore del Servizio Operazioni/ CSIRT Italia, Agenzia per la Cybersicurezza Nazionale (ACN), pochi giorni fa ha precisato che al momento non c’è evidenza di codice malevolo generato in modo completamente automatico. La threat intelligence delle big tech che erogano servizi AI - per esempio OpenAI e Google - in buona parte conferma queste affermazioni.
Paolo Palumbo ha mostrato stralci dei report pubblicati dalle aziende sopra citate, da cui emerge che ChatGPT è stato usato per attività di basso livello, come il debug di un malware, l’assistenza nella creazione di uno scraper per Instagram o la banale traduzione di profili LinkedIn. Un report analogo di Google giunge alla stessa conclusione. In entrambi i casi i dati riguardavano le attività di attori sponsorizzati da stati nazionali (APT) legati a Iran, Cina, Corea del Nord e Russia – il che lascia trasparire, tra l’altro, che sia attivo un qualche meccanismo di controllo delle sessioni di chat con gli LLM per scopi di threat intelligence. In più, nel report di Google si parla del fatto che i threat actor hanno manifestato interesse per il bypass dei metodi di sicurezza e per il jailbreak, anche se al momento senza successo.
Queste informazioni stimolano diverse riflessioni. La prima è: tutto qui? Davvero dobbiamo credere che attori di alto profilo come quelli in questione si scomodino a usare l’AI per porre domande banali? Difficile da credere. Così com’è difficile credere che un cyber criminale “navigato” usi modelli pubblicamente disponibili senza preoccuparsi che le attività vengono in qualche modo monitorate.
Una chiave di lettura potrebbe essere che i dati hanno semplicemente fotografato una fase “esplorativa” delle potenzialità dell’AI. Restando nel solco delle attività di base, un’altra interpretazione emersa durante la discussione riguarda l’eventualità che allo stato attuale – considerato l’opportunismo dei cyber criminali – l’impiego dell’AI sia mirato ad accelerare i tempi (che è comunque un risultato importante). Si pensi per esempio alle campagne di phishing.
C’è poi una terza interpretazione, ossia che i threat actor – che hanno compreso perfettamente i vantaggi derivanti dallo sfruttamento delle AI – stiano banalmente temporeggiando. Al riguardo Palumbo ha ricordato che gli attaccanti tendono a prediligere il massimo risultato con il minimo sforzo: potrebbe non essere ancora giustificato un investimento di tempo e risorse nell’implementazione fattiva di strumenti di AI negli attacchi, dato che le tecniche in uso sono ancora efficaci.
Detto questo, è lecito supporre che esistano altri modelli, non di dominio pubblico, sfruttati per attività illecite di alto livello e tenuti volutamente nascosti, per esempio dagli Stati canaglia. Del resto, è nota l’esistenza di modelli open source che possono essere scaricati e in molti casi eseguiti su macchine locali. Inoltre, il “caso” DeepSeek insegna che è possibile addestrare modelli con investimenti finanziari e risorse hardware relativamente contenuti. Capacità che non mancano certo in un ambiente, come quello del cybercrime, il cui giro d’affari raggiunge annualmente trilioni di dollari, come sottolineato qualche giorno fa da Marco Balduzzi, Presidente No Hat e Senior Threat Researcher Trend Micro.
La conclusione più corretta pare quindi che allo stato attuale c’è evidenza solo di un uso indiretto delle risorse “powered by GenAI”, che è molto difficile da verificare.
Se l’impiego della GenAI per la costruzione degli impianti di attacco è tutta da chiarire, quello della generazione dei deepfake è invece una certezza. Soprattutto quando si parla di un utilizzo dei deepfake come strumento di disinformazione, di manipolazione dell'opinione pubblica. I social hanno riportato decine di esempi che mostrano la qualità audio e video e il potenziale di queste tecniche, soprattutto quando vengono amplificate dai social e dall’opinione pubblica.
In questo frangente il problema è che molti utenti non sono pronti per una tecnologia così dirompente e non sono in larga percentuale capaci di distinguere chiaramente fra un video falso e uno vero. È verosimile aspettarsi l’arrivo di soluzioni tecnologiche che saranno di supporto per questo scopo: fra le varie ipotesi, una credibile è per esempio la creazione di qualcosa di simile alle firme digitali dei software legittimi. Ma la fallibilità di tali soluzioni è comprovata dai numerosi attacchi che sono andati a buon fine abusando proprio delle firme.
La conclusione a cui si approderà sarà probabilmente un mix fra la soluzione tecnologica e l’awareness, che non è certo una strada facile da percorrere e non garantisce un risultato sicuro. Tuttavia, la formazione è ormai diventata imprescindibile per tutti i cittadini, a prescindere dall’età, dallo stato sociale e da qualsivoglia fattore ulteriore.
Passiamo al fronte opposto, quello della AI come strumento di difesa. Anche qui Palumbo ha preparato uno stimolo forte per la riflessione: l’AI Cyber Challenge di DARPA. Per chi non la conoscesse, si tratta di una competizione ideata da DARPA (Defense Advanced Research Projects Agency) per spronare lo sviluppo di sistemi di AI capaci di migliorare la sicurezza informatica delle infrastrutture digitali, sempre più critiche in un mondo interconnesso. In estrema sintesi, ai concorrenti è stato richiesto di ideare sistemi AI capaci di analizzare, identificare e correggere automaticamente le vulnerabilità presenti nel codice a cui fanno capo le infrastrutture digitali. Il contest prevede un montepremi di 30 milioni di dollari, è indirizzato ad aziende, ricercatori e sviluppatori e la fase finale è ancora in corso.
Questo esempio è importante perché fa capire che le competizioni aperte, come quella sopraccitata, rappresentano un motore unico e straordinario per l’innovazione nella cybersecurity. Questi eventi non si limitano a stimolare il talento di esperti e ricercatori: creano un ambiente altamente competitivo che accelera lo sviluppo di soluzioni all’avanguardia, che poi non restano confinate al contesto originario ma possono essere adattate e applicate a una vasta gamma di scenari, dalla protezione delle infrastrutture critiche alla difesa da minacce emergenti nel settore pubblico e privato.
È proprio questo effetto di propagazione ad amplificare l’impatto positivo delle nuove tecnologie, e a dimostrare che la collaborazione globale resta un elemento chiave per rafforzare la cybersecurity su scala mondiale. L’IA si sta rivelando uno strumento imprescindibile per anticipare e contrastare minacce sempre più sofisticate, ma il suo sviluppo richiede un ecosistema aperto, in cui chi ha le competenze possa sperimentare e imparare dagli altri, in un contesto neutrale in cui l’innovazione non sia solo un vantaggio competitivo, ma una necessità globale.
Sopra, in relazione all’AI come strumento di offesa, abbiamo parlato di un uso indiretto delle risorse “powered by GenAI”. Palumbo non ha mancato di proporre un paio di esempi pratici di possibili applicazioni malevole dell’AI. In entrambi i casi si tratta di Proof of Concept di malware che sfruttano gli LLM (per esempio ChatGPT) per generare dinamicamente codice dannoso. Si tratta di potenziali minacce che rappresentano un’evoluzione rispetto ai malware attuali, con lo scopo di dimostrare la possibile evoluzione delle future minacce informatiche.
Il primo esempio è LL Morpher, il cui materiale è pubblicamente disponibile su GitHub. L’attacco inizia con il solito messaggio ingannevole che spinge la potenziale vittima ad azionare l’attacco selezionando un file. Oggi tale file sarebbe un payload, oppure il loader di un payload. Nel caso di LL Morpher, il file iniziale non contiene alcun codice e non esiste in forma leggibile fino al momento della sua esecuzione. Infatti, tale file invia a un LLM (per esempio ChatGPT) la richiesta in linguaggio naturale di generare uno script Python che svolga una determinata funzione. La risposta dell’LLM è un codice che viene eseguito direttamente sulla macchina infetta nel momento in cui viene generato.
Così facendo la rilevazione da parte delle soluzioni è fortemente complicata. Anche perché i ricercatori hanno inserito un ulteriore livello di difficoltà, il polimorfismo: sfruttando le peculiarità dell’AI, è stata prevista la generazione di varianti sempre diverse del codice così da complicare ulteriormente l'analisi e la prevenzione delle infezioni.
Un altro esempio di malware AI-driven è Black Mamba, sviluppato dall’azienda di cybersecurity HYAS. Ha in comune con LL Morpher il codice malevolo non scritto in modo esplicito nel file iniziale. A distinguere Black Mamba è la composizione in due parti: un componente benigno scritto in Python e un payload polimorfico dinamicamente generato. A differenza di LL Morpher, Black Mamba è più strutturato.
La buona notizia è che entrambe le minacce descritte sono al momento PoC e non sono state usate nel mondo reale. Quella meno buona è che entrambe le tecniche dimostrano il potenziale dello sfruttamento dell’AI per la creazione di malware sofisticati e difficili da rilevare. Inoltre, Palumbo sottolinea come in futuro, con l’integrazione dell’AI nei sistemi operativi, un approccio simile a quelli visti sopra potrebbe verosimilmente portare alla creazione di virus che si eseguono semplicemente descrivendo in linguaggio naturale ciò che l’attaccante vuole ottenere.
I due esempi stimolano altre riflessioni. Prima di tutto, l’uso del linguaggio naturale al posto del codice ha anche il potenziale di agevolare ancora di più chi non possiede competenze tecniche avanzate, ampliando ulteriormente la platea degli attaccanti (e per conseguenza il numero e la frequenza degli attacchi).
A questo punto verrebbe da chiedersi perché non vediamo ancora in azione malware come questi? La discussione ha portato a definire come prioritarie due delle possibili risposte. La prima è che gli attaccanti stanno ancora “prendendo le misure” con queste tecnologie: Palumbo ha sottolineato che l’uso dell’AI per creare malware richiede una curva di apprendimento (quindi un investimento di tempo e denaro) e molti threat actor preferiscono affidarsi a metodi tradizionali fintanto che la loro efficacia non diminuirà.
La seconda opzione si lega alla prima perché fa riferimento proprio al ritorno sull’investimento: è noto che i criminali informatici economicamente motivati preferiscono la massima resa con il minimo sforzo. Creare malware basati su AI è complesso e, almeno per ora, non giustifica il costo e il tempo necessari. Certo, nel momento in cui gli attacchi attuali non saranno più efficaci le cose cambieranno, ed è in questo scenario che dobbiamo attenderci un aumento degli attacchi basati sull’AI.
Verosimilmente, in un contesto come quello appena descritto ci dovremo attendere campagne autonome in grado di condurre attacchi complessi su più fronti: lo sfruttamento dell’AI per la generazione di codice e l’attuazione di operazioni di social engineering avanzate, come il vishing. Proprio in relazione a quest’ultimo elemento preoccupa uno studio accademico citato da Palumbo, che ha dimostrato l’efficacia del vishing basato su AI: il 52% dei partecipanti ha considerato credibili le chiamate fraudolente, e il 63% le ha ritenute realistiche. Inoltre, il costo di un attacco di questo tipo è compreso tra 0,38 e 1,13 dollari, quindi è accessibile anche ad attaccanti con risorse molto limitate.
Il terzo ambito trattato da Palumbo dopo l’AI a scopo di attacco e di difesa è quello dei rischi legati alle AI. Il nocciolo della discussione è che le aziende, sia pubbliche che private, devono essere in grado di riconoscere e gestire i rischi legati alle AI perché l’intelligenza artificiale è una realtà ormai consolidata, che non può essere ignorata, né esclusa dalle strategie aziendali perché – sottolinea l’esperto, “chi sceglie di non affrontarla rischia semplicemente di restare indietro. È quindi essenziale un approccio educativo e strutturato, basato su risorse accademiche e strumenti di analisi che permettano alle organizzazioni di identificare, comprendere e mitigare i rischi”.
Quali sono queste risorse? Palumbo ricorda che, fortunatamente, a livello globale stanno emergendo framework e tassonomie che aiutano a classificare e affrontare queste sfide. Tra questi, il manager ha portato all’attenzione dei media il Risk Repository del MIT, che a suo avviso rappresenta una risorsa fondamentale per esplorare le diverse categorie di rischio associate all’AI.
Uno dei temi più discussi riguarda il punto 4, ossia i pericoli legati ai threat actor e l’uso improprio o malevolo della tecnologia, con potenziali impatti sulla sicurezza e sull’integrità dei sistemi. Tuttavia, i rischi non si fermano qui. L’AI può generare discriminazione, amplificare la diffusione della disinformazione e sollevare problemi di affidabilità e sicurezza dei sistemi stessi.
Proprio l’adozione di framework come quello del MIT secondo Palumbo rappresenta un passo importante per la messa in sicurezza dei sistemi in quanto offre una mappatura chiara delle minacce, così da permettere alle aziende lo sviluppo di strategie di protezione efficaci, e in ultima analisi di trasformare la consapevolezza dei rischi in un vantaggio competitivo.
Nel panorama globale dell’intelligenza artificiale, il vuoto lasciato dall’Europa è diventato insostenibile. Gli Stati Uniti hanno consolidato una leadership tecnologica indiscussa; iniziative come la cinese DeepSeek hanno dimostrato che è possibile sviluppare modelli AI altamente competitivi a costi ridotti e che l’innovazione non è esclusiva delle big tech con risorse economiche gargantuesche.
La buona notizia è la recente decisione della Commissione Europea di investire oltre 65 milioni di euro nell’IA. Gli investimenti mirano a migliorare l'affidabilità e la trasparenza dei sistemi AI, oltre a rafforzare il ruolo dell’Europa nella standardizzazione globale. È un segnale senza dubbio positivo, anche se ancora insufficiente per colmare il divario con le grandi potenze tecnologiche.
L’Europa, infatti, continua a dipendere da infrastrutture tecnologiche extraeuropee. Il discorso non è circoscritto all’AI: si pensi per esempio al cloud computing o ai sistemi operativi. Una dipendenza che – soprattutto in questo momento storico - pone un problema strategico: benché i fornitori statunitensi garantiscano accesso a servizi di alto livello, il rischio di perdita della sovranità tecnologica è concreto, specie in ambiti critici come la gestione dei dati sensibili.
Resta quindi la necessità di una strategia europea più ambiziosa e coesa, capace di incentivare la crescita di un ecosistema AI indipendente, sicuro e sostenibile, anche passando per l’agevolazione dell’accesso ai finanziamenti per le startup europee. Allo stato attuale, infatti, è difficile competere con quelle statunitensi, che possono contare su un ecosistema di venture capital dinamico e aggressivo.