La cybersecurity dell'era AI

L'AI può aiutare sia chi difende le infrastrutture sia chi le attacca, ma i primi hanno bisogno di una strategia ampia e focalizzata su risultati concreti e a breve termine

Autore: f.p.

Il rapporto tra cybersecurity e Intelligenza Artificiale è ormai chiaro: la seconda porta diversi vantaggi alla prima, e ne porterà sempre di più, ma parallelamente introduce nuovi rischi. Anche perché a usare l'AI sono tanto i "buoni" che difendono le reti quanto i threat actor che le attaccano. E "un campo in cui benefici e rischi di AI sono entrambi ben evidenti sono le infrastrutture critiche" - ha spiegato Andrea Campora, Managing Director, Cyber & Security Solutions Division di Leonardo, dal palco del Cybertech Europe 2024 - perché qui le nuove complessità dell'AI si aggiungono a quelle tradizionali, che già non sono poche.

La difesa delle infrastrutture critiche è di suo "multi-dominio" perché le minacce da affrontare sono molte e molto diverse fra loro: dagli attacchi fisici all'emergenza climatica, dalla convergenza IT/OT alla crescita della digitalizzazione. In questo scenario "l'AI introduce nuovi rischi - sottolinea Campora - che vanno dalle analisi errate per bias involontario alla capacità limitata di analizzare davvero eventi che non hanno precedenti storici, come quelli legati all'emergenza climatica".

Per chi opera nel campo delle infrastrutture critiche, quindi, cybersecurity prima e AI poi non si possono "aggiungere" all'esistente ma vanno viste in un modello più integrato. "Sta nascendo un nuovo campo che mette insieme IT, OT, affidabilità dell'AI, sostenibilità", spiega Campora. Un campo in cui la difesa della singola infrastruttura o del singolo sistema non va vista solo in sé ma anche "in una nuova strategia che sia integrata con quella di cybersecurity nazionale".

L'AI è già in campo

Una strategia trasversale di sicuro serve, perché le grandi realtà del settore privato e della PA stanno già ampiamente sperimentando le potenzialità "nocive" dell'AI, specie da quando strumenti come ChatGPT sono a disposizione di tutti, attaccanti compresi. "La GenAI sta semplificando molto la vita agli attaccanti - spiega Luigi Guaragna, Head of Global Cyber Security di Eni - e la sta complicando a chi deve difendersi. I vettori di attacco non sono cambiati, è che gli attacchi oggi sono molto più efficaci e subdoli".

Chiunque può ad esempio usare l'AI per fare analisi sui social network e creare attacchi di spear phishing molto personalizzati, e la cronaca della cybersecurity è fatta anche di esempi di deepfake sempre più frequenti e credibili. "La tecnologia oggi difficilmente aiuta a riconoscere che un messaggio vocale è malevolo, dobbiamo investire ancora in awareness e formazione: dalla consapevolezza che questi tipi di rischi esistono nasce la prima risposta per contrastarli", sottolinea Guaragna.

Fare cultura è necessario, oggi, anche perchè l'AI è già ampiamente diffusa in azienda, che lo staff di cybersecurity lo sappia o meno. Con importanti rischi per i dati, come spiega Matteo Cavallini, Head of Security and Systems Division di Consip: "Nell'utilizzo dell'AI il primo punto critico è la sicurezza dei dati, che deve mantenersi agli stessi livelli degli ambienti in cui i dati sono normalmente gestiti e utilizzati. Questo non è scontato per servizi e tecnologie che nascono in nazioni con ordinamenti diversi dal nostro".

Fornire strumenti di AI "ufficiali" riduce, e idealmente elimina, il rischio di dare in pasto i dati aziendali a servizi di AI che sono invece destinati a utenti consumer, con ovvi problemi di riservatezza e disclosure. Ma di per sé questo non basta: "deve essere accompagnato da un solidissimo processo di change management, perché chi produce contenuti diventa anche il controllore della loro qualità", ricorda Cavallini.

Il SOC autonomo? Sì, ma non ora.

L'altro lato della medaglia-AI è rappresentato dalle sue potenzialità positive. E le aziende stanno cercando di capire il modo migliore per concretizzarle. Le indicazioni dei progetti pilota sono utili, ma devono confrontarsi con la realtà dei sistemi in produzione e con la necessità di definire un ROI quantomeno orientativo.

Accenture una sua idea precisa ce l'ha: la "killer application" dell'AI è il modello dei cosiddetti "multiagent ecosystem", ecosistemi di agenti autonomi di AI che, tra l'altro, trovano proprio nella cybersecurity una applicazione ideale. Il tema è quello della Agentic AI, che lato sicurezza cyber significa arrivare a una "evoluzione intelligente del SOC - spiega Teodoro Lio, CEO di Accenture Italy - in cui gli agenti di AI hanno ruoli attivi, nel senso che possono eseguire azioni mirate per obiettivi precisi. Sempre con supervisione e controllo da parte del personale umano, che non diventa meno importante di prima: semmai di più, con ruoli e competenze riattualizzati".

L'AI come nuova frontiera dell'automazione nella cybersecurity è un concetto portato avanti da tempo e da molti vendor di settore, ma oggi le aziende utenti vedono questo tema con un certo pragmatismo: l'AI è certamente un aiuto ma prima bisogna mettere in sicurezza le componenti dell'AI stessa e ridurre la complessità dello stack tecnologico, probabilmente con un approccio a piattaforma più deciso.

Luigi Guaragna di ENI ribadisce questo pragmatismo, ricordando che al momento il SOC "autonomo" è più un modello a cui tendere che una realtà. "Le tecnologie attuali - spiega - oggi non hanno una maturità tale da consentirci di traguardare una visione del genere. Inoltre le aziende hanno una loro 'storia' di architetture di sicurezza, con una conseguente eterogeneità di sistemi ed architetture... Alla platformization ci arriveremo, ma nel medio-breve termine stiamo cercando di portarci a una architettura più convergente e razionalizzata, identificando nel contempo gli ambiti in cui le attuali funzioni di AI possono dare un contributo".


Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.