Torna alla HomePage

Infosecurity Europe 2024: il momento del "AI overload"

L'AI è diventata il tema chiave per i CISO aziendali: è inevitabile, ma bisogna contenere i rischi di data governance e legati alle terze parti

Autore: f.p.

Difficile parlare oggi di cybersecurity senza tirare in ballo l'AI, che viene considerata da chi opera nel campo della sicurezza IT sia come una tecnologia certamente utile, sia come un elemento di notevole rischio. L'aria (tecnologica) che si respira a Infosecurity Europe 2024 è prevalentemente questa, soprattutto perché "il problema di fondo - spiega Henry Ajder, esperto e ricercatore in campo AI da diversi anni, dal palco dei keynote dell'evento - è che molte aziende hanno deciso di porre l'AI come una priorità strategica prima ancora di aver capito precisamente come usarla".

Sono gli inevitabili rischi dell'altrettanto inevitabile hype associato a una evoluzione tecnologica che certamente è d'impatto per tutte le aziende. Ma l'espressione che viene spesso usata durante gli interventi degli esperti e delle aziende è "AI overload": c'è un sovraccarico di AI che chi fa sicurezza nelle imprese deve in qualche modo gestire.

"La grande differenza tra questa ondata dell'AI e le precedenti - sottolinea in questo senso Tope Olufon, Senior Analyst di Forrester - è la semplicità d'uso: chiunque può usare uno strumento di AI, oggi. La conseguenza, per un CISO, è che non sono più da controllare pochi sviluppatori interni ma potenzialmente tutti i dipendenti dell'azienda".

In uno scenario in cui tutte le aziende vogliono usare l'AI, perché sembra essenziale, e comunque qualsiasi dipendente può creare problemi di "shadow AI" semplicemente perché usa ChatGPT o Copilot per il suo lavoro, il messaggio che viene passato ai CISO non è legato tanto alle imprecisioni e alla complessiva inaffidabilità degli algoritmi di AI quanto ai rischi di data governance e di supply chain security che si porta dietro l'utilizzo delle nuove piattaforme di AI.

La questione terze parti

Molte aziende sono in una vera e propria "fase FOMO": la paura di essere tagliate fuori (Fear Of Missing Out, appunto) dai potenziali benefici - anche solo di immagine - dell'AI le porta a scegliere in fretta la strada tecnologica da seguire. E la fretta non è sempre la migliore base per nuove strategie. "Avere fretta significa non fare una vera due diligence quando si scelgono nuovi fornitori di AI - spiega Stephanie Itimi, CEO di Seidea e responsabile cybersecurity di varie organizzazioni governative e ONG - con in più il problema che molte aziende non sanno nemmeno bene cosa chiedere ai loro potenziali fornitori e in che modo i loro servizi impattano sulla propria data governance".

Il risultato è un livello più elevato di "third party risk": nuovi service provider entrano direttamente nella gestione dei dati della nostra impresa e portano potenzialmente nuovi rischi. Di compliance, perché le regole che usano nella gestione dei nostri dati possono essere assai diverse da quelle che dobbiamo osservare. Ma anche di cybersecurity "pura", perché dalle loro piattaforme possono venire attacchi e data leak.

Non è una situazione semplice anche perché in generale le imprese hanno poche informazioni su cui basare le proprie scelte e le proprie strategie. Quelle più grandi, strutturate e dotate di risorse possono definire una propria strada e muoversi di conseguenza, ma anche in questo caso con una visibilità limitata alle proprie specificità ed al proprio settore.

"Servirebbero delle metriche comuni - spiega Itimi - che al momento non ci sono. Serve tempo. Man mano, le aziende di settori diversi inizieranno a condividere la loro conoscenze e le loro esperienze e questo permetterà a tutti di eliminare il 'rumore' e di ridurre i rischi di una nuova supply chain. Che poi è davvero il rischio principale quando si parla di AI oggi".

Sapere come muoversi

Fear Of Missing Out o meno, di certo molte aziende devono in qualche modo procedere sulla strada dell'AI. Per farlo in sicurezza "La strada migliore - spiega Tope Olufon - è partire da casi d'uso specifici e chiari. Identificare un problema specifico da affrontare con i tool di AI ma da questo andare in un certo senso a ritroso: capire bene perché si stanno analizzando certi dati, come si raccolgono, per avere quale risultato principale. Così si comprende bene se e come si può intervenire con l'AI".

Il pragmatismo, insomma, resta la raccomandazione migliore. "L'approccio alla data governance - sottolinea Olufon - è sempre lo stesso, anche con l'AI: partiamo da un corretto threat e risk model. Semmai il problema è che molte organizzazioni oggi non hanno la capacità di gestire correttamente i dati in ottica di AI".

Momenti "incerti" come questo però sono normali quando si vive una transizione tecnologica, ricorda Olufon: "La percezione e la gestione del rischio non sono cambiate, i principi fondamentali sono sempre quelli... Viviamo una fase in cui si sta assorbendo una nuova tecnologia: dobbiamo accettare che vi è associato un certo nuovo livello di rischio e bisogna mettere in atto le necessarie contromisure".

Servono quindi diversi passi propedeutici all'AI in quanto tale, il che però è una questione decisamente più complessa e in cui, ancora, la fretta non sta aiutando le aziende. Da qui un altro messaggio ai CISO: cercare di associare la sicurezza all'AI richiede la buona volontaà di tutti, meglio non affrontare la questione focalizzandosi solo sulla data compliance, che di norma è un argomento "indigesto" per buona parte del management.

L'elemento umano

Infine, l'elemento umano. Che come sempre quando si tratta di cybersecurity, resta l'anello potenzialmente debole anche quando si tratta di portare l'AI in azienda. "Di certo le aziende non possono, e nemmeno vogliono, impedire ai dipendenti di usare l'AI - spiega Stephanie Itimi - ma possono e devono indicare loro che non bisogna affidarle informazioni sensibili in nome di una maggiore efficienza. Servono formazione, upskilling, change management".

Questo per quanto riguarda i rischi specifici della data security. Per i problemi associati in generale all'affidabilità dell'AI e degli strumenti sul mercato, c'è poco che un CISO possa fare. "Non è pensabile che il dipendente medio diventi un fact-checker e inizi a pensare criticamente di fronte ai possibili risultati dell'AI", spiega Henry Ajder. Qui il problema è generale del mercato: "piuttosto che puntare esclusivamente a sistemi per la rilevazione di errori o deepfake, meglio creare una sicurezza dell'AI che parta dal basso". Ma per questo ci vorrà ancora del tempo. E che l'ondata dell'hype finalmente si ritiri.

Torna alla HomePage