Intelligenza Artificiale come strumento sia per i difensori che per gli attaccanti, e anche come vittima: la situazione oggi e come WithSecure la gestisce.
Sphere 2024 è stata l’occasione per incontrare molti esperti di vari aspetti della cybersecurity. Fra questi è particolarmente interessante l’area operativa di Paolo Palumbo, Vice President di WithSecure Intelligece, con cui abbiamo discusso di Intelligenza Artificiale come strumento sia per i difensori che per gli attaccanti, e anche come vittima.
Palumbo chiarisce prima un punto che non è da sottovalutare: sono anni che si parla di AI, ma il rilascio di ChatGPT ha costituito un importante momento di svolta perché ha dato la possibilità alle persone comuni di ingaggiare una relazione con le macchine attraverso il linguaggio naturale, anziché utilizzare linee di codice, linguaggi di programmazione e altre attività al di fuori della portata della persona media.
“Dal punto di vista dei difensori, sono molti anni che noi utilizziamo l'Intelligenza Artificiale – sottolinea Palumbo - precisamente dal 2005. Nel tempo i nostri prodotti hanno sfruttato l’AI per analizzare i file al fine di individuare malware, abbiamo impiegato modelli creati con machine learning, e molte altre applicazioni utili per far fronte al numero, sempre crescente, di minacce cyber”.
D'altra parte, come noi abbiamo scoperto l'efficacia del machine learning e dell'intelligenza artificiale, anche l'attaccante ha esplorato le opportunità date dall’AI. “Inizialmente si vedrà più un utilizzo indiretto che faciliterà le attività malevole. Ma questi strumenti hanno la capacità di abbassare la barriera all'ingresso per la generazione di attacchi, oltre a ottimizzare la produttività degli attaccanti, quindi mi spetto che nel futuro vedremo situazioni in cui la connessione tra l'AI e gli attacchi sarà più concreta e diretta” dichiara Palumbo, aggiungendo che la vera incognita non è se questo accadrà, ma quando.
L’altro elemento del trittico indicato in apertura riguarda la sicurezza delle AI. Perché “più i modelli di AI diventano centrali alle nostre operazioni di business, più diventano utili, più diventano capaci di renderci più produttivi, più diventano qualcosa che dev’essere salvaguardato” argomenta Palumbo. È un passaggio logico che non è affatto scontato.
“È fondamentale capire che questi oggetti non sono avulsi dal contesto, non sono intoccabili, anzi, come in tutte le cose nel nostro mondo bisogna capire quale sia il loro reale valore e solo a questo punto è possibile comprendere fino in fondo perché qualcun altro possa avere un interesse nel modificarlo”. In questo momento, per le aziende è importante capire che il rischio che corrono è importante e copre la totalità di quello che hanno a disposizione, in termini di accesso ai loro clienti, in termini di tecnologia, in termini di proprietà intellettuali, in termini di personale.
Palumbo chiude sottolineando che “la missione di WithSecure è fare in modo che nessuno subisca gravi danni a seguito di un attacco cyber, mediante il miglioramento della loro postura cyber e una protezione sempre più alta. Abbiamo migliorato i nostri prodotti in modo tale che la loro fruibilità da parte degli utenti finali sia enormemente migliorata”. Ne è un chiaro esempio Luminel, l’assistente AI integrato nella soluzione, che è il risultato di un lavoro durato a lungo. È un modello sicuro, così che l'utente finale non debba preoccuparsi del suo lavoro”.