▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

Cybersecurity: l'AI è davvero un pericolo

Nei prossimi due anni, spiega il NCSC britannico, le funzioni di AI saranno usate in modo esteso dai threat actor. Anche se non faranno sempre la differenza.

Tecnologie/Scenari

Il National Cyber Security Centre (NCSC) britannico ha pubblicato una sua valutazione sulla possibilità concreta che nel prossimo futuro - il lasso di tempo esaminato riguarda i prossimi due anni - le tecnologie di Intelligenza Artificiale man mano disponibili sul mercato possano essere usate dai threat actor più evoluti per potenziare sensibilmente la portata dei loro attacchi.

I principali threat actor, spiega il NCSC, in effetti stanno già utilizzando l'AI per aumentare l'efficienza e l'efficacia di alcune specifiche attività malevole, come la ricognizione delle reti da colpire, il phishing e la scrittura di codice. Analogamente, hanno già dimostrato la capacità di usare algoritmi di Intelligenza Artificiale per sintetizzare al volo i dati presenti su un sistema colpito e capire quindi cosa conviene esfiltrare e cosa no, aumentando il valore e l'impatto di un attacco.

Questi usi malevoli dell'AI aumenteranno certamente nei prossimi due anni, spiega l'analisi. In particolare sarà importante seguire come l'AI sarà usata per potenziare gli attacchi di phishing, perché questo resta un modo effcace per carpire password e quindi l'accesso iniziale alle reti, per portare poi attacchi ransomware o di altro tipo.

Nel prossimo futuro, poi, l'AI aiuterà i threat actor negli attacchi basati su social engineering. L'AI generativa può già essere utilizzata per consentire un'interazione convincente con le vittime, sottlinea il NCSC, e si prevede che questo utilizzo della GenAI aumenti, di pari passo con l'evoluzione dei modelli generativi e l'aumento della loro diffusione.

È poi probabile che l'AI venga sempre più usata per lo sviluppo di malware ed exploit, per la ricerca di vulnerabilità e per ottimizzare le azioni di movimento laterale. Tuttavia, secondo l'analisi, nel breve termine queste tecniche continueranno a basarsi soprattutto sull'esperienza e sulle capacità degli attaccanti umani. Qualsiasi miglioramento portato dall'AI, cioè, sarà molto probabilmente limitato ai threat actor che sono già capaci di portare avanti determinati attacchi.

Il rischio che l'AI generi direttamente malware capace di aggirare gli attuali filtri di sicurezza viene invece giudicato limitato. In teoria l'AI generativa può arrivare a creare malware efficace, ma solo se i suoi algoritmi vengono addestrati su un grande dataset di exploit e di malware. Solo i threat actor state-sponsored potrebbero avere archivi di malware sufficientemente grandi da addestrare efficacemente un modello di AI del genere.

Esperti e meno esperti

Competenze e risorse giocano un ruolo chiave anche tra gli attaccanti, insomma. Per questo i threat actor state-sponsored sono nella posizione migliore per sfruttare il potenziale dell'AI. Gli altri attori ostili ne ricaveranno meno benefici nei prossimi 18-24 mesi, limitandosi a poter migliorare solo le azioni di ingegneria sociale, raccolta di informazioni, reconaissance, esfiltrazione di dati.

Questo non deve far stare tranquilli i "buoni", però, perché lo scenario dell'AI evolve velocemente e le nuove tecnologie man mano diventano alla portata di tutti. I gruppi di hacker ostili meno capaci useranno di volta in volta quello di cui possono disporre. Oggi sono i modelli di AI disponibili pubblicamente, per operazioni semplici come lo spear phishing. In futuro sfrutteranno altre funzioni di AI più evolute. E non va dimenticato che i gruppi più capaci potrebbero offrire, a chiuque sia disposto a pagare, servizi anche evoluti in modalità as-a-Service, come già accade oggi ad esempio per le campagne ransomware.

Qui sta uno dei principali pericoli dell'AI, secondo il NCSC. Abbassando la barriera d'ingresso per i criminali informatici meno esperti, gli hacker a pagamento e gli hacktivisti, l'AI di fatto consente ai threat actor relativamente poco qualificati di portare meglio avanti azioni di primo accesso alle reti e di raccolta di informazioni utili agli attacchi. Nel complesso, questo aumenta il volume degli attacchi che chi difende le reti deve gestire, complicando tutto lo scenario della cybersecurity.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di SecurityOpenLab.it iscriviti alla nostra Newsletter gratuita.
Rimani sempre aggiornato, seguici su Google News! Seguici

Notizie correlate

Speciali Tutti gli speciali

Speciale

Previsioni per la cybersecurity del 2025

Speciale

Digitalizzazione e cybersecurity

Reportage

Cybertech Europe 2024

Speciale

Identity security

Speciale

Infosecurity Europe 2024

Calendario Tutto

Gen 21
Palo Alto Networks Partner Xchange Milano
Gen 23
Nutanix Cloud Day Roadshow - Bari
Giu 05
MSP Day 2025

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter