Autore: Redazione SecurityOpenLab
Il 2025 sarà definito non solo dalla portata e dalla sofisticazione degli attacchi, ma anche da quello che verrà preso di mira dai cybercriminali. Si è parlato molto dell’utilizzo dell’AI sia da parte di malintenzionati che dei difensori, e non ci sono dubbi che questa situazione proseguirà nella sua evoluzione. Tuttavia, nel nuovo anno vedremo molti più attacchi portati agli stessi modelli di AI. Aziende di ogni tipologia stanno adottando questa tecnologia, ad esempio per promuovere l’innovazione e semplificare i servizi. Ma per funzionare in modo efficace, i modelli AI hanno bisogno di un numero enorme di identità macchina, che a loro volta necessitano di un accesso sensibile, ad esempio ai dati dei clienti o ai processi finanziari. Se consideriamo che i modelli sono spesso ospitati nel cloud pubblico, con tutte le implicazioni che questo comporta, è chiaro che la situazione dal punto di vista della protezione potrà diventare decisamente critica. Esistono i giusti controlli di sicurezza delle identità per salvaguardare questa innovazione? Riteniamo di no. In questo caso, con l’adozione di modelli di intelligenza artificiale, le aziende avranno creato una superficie di attacco nuova e vulnerabile, che mette al centro l’identità.
Per i professionisti della cybersecurity, l’AI generativa può avere un reale effetto trasformativo. Anche se al centro del nostro lavoro ci sarà sempre il talento umano, esiste un’enorme carenza di competenze che deve essere colmata e la GenAI ha il potenziale per farlo. La tecnologia può essere un alleato indispensabile, che automatizza la routine permettendo agli esperti di concentrarsi sulle iniziative strategiche che mitigheranno un panorama delle minacce in continua evoluzione. Pensiamo ai security operations center, i quali, grazie all’AI, potrebbero trasformare le operazioni di triage delle minacce che attualmente richiedono ore, in attività di un minuto, lasciando così liberi i professionisti della sicurezza di concentrarsi su compiti più appaganti.
L’AI è già stata utilizzata nella cybersecurity per rilevare anomalie e prevedere minacce, ma la GenAI fa compiere un ulteriore passo avanti. Possiede velocità di apprendimento adattiva, comprensione contestuale ed elaborazione multimodale dei dati, e si libera del mantello più rigido e basato su regole dell’AI tradizionale, potenziando le sue capacità di difesa. Non è più una semplice questione di efficienza, ma di come è possibile vincere la guerra contro la criminalità informatica. Mentre navighiamo in questa nuova era, l’AI non è più solo una protezione aggiuntiva, ma diventa la chiave di volta della nostra strategia per superare le minacce.
Nel 2024, gli attacchi alle grandi aziende, che non hanno risparmiato i principali operatori tecnologici, hanno evidenziato come l’accesso degli sviluppatori sia altamente vulnerabile e facilmente sfruttato dai cybercriminali. Questi ultimi hanno compreso che le identità degli sviluppatori, che spesso possiedono un livello di accesso quasi equivalente a quello degli admin IT, non vengono protette con i medesimi livelli di controlli di identity security degli utenti privilegiati tradizionali. Con l’utilizzo di vie più tradizionali per la compromissione dell’identità, come phishing, spear-phishing e attacchi di impersonificazione (spesso resi più efficaci dall’intelligenza artificiale), nel 2025 gli sviluppatori, e come loro altri obiettivi di elevato valore - architetti cloud e componenti dei team IT - saranno più vulnerabili che mai. La potenziale gravità della compromissione degli sviluppatori sottolinea l’urgente necessità per le aziende di ripensare il proprio approccio alla protezione delle identità della forza lavoro.