Autore: Redazione SecurityOpenLab
Il 2024 può essere considerato "l'anno dell'IA", a fronte dell'adozione di massa di questa tecnologia per usi sia leciti che illeciti. Secondo l'indagine "The State of AI and Security Survey" di Google Cloud Alliance, il 55% degli intervistati ha dichiarato l'intenzione di integrare l'IA generativa nelle proprie soluzioni entro il 2024.
Gli hacker stanno rapidamente sfruttando le potenzialità dell'intelligenza artificiale, con l'emergere nel dark web di chatbot basati sull'IA progettati per agevolare attività di criminalità informatica. Tra questi spiccano: FraudGPT, che supporta la creazione di sofisticate truffe di phishing, WormGPT, utilizzato per sviluppare botnet e strumenti di raccolta dati e XXXGPT, un chatbot versatile per la generazione di malware, crypto-miner e altro ancora. Anche le tecnologie di deepfake e clonazione vocale giocano un ruolo crescente: solo nella prima metà del 2024, le menzioni dei deepfake nei forum clandestini dedicati alla criminalità informatica sono aumentate del 600%.
Le email di phishing rimangono il principale vettore di attacco iniziale, ma si registra un incremento significativo degli attacchi di social engineering mirati a soluzioni di collaborazione come Microsoft Teams e QuickAssist. Gruppi di hacker, tra cui Black Basta, si spacciano per l'helpdesk delle aziende, ingannando gli utenti e inducendoli a condividere informazioni sensibili, come le credenziali di accesso, tramite questi canali di comunicazione.
Infine, non sorprende che le crescenti tensioni globali abbiano portato a un notevole incremento degli attacchi informatici sponsorizzati dagli Stati, con un focus prevalente sulle infrastrutture critiche e sulle aziende statunitensi.
Per fronteggiare queste minacce, le aziende di sicurezza informatica hanno adottato maggiormente l'IA seguendo due direttrici principali. La prima consiste nell'uso dell'intelligenza artificiale per rafforzare il rilevamento delle anomalie, migliorando l'analisi dei comportamenti e dei pattern necessari per identificare attività sospette. La seconda mira a colmare il divario di competenze nel settore della sicurezza informatica, una sfida comune a molte aziende. L'IA viene impiegata per supportare i professionisti della sicurezza, fornendo strumenti avanzati per individuare indicatori di compromissione, migliorare la correlazione degli eventi e offrire un contesto più chiaro per l'analisi degli incidenti di sicurezza.
Nel 2025 assisteremo ad un utilizzo ancora più diffuso dell'IA, con il progressivo raggiungimento della maturità da parte di molti strumenti. Tra le minacce emergenti, si prevede l’ascesa di una nuova forma di ransomware che sfrutta i deepfake per campagne di estorsione mirate. Con il deepfake sempre più indistinguibile dalla realtà, gli hacker potrebbero utilizzare immagini o video pubblici di obiettivi di alto profilo per creare clip compromettenti, minacciando di renderle pubbliche a meno che non venga pagato un riscatto. In un contesto dominato dai social media, la diffusione di un video del genere potrebbe infliggere danni irreparabili a individui o aziende, anche se successivamente si dimostrasse che il contenuto era falso.
Le aziende di sicurezza informatica stanno sviluppando tecnologie avanzate per il rilevamento e l’identificazione dei deepfake e delle tecnologie di clonazione vocale, destinate a diventare elementi essenziali nello stack di sicurezza di molte aziende. Parallelamente, si assisterà all’introduzione di nuove metodologie per il rilevamento delle anomalie, progettate per rafforzare la protezione contro le violazioni dei dati. Inoltre, le tecniche di intelligenza artificiale utilizzate dai criminali informatici per eludere i sistemi di sicurezza saranno al centro della lotta per anticipare i nuovi vettori di attacco, generati dagli strumenti di IA nel dark web.
La principale sfida per i fornitori di sicurezza informatica è la velocità con cui il crimine informatico si evolve grazie agli strumenti basati sull'intelligenza artificiale. Abbiamo già assistito a un livello crescente di sofisticazione negli attacchi di social engineering. Sebbene molte aziende di sicurezza informatica stiano sviluppando tecnologie per rilevare i deepfake, anche la tecnologia stessa dei deepfake sta progredendo a un ritmo sorprendente, con nuovi strumenti di IA multimodali che emergono quotidianamente.
L'adozione dell'IA generativa nelle aziende porta con sé nuove sfide per i team di sicurezza. Sebbene il problema dell'avvelenamento dei dati sia già noto, esiste anche il rischio che, come nei sistemi di identità nel cloud, le aziende concedano ai sistemi di IA l'accesso a dati non necessari, che potrebbero essere compromessi in caso di attacco. È fondamentale che le aziende prendano coscienza di questo rischio e implementino una segmentazione dei dati per tutti i sistemi di intelligenza artificiale che intendono integrare nelle loro reti.
Nonostante le numerose sfide che ci attendono, per Bitdefender queste non fanno che rafforzare la determinazione a guidare la lotta contro la criminalità informatica.