Autore: Redazione SecurityOpenLab
In caso di problemi di visualizzazione del video cliccare qui
Il nostro report Identity Security Threat Landscape 2024 ha rilevato come i professionisti della sicurezza considerino le macchine il tipo di identità più a rischio. L’adozione diffusa di strategie multi-cloud e il crescente utilizzo di programmi legati all’intelligenza artificiale, come i Large Language Model, hanno dato una forte spinta alla creazione di queste identità, che in molti casi richiedono un accesso sensibile o privilegiato. Tuttavia, contrariamente a quanto solitamente succede per la gestione dell’accesso umano a dati sensibili, le identità macchina spesso non dispongono di controlli di sicurezza specifici e rappresentano quindi un vettore di minacce diffuso e potenzialmente critico, pronto per essere sfruttato. Il 90% degli intervistati italiani ha subito due o più violazioni legate all’identità nell’ultimo anno, con le identità di terze parti considerate le più rischiose (51%), seguite da quelle macchina (49%) e da quelle dei clienti b2b (44%).
Guardando ai rischi potenziali dei prossimi anni, i meccanismi di sicurezza basati su AI e non sufficientemente protetti alimenteranno un circolo vizioso. Sebbene le aziende stiano adottando la GenAI per rafforzare le difese informatiche, l’80% non riuscirà a proteggere gli stessi modelli di sicurezza basati su questa tecnologia. Per ottenere un vantaggio sugli attaccanti sarà necessario adottare una mentalità da avversario, dall’addestramento dei modelli GenAI con campioni offensivi e difensivi, all’adozione della model assurance e di stress test regolari (inclusi red team e pen test).
Con il graduale passaggio verso una responsabilità personale della cybersecurity, entro il 2025, il 60% dei CISO delle aziende Fortune 2000 sosterrà pratiche di segnalazione trasparenti e rapide, non solo per motivi di policy, ma per il rischio correlato per carriera e reputazione.
La cybersecurity non è solamente un problema IT, ma è diventata il fulcro della resilienza aziendale e della fiducia degli stakeholder. La maggior parte delle aziende Fortune 500 riconosce il livello della posta in gioco e sta portando la discussione sulla cybersecurity a livello di consiglio d’amministrazione. I rischi emergenti legati all’AI stanno rendendo il tema ancora più urgente tanto che, entro il 2026, il 45% di queste aziende assumerà e lavorerà per nominare un chief AI security officer all’interno del board, che avrà competenze tecniche e acume business, svolgendo un ruolo influente nel promuovere l’innovazione dell’AI, gestire i rischi che ne derivano e salvaguardare i modelli di sicurezza basati su AI.
Attacchi sofisticati da parte di Stati-nazioni, in particolare quelli che prendono di mira le infrastrutture critiche, possono causare interruzioni estese e pericolose per la vita e danni a catena nelle supply chain del software. I crescenti timori di un’escalation digitale della guerra convenzionale spingeranno le principali potenze globali ad adottare misure drastiche per migliorare resilienza informatica, quadri giuridici e cooperazione internazionale. In questo contesto, questi Paesi spingeranno per l’istituzione di una Convenzione di Ginevra sulla cybersicurezza per scoraggiare gli attacchi degli Stati nazionali e bloccare i responsabili.
CyberArk Identity Security Platform è ottimizzata per soddisfare le esigenze specifiche di ogni identità, tra cui forza lavoro, IT, sviluppatori e macchine, senza interrompere i loro flussi di lavoro. I recenti miglioramenti apportati aumentano l’efficacia dei team di sicurezza nel proteggere tutti gli utenti e le informazioni a cui accedono, attraverso una nuova esperienza con una piattaforma unificata.
Grazie all’intelligenza artificiale e all’Identity Threat Detection and Response (ITDR), le nuove funzionalità consentono alle aziende di applicare il giusto livello di controllo dei privilegi a ogni identità, offrendo al contempo una customer experience coerente sia per gli amministratori che per gli utenti di CyberArk.
Con il 93% delle aziende globali che ha subito due o più violazioni legate all’identità nel corso dell’ultimo anno, l’imperativo di proteggerle tutte non è mai stato così urgente, anche se questa attività è resa più complessa dai livelli di rischio, requisiti e sfide unici legati a ogni tipologia di identità.
Di recente, abbiamo reso disponibile anche CyberArk CORA AI, una nuova serie di funzionalità basate su intelligenza artificiale che saranno integrate all’interno della sua piattaforma di Identity Security. CORA AI è in grado di tradurre un vasto numero di dati sull’identità in insight e consente di eseguire azioni complesse in linguaggio naturale, permettendo così a utenti e aziende di essere più sicuri, efficienti ed efficaci nel proteggere le identità - umane e macchina - con un adeguato livello di controllo dei privilegi. CORA AI riduce da ore a minuti il tempo necessario per esaminare i dati di identità umane e macchina per analizzare le anomalie e applicare azioni di rilevamento e risposta alle minacce all’identità di livello successivo. È in grado di tradurre gli insight in azioni multi-fase, definite in linguaggio naturale per fornire raccomandazioni immediate sulla regolazione delle policy di accesso per una riduzione del rischio. Molto più di un assistente digitale, CORA AI trasforma radicalmente il modo in cui gli utenti interagiscono con la CyberArk Identity Security Platform, aumentando la produttività e migliorando la sicurezza di tutte le tipologie di identità.