▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

Come adottare l’AI con un occhio alla cybersecurity

I benefici dell'AI sono evidenti, ma prima di implementarla serve mettere in sicurezza l'ambiente in cui opererà. Per poi sfruttarne le funzioni anche in logica cybersecurity.

Tecnologie/Scenari

Molte organizzazioni sono impegnate in una vera e propria partita a scacchi contro i criminali informatici che utilizzano l'Intelligenza Artificiale per rendere gli attacchi sempre più sofisticati. La posta in gioco è molto alta: se da un lato, infatti, l’innovazione e l’efficienza che derivano dall’AI sono ormai evidenti in tutti i settori, dall'altro questa stessa tecnologia ancora immatura nasconde al suo interno nuovi rischi e introduce nelle aziende un nuovo tipo di minacce informatiche da mitigare

Dalla nostra recente ricerca Innovation Catalyst emerge che il 68% degli intervistati teme che la GenAI introduca nuove problematiche di sicurezza e privacy e il 73% concorda sul fatto che i propri dati e la propria proprietà intellettuale siano esposti ad un nuovo tipo di rischio se inseriti in uno strumento come la GenAI, a cui terze parti potrebbero accedere.

Partecipa agli ItalianSecurityAwards 2024 ed esprimi il tuo voto premiando le soluzioni di cybersecurity che reputi più innovative

Sempre dalla ricerca, emerge come il phishing sia indicativo di un problema più ampio, ovvero il ruolo dei dipendenti nel panorama delle minacce: il 67% degli intervistati ritiene che alcuni di loro aggirino le linee guida e le pratiche di sicurezza informatica, e il 65% è molto preoccupato dalle minacce che arrivano anche dall’interno. D’altra parte, le campagne di phishing automatizzate stanno diventando sempre più sofisticate e la GenAI consente agli attaccanti di imitare sempre meglio il comportamento umano, così come l’utilizzo dei deepfake può fare cadere in errore molti dipendenti.

Anche a livello software si registra una evoluzione, con malware autonomi che si adattano ed evolvono per eludere il rilevamento. In tutto questo, come devono rispondere le organizzazioni? Di seguito alcune best practise da tenere sempre ben presenti.

Rendere più sicuro l’ambiente prima di adottare l’AI

Una buona regola consiste nel verificare che l'ambiente e il patrimonio IT siano stati predisposti con le basi della security/privacy by design. L'integrazione di funzioni di sicurezza come l'autenticazione a più fattori e i controlli di accesso basati sui ruoli (RBAC) aggiungono un ulteriore livello per ridurre al minimo i tentativi di accesso indesiderato oltre a garantire un monitoraggio continuo per rilevare e rispondere a un attacco.

Anche gli strumenti di monitoraggio e logging risultano elementi fondamentali utilizzati dalle strutture di security operations per identificare i comportamenti anomali che potrebbero rappresentare un rischio per l'organizzazione. In caso di security incident, disporre di un piano di recovery è fondamentale per rendere nuovamente operativi i sistemi e le funzioni di business.

In modo strategico, le organizzazioni stanno pianificando architetture Zero Trust: un approccio che si basa sul principio che nessuna entità all'interno o all'esterno della rete è affidabile by default e che per accedere alle risorse è necessaria una verifica e successiva autorizzazione. Una evidenza che trova riscontro anche nei dati della ricerca Dell Innovation Catalyst: la maggior parte (89%) degli intervistati che ha dichiarato di aver subito un attacco negli ultimi 12 mesi sta infatti perseguendo una strategia Zero Trust.

Ma l'implementazione dell'AI richiede anche un controllo sui dati aziendali, in particolare per i sistemi di AI che sfruttano il cloud pubblico; pertanto, una strategia di sicurezza dell'AI non può prescindere dall’avere una solida data security e una altrettanto solida governance dei dati.

La sicurezza abilitata dall'Intelligenza Artificiale

Solo una volta che si è messo in sicurezza l’ambiente, le organizzazioni possono prendere in considerazione l'adozione di soluzioni di security abilitate dall'AI per costruire quella che viene definita cyber resilience. Si tratta di soluzioni AI-powered che le organizzazioni possono utilizzare in modo proattivo e reattivo per identificare e rispondere alle minacce: dotando i team di sicurezza di strumenti che utilizzano il machine learning, il self-learning e le capacità di adaptive defense, è possibile rilevare e rispondere meglio alle minacce e rafforzare la sicurezza complessiva dell'organizzazione.

In termini di difesa proattiva, l'Intelligenza Artificiale può aiutare a monitorare in real-time il traffico di rete, il comportamento degli utenti e i log di sistema e delle applicazioni per identificare anomalie e schemi sospetti che potrebbero indicare attività malevoli. Questa capacità di rilevamento è fondamentale per ridurre al minimo i danni potenziali degli attacchi informatici, dal momento che è in grado di apprendere e adattarsi quando rileva nuove minacce. In questo modo, i team IT e di sicurezza possono costruire una risposta all’attacco su misura, efficace contro le minacce specifiche del loro settore.

Purtroppo, i threat actor possono superare anche i sistemi più protetti. In questi casi, l'Intelligenza Artificiale può aiutare il recupero dei dati, automatizzando i processi di risposta agli incidenti. Il contenimento delle minacce, il recupero dei dati e l'analisi forense supportati dall'AI possono ridurre l'impatto degli attacchi sull'azienda e accelerare il ripristino delle operazioni.

L'elemento umano nella sicurezza per l’AI

Non da ultimo, oltre a costruire una solida base di sicurezza perimetrale, le organizzazioni devono prender coscienza che i dipendenti sono la loro prima linea di difesa e assicurarsi che ognuno di loro abbia una conoscenza di base di come strumenti quali l'AI stiano rendendo le minacce più sofisticate, come individuarle e reagire a comportamenti anomali.

Un elemento rafforzato anche dalla nostra ricerca è la necessità di focalizzarsi sulla formazione a tutti i livelli organizzativi, partendo dagli stessi responsabili della sicurezza che devono sviluppare specifiche conoscenze e competenze sull’AI per rimanere aggiornati nei confronti delle nuove tecniche degli attaccanti.

Fabio Zezza è Sales Director per Italia & Olanda per la divisione Data Protection di Dell Technologies Italia

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di SecurityOpenLab.it iscriviti alla nostra Newsletter gratuita.
Rimani sempre aggiornato, seguici su Google News! Seguici

Notizie correlate

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter