Kaspersky fotografa l'impatto dell'AI sul cybercrime e risponde alle preoccupazioni con ricerca e sviluppo, principi etici saldi e un LLM proprietario che sarà integrato nelle prossime release di prodotto.
Autore: Redazione SecurityOpenLab
L’Intelligenza Artificiale preoccupa le aziende, che da una parte vorrebbero capitalizzarne i vantaggi, dall’altra sono consapevoli che sta rendendo gli attacchi cyber sempre più difficili da individuare, mitigare e gestire. E nonostante questa consapevolezza, le competenze in AI presenti nelle aziende lasciano a desiderare, mentre gli attacchi che fanno uso delle AI aumentano a dismisura. È questa, in estrema sintesi, la fotografia scattata da Kaspersky nell’incontro con la stampa che ha visto la presentazione di una nuova ricerca di mercato, le novità tecnologiche e le previsioni per il 2025 del vendor.
Si intitola Cyber defense & AI: sono pronte le aziende a proteggersi? la ricerca commissionata da Kaspersky alla britannica Arlington Research, che ha coinvolto oltre 1.400 professionisti di vario livello in tutto il mondo, di cui 450 in Europa (molti di essi in Italia). Nel presentare i risultati, Cesare D’Angelo, General Manager di Kaspersky Italia, ha sottolineato che il 77% degli intervistati reputa che gli attacchi cyber siano aumentati nel corso dell’ultimo anno, e di questi il 43% ne addebita la colpa all’uso delle AI.
Gli italiani sono per lo più preoccupati dall’uso dell’AI da parte degli attaccanti (così si è espresso il 68% dei connazionali interpellati); la stragrande maggioranza di professionisti IT e della security nostrani concorda circa il fatto che questo trend andrà aumentando nei prossimi anni.
Giampaolo Dedola, Lead Security Researcher GReAT sottoscrive questa visione, ma ricorda che non siamo di fronte a un fulmine a ciel sereno: si sa da tempo che il cybercrime avrebbe imboccato questa strada, non per saccenza ma perché “è almeno dal 2023 che il cybercrime cerca di capire come sfruttare l’AI. Adesso ne stiamo vedendo l’uso concreto”.
In che cosa consiste questa concretezza? La risposta breve è: in una lunga serie di fronti aperti. Quella articolata prevede un elenco di almeno otto punti, di cui in questa sede mettiamo a fuoco solo quelli che meritano un seppur superficiale approfondimento. Il primo è la creazione di siti web con contenuti unici di alta qualità, che vengono impiegati per gli attacchi su larga scala: l’AI permette di sfornarne a centinaia con una minima attività manuale. C’è poi il fronte dei deepfake. Dedola ha spiegato che, sebbene i numeri registrati siano ancora relativamente piccoli rispetto all’insieme degli attacchi cyber, l’impiego dell’AI per i deepfake costituisce una seria minaccia, soprattutto quando associata con il social engineering.
Interessante è poi il capitolo relativo riciclaggio di denaro: Dedola ha presentato casi in cui gli attaccanti hanno sfruttato tecniche di deepfake che faceva uso di AI per ottenere l’autenticazione biometrica alle utente bancarie che venivano poi sfruttate per compiere operazioni finalizzate, appunto, al riciclaggio di denaro. Chiude il caso dell’impiego di AI non tanto per scrivere codice malevolo, quanto per offuscarlo: secondo Dedola non abbiamo ancora evidenze certe di codici generati con gli LLM, ma ci sono molti casi d’uso degli LLM stessi per offuscare codice PowerShell.
Il capitolo AI non si chiude qui, perché Dedola ha presentato anche dati interessanti di OpenAI che confermano una tendenza pericolosa: l’impiego degli LLM da parte degli APT, ossia degli attori sponsorizzati dagli stati nazionali. L’impiego è finalizzato per lo più alla disinformazione e alle cosiddette cyber operations, spesso attacchi contro infrastrutture critiche di paesi avversi. Questa tendenza è confermata anche dai dati di Kaspersky: un recente studio su Lazarus ha rivelato l’impiego dell’Ai per la creazione di messaggi poi diffusi su X e finalizzati ad attrarre gli utenti di interesse verso siti infetti che sfruttavano bug zero-day di Chrome.
Posto che, come visto, i rischi ci sono e sono evidenti, resta da capire come reagire. Un elemento è chiaro (quasi) a tutti: serve formazione. L’82%degli intervistati sottolinea l'importanza di rafforzare le conoscenze interne, il 48% di essi ha già attuato - o sta per farlo - programmi di awareness, anche perché almeno un terzo degli intervistati ammette un gap nella cybersecurity, in particolare il mancato uso di soluzioni AI per contrastare gli attacchi fatti con l’AI. L’altra certezza è che, in mancanza di awareness, si naviga a vista (il 30% dichiara di faticare a ottenere informazioni sulle minacce legate all'AI) e non è detto che affidarsi ad esperti esterni (una opzione ventilata dall’80% delle aziende italiane intervistate) sia la soluzione.
Comunque si decida di muoversi, qualcosa bisogna fare perché nessuno sta dormendo sonni tranquilli: il 53% del campione teme fughe di dati riservati per mancanza di preparazione in materia di AI. Per lo stesso motivo, il 41% teme una perdita di fiducia da parte dei clienti, il 34% significative ripercussioni finanziarie.
Cesare D’Angelo spiega che la soluzione proposta da Kaspersky è coerente con la direttiva che ha guidato l’azienda negli anni: puntare sulla ricerca, tanto che la metà degli attuali impiegati del vendor si occupa di ricerca e sviluppo presso i cinque centri specializzati attivi al momento, che includono la propaggine storica (GReAT, Threat Research, ICS CERT, Security Services) più il nuovo Kaspersky AI Technology Research Centre, presentato in conferenza da Fabio Sammartino, Head of Pre-Sales.
Il nuovo centro si occupa di AI su vari fronti, che vanno sia dall’impiego dell’AI per la rilevazione delle minacce informatiche con integrazione di funzioni AI a scopo difensivo, sia per comprendere come viene usata l’AI dagli avversari nei loro attacchi. Sammartino chiarisce anche che cosa s’intende per AI, che di per sé è un concetto esistente da tempo e declinato da Kaspersky in molteplici impieghi – uno su tutto il Machine Learning per l’individuazione di nuovi malware. Nell’AI Technology Research Centre non si parlerà di questo, ma delle nuove frontiere dell’AI: analisi complesse mediante reti neurali, analisi neuromorfiche per rilevare anomalie negli ambienti industriali, analisi predittiva e del rischio, e molto altro.
Tutto con un punto fermo: la priorità sulla sicurezza e la resilienza dell’AI, facendo fede ai princìpi etici e la trasparenza che da sempre contraddistinguono l’operato di Kaspersky. In particolare, sull’AI l’accento va sul mantenimento della capacità umana di supervisione dell’operato delle AI e sul loro impiego esclusivamente a scopo difensivo.