Dopo l’hype del 2023, quest’anno le AI saranno al centro dell’attenzione sia per motivi positivi che negativi. Le previsioni di Splunk per il 2024 incentrate sulle AI.
Autore: Redazione SecurityOpenLab
Ormai è ampiamente appurato che nel 2024 le AI terranno banco. Non solo nella cybersecurity, non solo in ambito IT. Dalle applicazioni consumer in su (basta vedere gli annunci dei nuovi smartphone, di cui viene magnificata la dotazione AI più che quella hardware) le Intelligenze Artificiali stanno cambiando la nostra esperienza d’uso con qualsiasi tecnologia nel suo insieme. Per questo è proprio l’AI generativa a dominare tutti e tre i sottoinsiemi delle Predictions 2024 presentate da Splunk: Executive, Security e Observability.
Intelligenza Artificiale, resilienza, sostenibilità e consolidamento sono i quattro pilastri delle previsioni di Splunk su cui si sono confrontati gli executive a livello internazionale. Le ha illustrate in un evento esclusivo Gian Marco Pizzuti, Area Vice President di Splunk per l’Italia, sottolineando che il 2024 sarà un anno all’insegna della trasformazione. Una trasformazione che è frutto di dinamiche già avviate ben prima del 2023, come tutto il tema ESG e quello della responsabilità, che in qualche modo le aziende di tutto il mondo hanno dovuto gestire. La differenza di approccio del 2024 consisterà nel fatto che “finora certe tematiche sono state trattate in modo separato dai piani industriali e da quelli di sviluppo tecnologico. Nel 2024 i progetti aziendali dovranno integrare ESG, resilienza e tecnologia fino a far diventare questa integrazione un business as usual” sottolinea Pizzuti.
Andando per ordine, partiamo proprio con le AI. La questione è complessa, ma limitandosi ai macro temi, si può iniziare col dire che nel 2023 l’hype per le AI ha portato per lo più a una comunicazione positiva, cosa che non si ripeterà quest’anno. Gli LLM non sono esenti da problemi ed errori, che emergeranno man mano che ne aumenterà l’uso - e tali errori comporteranno dei rischi che le imprese dovranno gestire. In più, le aziende che hanno iniziato o inizieranno a investire nelle AI generative inizieranno a tirare le somme dei risultati effettivi e a chiedersi come capitalizzare i propri investimenti.
Come accennato, il secondo argomento oggetto di previsione è quello della resilienza. Da uno studio di Splunk condotto su un campione di 1.470 CIO a livello globale, è risultato che in media i clienti strategici hanno avuto un blocco dei sistemi di 10 giorni a seguito di attacchi cyber. È un tempo lunghissimo, che causa non solo un danno economico diretto alle vittime, ma un danno anche a chi fruisce dei loro servizi. Per questo, argomenta Pizzuti, nel 2024 ci saranno delle normative, come l’europea DORA, che obbligheranno le aziende, in fase di pianificazione del business, a tenere conto delle responsabilità dei malfunzionamenti e dei blocchi delle proprie infrastrutture. In altre parole, le organizzazioni saranno chiamate e riferire sulla propria postura di sicurezza non solo al proprio interno, ma anche all’esterno.
Questo comporta, secondo Splunk, la necessità di sviluppare e migliorare le capacità comunicative all’interno delle aziende, oltre che quelle tecnologiche. “Nel 2024, avendo ormai conclamato la loro capacità tecnologica, il ruolo delle aziende diventerà quello di saper spiegare in modo puntuale quali sono i gap dell'infrastruttura aziendale, quali sono le necessità per chiuderli, a quali di queste necessità verrà assegnato un budget che consentirà la realizzazione di progetti risolutivi, e quali invece resteranno come gap potenzialmente rischiosi” chiosa Pizzuti. Una narrazione, questa, che costituirà un importante elemento di strategicità e che porterà in primis i CISO a dover usare un linguaggio comprensibile quando si rivolgono agli executive.
La questione si riallaccia anche al discorso del consolidamento. L'estensione del perimetro di osservazione, quindi la capacità delle soluzioni tecnologiche di fornire visibilità, per esempio, anche sul mondo applicativo, permetterà di beneficiare di dashboard che aiuteranno la comunicazione fornendo una visione d’insieme e una sintesi dei dati a supporto della narrazione di cui sopra. Pizzuti spiega che le imprese (soprattutto quelle globali) hanno già capito che è più efficace lavorare con meno tool, e nel 2023 hanno già avviato il consolidamento dei fornitori così da favorire la gestione delle minacce in modo centralizzato. Nel 2024 questo percorso proseguirà favorendo anche un’ottimizzazione dei costi.
Pizzuti chiude la parte di Executive Prediction con una considerazione importante relativa all’AI e al potenziale gap che può generare nell’accesso ai dati e ai servizi. Il ragionamento parte da oggi e dalle criticità che sono già emerse in relazione alle AI: errori di valutazione degli LLM, fra cui le cosiddette “allucinazioni” di cui parleremo diffusamente più avanti, casi di violazione della privacy (pensiamo alla denuncia del New York Times contro Microsoft e OpenAI, accusati di avere usato i suoi articoli per istruire l’AI senza chiedere o avere il consenso). Problemi questi che possono tramutare l’hype iniziale verso le AI in isteria, e che possono influire su dati e servizi erogati mediante AI.
Un esempio è illuminante: l’Europa è il primo continente a varare una regolamentazione sull'utilizzo dei dati nell'intelligenza artificiale (AI Act). “Nel 2024 cominceremo a vedere servizi erogati o fruiti tramite AI che non saranno equamente disponibili in tutte le Regioni – afferma Pizzuti. Determinati prodotti che verranno messi in commercio negli Stati Uniti, magari non potranno essere usati in Asia o in Europa e viceversa. Questo probabilmente darà origine a un gap, avvantaggiando aziende e consumatori di un Paese ma non di un altro. Questo avrà un impatto diretto anche sulle revenues delle aziende: basti pensare a chi nel 2023 ha approvato un piano industriale a cinque anni che prevedeva l'esportazione di servizi alcuni territori, e oggi deve rivedere i piani abbassando i ricavi previsti”.
Per le previsioni verticali relative alla cybersecurity è entrato in scena Antonio Forzieri, EMEA Cyber Security Specialization and Advisory di Splunk, che invece di stilare un elenco di previsioni, ha preferito dare dimostrazioni di quello che ci aspetta, focalizzandosi sulle AI generative. Senza bisogno di fare voli pindarici, e facendo uso di strumenti già oggi ampiamente disponibili online e aperti a tutti, Forzieri ha mostrato alcuni esempi di elaborazioni delle AI nell’ambito di foto e video editing, elaborazione testi e altro.
La rielaborazione di testi o l’applicazione di tool riempitivi per rimuovere lo sfondo o le immagini create con ChatGPT sono le opzioni più banali. Decisamente più stupefacenti sono i video fake, come quelli che si possono realizzare con HeyGen (per intenderci, è lo stesso tool di AI usato per realizzare il discorso in francese di Salvini). Per darne dimostrazione, Forzieri ha realizzato un video di alcuni minuti tramite smartphone con lo speech, in italiano, che ha proposto a un evento aziendale. Poi l’ha dato in pasto a HeyGen, che in una manciata di minuti lo ha tradotto in varie lingue. Anche un occhio attento farebbe fatica a individuare un falso delle versioni rivisitate e tradotte: la parlata è fluida, a quanto pare la proprietà di linguaggio è di alto livello. Soprattutto, i movimenti labiali dello speaker vengono modulati in perfetta sincronia con la parlata. Provare per credere, e non è una battuta. Come sottolinea Forzieri, è importante prendere confidenza con questi strumenti per comprenderne le potenzialità e quello che si può realizzare usandoli. Significa avere delle chance in più sia di individuare i rischi ad essi connessi, sia di trarne dei vantaggi competitivi, invece che ritrovarsi fra qualche tempo ad agire di rincorsa.
Inutile dire che non c’è nulla di male a usare questa tecnologia per tenere un discorso a un pubblico straniero nella sua lingua madre. Ma è fin troppo semplice dare in pasto a una AI una registrazione video con lo speech di un importante politico, industriale o influencer e fargli pronunciare messaggi falsi, travisati o che possono cambiare il sentiment di migliaia di persone. Ecco perché i deepfake sono temibili e sempre più diffusi.
Pizzuti parlava di allucinazioni, Forzieri ne dà un esempio pratico. Ha chiesto a ChatGPT di creare una sua biografia di un migliaio di battute. Il software ha citato alcune informazioni corrette, mescolandole con altre del tutto inventate, come il fatto che il manager abbia studiato presso l'università di Lisbona e sia docente presso quella di Stanford. Per quanto lusinghiero sia l’errore, è molto grave perché si tratta di informazioni inserite arbitrariamente nel contesto di una narrazione credibile e in quanto tale difficile da distinguere da uno autentico, ma falso. Oggi il problema delle allucinazioni è diminuito, ma saranno comunque necessari controlli accurati.
Altro problema è quello dell’effettiva comodità nell’uso delle AI. Per esempio, soffermandoci sulla elaborazione di testi, gli LLM sono campioni nel riassumere PDF lunghi e complessi un testo scorrevole ed esaustivo che fa comprendere tutti i punti essenziali del documento stesso. Peccato che un uso fuori controllo di questa peculiarità all’interno delle aziende porterebbe all’esposizione diretta di dati sensibili, perché come ricorda Forzieri tutte le informazioni che vengono date in pasto alle AI vengono usate per fare training delle stesse.
Nonostante i rischi, i vantaggi e le opportunità che si aprono con le AI e in particolare con gli LLM sono tali da non permettere di ignorarle. Anzi, Forzieri assicura che in poco tempo le AI diventeranno pervasive in molteplici aspetti della nostra quotidianità e trasformeranno il mondo del lavoro. Questo non significa che le AI prenderanno il posto degli esseri umani, le AI semmai porteranno a un aumento esplosivo della produttività.
Sul fronte cybersecurity, l'intelligenza artificiale verrà utilizzata per il rilevamento delle minacce informatiche, ma gli esseri umani saranno ancora coinvolti. Anche grazie alle AI i sistemi diventeranno più resilienti, ma emergeranno nuove minacce perché anche il cybercrime accederà agli strumenti di AI e li sfrutterà a proprio favore.