Autore: Redazione SecurityOpenLab
Nel 2024, l’intelligenza artificiale generativa entrerà nelle fasi successive del suo ciclo di hype e le organizzazioni si renderanno conto che la tecnologia, sebbene trasformativa, non può fornire un valore significativo da sola. Di conseguenza, si sposteranno verso un approccio multiforme riguardo all’intelligenza artificiale che combina l’intelligenza artificiale generativa con altri tipi di intelligenza artificiale e fonti di dati aggiuntive. Questo approccio consentirà un ragionamento più avanzato e aggiungerà precisione, contesto e significato agli output prodotti dall’intelligenza artificiale generativa. Ad esempio, i team DevOps combineranno l’intelligenza artificiale generativa con l’intelligenza artificiale causale e predittiva basata sui fatti per potenziare l’innovazione digitale prevedendo e prevenendo i problemi prima che si verifichino e generando nuovi flussi di lavoro per automatizzare il ciclo di vita della distribuzione del software.
Nel 2024, sempre più organizzazioni subiranno gravi interruzioni dei servizi digitali a causa di codice software di scarsa qualità e non sufficientemente supervisionato.
Gli sviluppatori utilizzeranno sempre più agenti autonomi basati sull’intelligenza artificiale generativa affinché scrivano codice al loro posto, esponendo le loro organizzazioni a maggiori rischi di problemi imprevisti che influiscono sulle esperienze dei clienti e degli utenti. Questo perché la sfida di mantenere il codice generato da agenti autonomi è simile a quella di preservare il codice creato da sviluppatori che hanno lasciato un’organizzazione. Nessuno dei restanti membri del team comprende appieno quel codice. Pertanto, nessuno può risolvere rapidamente i problemi nel codice quando si presentano. Inoltre, coloro che tentano di utilizzare l’intelligenza artificiale generativa per rivedere e risolvere i problemi nel codice creato da agenti autonomi si ritroveranno con un problema ricorsivo, poiché continueranno a non avere la conoscenza e la comprensione fondamentali necessarie per gestirlo in modo efficace.
Queste sfide spingeranno le organizzazioni a sviluppare sistemi immunitari digitali, combinando pratiche e tecnologie per la progettazione software, lo sviluppo, le operation e l’analisi per proteggere il proprio software dall’interno garantendo la resilienza del codice per impostazione predefinita. Per consentire ciò, le organizzazioni sfrutteranno l’intelligenza artificiale predittiva per prevedere automaticamente i problemi nel codice o nelle applicazioni prima che emergano e attivare una risposta immediata e automatizzata per salvaguardare l’esperienza dell’utente. Ad esempio, i team di sviluppo possono progettare applicazioni con funzionalità di autoriparazione. Queste funzionalità consentono il rollback automatico all’ultima versione stabile del codice base se una nuova versione introduce errori o il provisioning automatizzato di risorse cloud aggiuntive per supportare un aumento della domanda di potenza di calcolo.
Nel 2024, le organizzazioni nomineranno sempre più dirigenti senior nei loro team di leadership per essere pronti in caso di ripercussioni in materia di sicurezza, conformità e governance dell’intelligenza artificiale.
Man mano che i dipendenti si abituano sempre più all’uso dell’intelligenza artificiale nella loro vita personale, attraverso l’esposizione a strumenti come ChatGPT, cercheranno di utilizzare maggiormente l’intelligenza artificiale per aumentare la loro produttività sul lavoro. Le organizzazioni hanno già capito che, se non autorizzano ufficialmente i propri dipendenti a utilizzare gli strumenti di intelligenza artificiale, lo faranno senza consenso. Le organizzazioni, pertanto, nomineranno un Chief AI Officer (CAIO) per supervisionare l’uso di queste tecnologie nello stesso modo in cui molte aziende hanno un responsabile della sicurezza, o CISO, nei loro team dirigenziali. Il CAIO si concentrerà sullo sviluppo di politiche e sull’educazione e la responsabilizzazione della forza lavoro a utilizzare l’intelligenza artificiale in modo sicuro per proteggere l’organizzazione da non conformità accidentale, fuga di proprietà intellettuale o minacce alla sicurezza. Queste pratiche apriranno la strada a un’adozione diffusa dell’intelligenza artificiale tra le organizzazioni. Con il progredire di questa tendenza, l’intelligenza artificiale diventerà una commodity, come lo è diventato il telefono cellulare.
Nel 2024, l’osservabilità dei dati diventerà obbligatoria poiché le organizzazioni dovranno promuovere un’automazione più intelligente e un processo decisionale più rapido.
Il volume dei dati continua a raddoppiare ogni due anni e le organizzazioni cercano di acquisirli e analizzarli più velocemente e su scala maggiore. Tuttavia, il costo e il rischio di avere dati di scarsa qualità sono più significativi che mai. In un recente sondaggio, il 57% dei professionisti DevOps ha affermato che l’assenza di osservabilità dei dati rende difficile guidare l’automazione in modo conforme. Di conseguenza, le organizzazioni richiederanno sempre più soluzioni che garantiscano l’osservabilità dei dati, consentendo loro di acquisire in modo rapido e sicuro dati affidabili e di alta qualità pronti per l’analisi on demand.
Una maggiore osservabilità dei dati consentirà agli utenti come i team delle operation IT e di business analytics di comprendere la disponibilità dei dati e la struttura, la distribuzione, le relazioni e la derivazione di tali dati attraverso tutte le fonti, comprese diverse piattaforme in ambienti ibridi e multicloud distribuiti. Questa comprensione è essenziale per generare insight di cui gli utenti possano fidarsi garantendo l’aggiornamento dei dati, identificando le anomalie ed eliminando i duplicati che potrebbero causare errori.
Nel 2024, la pressione combinata di adottare pratiche aziendali più sostenibili dal punto di vista ambientale e di affrontare l’aumento dei costi del cloud catapulterà l’osservabilità da una priorità IT a un requisito aziendale.
Il maggiore utilizzo dell’intelligenza artificiale da parte delle organizzazioni sarà un fattore chiave di questa tendenza poiché aumenterà il consumo di risorse cloud, con conseguente aumento dell’impronta di carbonio. Tuttavia, l’analisi dei dati di osservabilità basata sull’intelligenza artificiale può aiutare le organizzazioni ad affrontare queste sfide e a maturare le proprie pratiche FinOps e di sostenibilità facendo emergere informazioni utili e alimentando l’automazione intelligente per affrontare le aree di inefficienza negli ambienti cloud. Un maggiore utilizzo dell’osservabilità basata sull’intelligenza artificiale consentirà alle organizzazioni di orchestrare automaticamente i propri sistemi per un utilizzo ottimale delle risorse, riducendo le emissioni e i costi di gestione dei propri ambienti cloud. Di conseguenza, assisteremo a un crescente interesse per i casi d’uso di osservabilità al di fuori del reparto IT man mano che l’azienda in senso più ampio inizierà a prenderne atto.
Nel 2024, la platform engineering diventerà fondamentale.
Le organizzazioni riconosceranno che una pipeline di delivery del software sicura e funzionante è altrettanto vitale per una business continuity quanto la qualità e la sicurezza dei servizi digitali su cui fanno affidamento gli utenti finali e i clienti. Assisteremo quindi a uno spostamento verso la produzione dei tool utilizzati per favorire le migliori pratiche di ingegneria DevOps, sicurezza e affidabilità del sito. Ciò porterà in primo piano la platform engineering mentre le organizzazioni codificano il know-how e le capacità necessarie per automatizzare le pipeline di distribuzione sicura del software. Man mano che questa tendenza prenderà piede, i processi di delivery e di sicurezza del software e le operation verranno attivati tramite interfacce di programmazione delle applicazioni (API) che automatizzano tali attività sulla base di informazioni in tempo reale provenienti dai dati di osservabilità.
Nel 2024, le soluzioni di analitycs e intelligence sulle minacce di prossima generazione porteranno a una graduale eliminazione dei sistemi SIEM (Security Information and Event Management).
Queste soluzioni moderne consentono ai team di sicurezza di estendere le capacità oltre l’analisi dei log per accedere al contesto fornito da una gamma più ampia di modalità di dati e diversi tipi di intelligenza artificiale, comprese tecniche generative, causali e predittive, che lavorano insieme. Di conseguenza, le organizzazioni avranno accesso a un’analisi delle minacce più approfondita, accurata, intelligente e automatizzata, che contribuirà a proteggere le proprie applicazioni e dati da minacce sempre più sofisticate.