L’entusiasmo per le opportunità di business che si aprono con l’adozione dell’AI non deve far bassare la guardia sulla cybersecurity.
Autore: Loredana Ferraiuolo
Il mondo del business è stato travolto dalla febbre dell’Intelligenza Artificiale. Le aziende stanno analizzando utilizzi e benefici di questa tecnologia a ogni livello – dal consiglio di amministrazione agli sviluppatori - per comprendere al meglio come strumenti di questo tipo potrebbero ottimizzare le attività e supportare il raggiungimento degli obiettivi.
L’Osservatorio Artificial Intelligence 2023 della School of Management del Politecnico di Milano ha evidenziato come In Italia il mercato dell’AI abbia raggiunto 500 milioni di euro nel 2022, con una crescita del 32% in un solo anno, di cui il 73% commissionato da aziende italiane e il 27% rappresentato da export di progetti. Il 61% delle grandi imprese italiane ha già avviato almeno un progetto di AI, mentre le PMI raggiungono invece il 15%.
Anche i produttori di software stanno affrontando il mercato con nuovi tool e funzionalità basati sull’Intelligenza Artificiale, molti dei quali fanno affidamento su infrastrutture open source o repository di dati comuni, che potrebbero richiedere una strategia di protezione nuova. Per questo le aziende non dovrebbero sottovalutare la sicurezza, al fine di evitare rischiose esposizioni e attacchi potenzialmente devastanti. È più importante che mai, per CIO, CISO e responsabili tecnologici, mettere in campo un processo di convalida di librerie o piattaforme su cui si basano molti di questi programmi.
Grazie a una semplice ricerca su Google, i dipendenti possono trovare, provare e acquistare un prodotto supportato dall’Intelligenza Artificiale in modo facile e veloce. Non si tratta di un problema nuovo - il cosiddetto "shadow IT" (software e dispositivi che i lavoratori utilizzano all’insaputa del datore di lavoro) è stato per anni una spina nel fianco di CISO e CIO. Ma l’Intelligenza Artificiale può potenzialmente peggiorare il problema, in quanto, a differenza della maggior parte dei software utilizzati oggi, i moderni strumenti di AI sono sempre più basati su un’architettura open source.
L’open source è uno strumento potente, ma può portare con sé dei rischi, come il passato ci ha dimostrato – pensiamo all’attacco di SolarWinds di qualche anno fa, in cui i cybercriminali hanno preso di mira piattaforme aperte con la compromissione di migliaia di reti di dati, evidenziando così i danni che le violazioni della catena di fornitura IT possono causare. Ecco perché, dal punto di vista della sicurezza, la corsa all’oro dell’AI è un elemento di potenziale preoccupazione: più piattaforme aperte vengono adottate, più un’azienda si espone a una violazione della supply chain IT potenzialmente catastrofica.
Fortunatamente, ci sono delle azioni che i responsabili di sicurezza possono intraprendere per controllare gli strumenti open source in modo costante al fine di monitorare eventuali potenziali vulnerabilità.
Le aziende dovrebbero analizzare ogni fornitore di servizi IT, e i CISO e i loro team essere costantemente informati sugli strumenti che i dipendenti cercano di utilizzare. Sicurezza e sviluppo dovrebbero lavorare a stretto contatto per valutare i fornitori ed essere certi dei protocolli di sicurezza adottati per proteggere le librerie open source. A questo punto si possono iniziare a creare linee guida di accesso che consentano ai dipendenti di scaricare le app di loro scelta o iniziare a utilizzare determinate librerie per aiutare a potenziare gli algoritmi di machine learning.
Questo non significa che i dipendenti debbano provare tutti gli strumenti disponibili, ma è importante valutare il valore che il software potrebbe apportare rispetto alla potenziale minaccia rappresentata. Le scorecard dei fornitori possono svolgere un ruolo importante nella valutazione dei possibili rischi. Prendersi il tempo per confrontarli può fornire alle aziende le informazioni di cui hanno bisogno per decidere a quale affidarsi. Si tratta di una pratica standard per qualsiasi team IT aziendale responsabile, ma l’Intelligenza Artificiale ha creato un nuovo ecosistema open source di potenziali fornitori e partner da gestire. Con l’incremento del numero di strumenti open source, è fondamentale che i team di sicurezza monitorino costantemente le loro applicazioni alla ricerca di codici sconosciuti o potenziali violazioni della sicurezza.
Fortunatamente, l’Intelligenza Artificiale può giocare un ruolo positivo, supportando i team di sicurezza in questa attività, grazie all’automazione di gran parte del monitoraggio quotidiano, che consente agli analisti di dedicare più tempo alla protezione del software AI di nuova generazione.
È opportuno abbinare l’elevato entusiasmo per l’IA a un maggiore controllo e le aziende dovrebbero comprendere il valore reale fornito dal software e i rischi associati alla sua adozione. In caso contrario, invece di trarre vantaggio dalla corsa all’AI, potrebbero ritrovarsi a lottare per proteggere i propri sistemi da una nuova ondata di cybercriminali che la sfruttano.
Come sempre quando ci si trova di fronte a un elemento di forte innovazione, è importante prendersi il tempo per valutarne rischi e opportunità. Con il giusto approccio, che tenga in considerazione anche le specificità di ogni organizzazione e mercato, sarà possibile ridurre al minimo i primi senza rinunciare alle seconde.
Loredana Ferraiuolo è Country Manager di Commvault Italia