▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

Sicurezza dell'AI? Ci pensa CoSAI.

La Coalition for Secure AI promette di sviluppare nuovi approcci e standard per mettere in sicurezza prodotti e servizi basati su AI

Tecnologie/Scenari

Il nome in italiano non suona benissimo - CoSAI - ma la Coalition for Secure AI (questo il nome per esteso) nasce ufficialmente per una causa più che buona: "adottare misure di sicurezza complete per affrontare i rischi unici dell'Intelligenza Artificiale, sia per i problemi che si presentano in tempo reale sia per quelli che si prospettano all'orizzonte". Questo nelle parole di Google, che è un po' la capofila dell'iniziativa.

Il punto di vista dei membri di CoSAI è che lo sviluppo di soluzioni di Intelligenza Artificiale si porta dietro due ordini di problemi, in quanto a cybersecurity. Il primo, più ovvio, è che le piattaforme di AI si basano su una supply chain di componenti software che, singolarmente e insieme, devono essere messi in sicurezza. È l'ennesima "versione" dell'annoso problema della supply chain security.

Il secondo aspetto da considerare è la sicurezza intrinseca dell'AI, ossia come garantire che i modelli di Intelligenza Artificiale funzionino sempre correttamente e come fare in modo che non siano "violati" da attacchi specifici che portino a risultati non voluti. Qui c'è molto da lavorare, ovviamente, perché si tratta di una nuova forma di cybersecurity: poco pubblicizzata - anche perché non fa bene al marketing dell'AI, che vuole quest'ultima magicamente infallibile - e che richiede ancora una buona dose di ricerca e studio.

La Coalition for Secure AI muove i suoi passi principalmente dal lavoro che Google ha fatto in questi mesi, in particolare con il suo Secure AI Framework (o SAIF). Che, sostanzialmente, cerca di portare al mondo AI le best practice di sicurezza che sono già ampiamente applicate all'ambito dello sviluppo software.

Sebbene concettualmente comprensibile e corretto, il SAIF è però ancora in divenire. I pericoli associati all'AI - dal data poisoning alla prompt injection passando per l'esfiltrazione di dati privati dai dati che sono stati usati nell'addestramento delle AI - non sono ancora stati concretizzati in maniera diffusa e massiva, quindi non c'è molto "materiale" concreto, dal campo, su cui sviluppare esperienze e trarre conclusioni.

I prossimi passi di CoSAI

CoSAI è di fatto un gruppo di grandi nomi - vi si contano tra l'altro Amazon, Anthropic, Cisco, IBM, Intel, Microsoft, Nvidia, OpenAI, Paypal — che sostanzialmente intendono seguire l'approccio di Google e condividere il suo framework di sicurezza per l'AI. L'approccio promesso è "open" - CoSAI opera nell'ambito di Oasis Open, tra l'altro - ma ovviamente non si può fare a meno di notare che gli attori in gioco hanno tutti interessi diretti in campo AI, quindi la loro obbiettività è... sempre da verificare.

Il lavoro della coalizione intende, al momento, svilupparsi lungo tre filoni principali. Il primo è la messa in sicurezza della supply chain software che porta allo sviluppo di applicazioni e modelli di AI. Qui l'idea è applicare più o meno gli stessi principi e approcci del framework Supply-chain Levels for Software Artifacts (SLSA): un artefatto è sicuro (anche) quando si sa come è stato generato e con quali componenti, e da dove provengono e come sono stati gestiti tali componenti.

La seconda linea di sviluppo è in generale studiare come i principi e gli approcci della cybersecurity possono essere applicati in ambienti dove l'AI è una presenza diffusa e costante. L'idea è definire un framework di difesa che aiuti a identificare le tecniche da seguire per mitigare l'impatto sulla cybersecurity dell'utilizzo interno dell'AI. Anche in funzione di come, man mano, l'AI verrà usata in modo "offensivo" dai criminali e dai threat actor.

Infine, altro tema chiave è la governance della sicurezza dell'AI stessa. La "AI security" è un campo completamente nuovo, quindi CoSAI intende sviluppare una vera e propria tassonomia dei rischi e dei controlli associati all'AI, insieme ad altri strumenti che aiutino a valutare, monitorare e gestire la sicurezza di un prodotto basato su funzioni di AI.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di SecurityOpenLab.it iscriviti alla nostra Newsletter gratuita.
Rimani sempre aggiornato, seguici su Google News! Seguici

Notizie correlate

Speciali Tutti gli speciali

Speciale

Previsioni per la cybersecurity del 2025

Speciale

Digitalizzazione e cybersecurity

Reportage

Cybertech Europe 2024

Speciale

Identity security

Speciale

Infosecurity Europe 2024

Calendario Tutto

Gen 21
Palo Alto Networks Partner Xchange Milano
Gen 23
Nutanix Cloud Day Roadshow - Bari
Giu 05
MSP Day 2025

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter