TotalAI, lo strumento di controllo per GenAI e LLM

TotalAI è la proposta di Qualys per la valutazione delle vulnerabilità dei carichi di lavoro AI e l’identificazione di fughe di dati, furto di modelli e divulgazione di dati sensibili.

Autore: Redazione SecurityOpenLab

Si chiama TotalAI la nuova soluzione di Qualys progettata per rispondere alle sfide di sicurezza legate all'adozione di tecnologie di intelligenza artificiale generativa e grandi modelli linguistici (LLM). Il panorama tecnologico moderno, in cui le aziende integrano sempre più AI e LLM nei propri sistemi, ha ampliato le superfici di attacco, rendendo l’approccio tradizionale alla cybersecurity inadeguato. È proprio la necessità di una protezione efficace contro i rischi di sicurezza associati a queste tecnologie emergenti ad avere spinto Qualys a sviluppare una piattaforma in grado di monitorare e gestire tali rischi.

Una delle principali preoccupazioni legate all'AI generativa riguarda i modelli shadow, cioè modelli AI non autorizzati o sconosciuti che aumentano l'esposizione alle minacce informatiche, come la fuga di dati. Questo rischio è accentuato da configurazioni errate o vulnerabilità note, che possono causare problemi di conformità, perdita di dati e danni reputazionali. Le potenzialità dell'intelligenza artificiale, se non gestite correttamente, possono anche portare a risultati imprevisti, come l'alterazione dei dati o la generazione di contenuti inappropriati.

La proposta di Qualys

Qualys TotalAI si inserisce in questo contesto come strumento per gestire le vulnerabilità legate all'AI e agli LLM, fornendo un'infrastruttura di sicurezza adattata alle nuove sfide. Presentata al Black Hat 2024, questa soluzione amplia le capacità della piattaforma Qualys, già nota per il rilevamento delle vulnerabilità e la gestione dei rischi informatici, per includere l'intelligenza artificiale. Oltre alle funzioni classiche di visibilità e rimedio delle vulnerabilità, TotalAI si focalizza sull'identificazione dei rischi specifici dell'AI generativa e degli LLM, come quelli elencati sopra.


Sfruttando questo nuovo strumento le organizzazioni hanno la possibilità di scoprire e valutare l'intero ecosistema dei carichi di lavoro AI e LLM presenti nei propri sistemi, inclusi hardware specifico, software e modelli in uso sia nella fase di sviluppo che in quella di produzione. Un approccio olistico che consente di mappare in modo preciso la superficie di attacco e di comprendere meglio i rischi associati.

La protezione contro il furto di modelli è un altro aspetto cruciale. Qualys integra oltre 650 rilevamenti specifici per l'AI all'interno del proprio motore di valutazione, fornendo uno strumento avanzato per identificare e dare priorità alle vulnerabilità, basato su feed di minacce costantemente aggiornati. Questo permette alle aziende di prevenire attacchi mirati al furto di dati o modelli, migliorando la loro capacità di risposta in un ambiente che evolve rapidamente.

In termini di sicurezza dell'infrastruttura, TotalAI consente un monitoraggio continuo delle operazioni, assicurando che eventuali minacce vengano identificate e mitigate prima di causare danni significativi. Le organizzazioni possono così mantenere una postura di sicurezza solida, rispettando gli accordi sui livelli di servizio (SLA) e le esigenze aziendali, senza interrompere le operazioni quotidiane.

Infine, la soluzione offre strumenti per rilevare la divulgazione accidentale o non autorizzata di dati sensibili, con particolare attenzione alle minacce identificate nella Top 10 di OWASP per le applicazioni LLM. Questa funzione consente di valutare e mitigare i rischi critici legati agli attacchi basati sulla prompt injection, riducendo così il rischio di esposizione di informazioni riservate.


Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.