L’intervista con Ofir Israel, VP of Threat Prevention di Check Point Software Technologies, permette di comprendere meglio rischi e vantaggi legati all’uso della GenAI.
Autore: Redazione SecurityOpenLab
In occasione dell’evento CPX2024 di Check Point, Security Open Lab ha avuto la possibilità di intervistare Ofir Israel, VP of Threat Prevention di Check Point Software Technologies, che si occupa in generale di prevenzione dalle minacce cyber e più nello specifico in questo momento di come l’Intelligenza Artificiale sta rivoluzionando lo sviluppo di prodotti di sicurezza informatica e l’approccio alla cybersecurity nel suo complesso.
La prima domanda che abbiamo posto a Israel è relativa ai rischi legati all’uso delle GenAI da parte delle imprese, in riferimento al tema spinoso della exploitation dei sistemi di AI, che può portare al furto di dati sensibili, alla formulazione di risposte volutamente errate, al favoreggiamento di frodi e molto altro. Israel concorda sul fatto che si tratta di un rischio reale, che si presenterà in misura sempre maggiore perché le aziende utilizzeranno sempre di più l’AI generativa. Il primo requisito importante a cui fare fronte quando si integrano strumenti di GenAI è quindi la protezione dei motori di GenAI.
Una attività che è di primaria importanza per Copilot AI, con una duplice attenzione che Israel ha fatto notare. Prima di tutto, Check Point evita in tutti i modi che i dati del cliente escano dalla sua azienda: il Large Language Model (LLM) viene impiegato da Copilot AI come strumento per creare in maniera semplice e intuitiva una query sui log relativi a un preciso evento di sicurezza. Non ha accesso diretto ai dati del cliente.
In secondo luogo, Check Point ha creato una serie di filtri che permettono di sincerarsi che le interrogazioni intraprese da Copilot AI sono legittime. Per ottenere questo risultato ha messo in campo una seconda AI generativa che controlla la prima e che analizza il contesto della conversazione per evitare che qualcuno violi le policy. In particolare, se ci sono dei segnali che suggeriscono la possibilità che si stia cercando di indurre l’AI a fare qualcosa con un secondo fine non gli viene permesso di proseguire. Israel si dice convinto che più aziende inizieranno a sviluppare tecniche di controllo simili per garantire sicurezza ai propri clienti.
Nella seconda domanda abbiamo chiesto a Israel in che modo Check Point tutela i propri clienti dalle minacce emergenti come quelle descritte sopra.
■ CPX2024: Check Point fonde il quantum computing con l'IA
■ Da Leonardo da Vinci alla cybersecurity con Maya Horowitz
■ La nuova Check Point Italia: manager, obiettivi, promesse
La risposta si muove sulla linea del tempo degli ultimi 12-13 anni, perché in effetti l’AI non è una novità, anzi, in cybersecurity è in uso da molto tempo prima che esordisse la GenAI. Una dozzina di anni orsono il difensore la impiegava per esaminare tutti i file e cercare i riscontri con modelli e firme noti così da individuare quelli potenzialmente dannosi. Successivamente l’AI è diventata un alleato per trovare una componente malevola sconosciuta. Questo, nicchia Israel, dimostra che in realtà usiamo l’Intelligenza Artificiale da molti anni e che semplicemente continuiamo a migliorarla, evolvendo i modelli di apprendimento con il passaggio dal classic learning al deep learning. I passi avanti hanno permesso di ottenere set di dati sempre più grandi e di maggiore qualità, e questo ha permesso a sua volta di migliorare l’apprendimento e l’efficacia dell’AI. Siamo al punto di poter usare l’AI per cercare variazioni di malware, ossia una minaccia sostanzialmente simile a quella nota, ma con un aspetto differente. Oppure di analizzare il contesto e comprendere se si stanno inviando all’esterno informazioni sensibili e bloccarle.
Con gli LLM siamo arrivati anche a semplificare l’interazione dell’AI con il cliente per supportarlo meglio nella attività di difesa, dandogli la possibilità di interagire con un linguaggio umano. Un supporto che, secondo Israel, migliorerà anche l’uso che il cliente fa del software, perché uno dei problemi che riscontra riguarda le misconfigurazioni o addirittura il mancato utilizzo dei prodotti software che l’utente ha già in casa. In questo senso, Infinity e Copilot possono essere di grande supporto perché aiuteranno i clienti a sfruttare nel modo corretto i prodotti attivi ma non usati.
Un secondo punto riguarda l’efficienza degli analisti di sicurezza: soprattutto in un periodo di skill shortage come quello attuale, è importante poter disporre della GenAI sia per capire velocemente che cosa è successo e porvi rimedio, sia per capire come migliorare la sicurezza dell'organizzazione. Non significa che l’AI sostituirà gli analisti, ma che renderà più efficiente la parte di Incident Response.