Una soluzione NDR può essere utile anche per monitorare l’uso in azienda di ChatGPT ed evitare problemi legati alla violazione della privacy, del copyright e altro.
Gli LLM (Large Language Model) non sono certo una novità in ambito tecnologico, ma per via di ChatGPT hanno acquisito risonanza mediatica associata a forti preoccupazioni. In ambito cybersecurity i timori ruotano per lo più attorno al loro impiego nella stesura delle email di phishing e nella generazione di codice: entrambe attività che possono agevolare gli attaccanti così come i difensori, come avevano chiarito (fra gli altri) gli esperti di Kaspersky a tempo debito.
Ci sono tuttavia altri scenari interessanti che hanno riscosso meno successo mediatico, ma che sono stati messi in evidenza da Gearóid Ó Fearghaíl, Product Manager di Vectra AI. Per esempio la tutela della privacy, la violazione di copyright, l’inattendibilità delle informazioni, che possono causare alle aziende problemi parimenti gravi agli attacchi cyber. Riassumendo, sul fronte della privacy è ben noto che OpenAI (la proprietà di ChatGPT) tiene traccia delle richieste all’LLM per migliorare il proprio prodotto, monitorare eventuali abusi del sistema e altro. Questo comporta inevitabilmente la memorizzazione delle informazioni condivise, e se queste sono sensibili o riservate può essere un guaio.
Sul fronte copyright c’è lo stesso problema: ChatGPT o un LLM analogo non è tenuto a condurre controlli sulla proprietà intellettuale di quello che gli viene “dato in pasto”. Ma nel momento in cui lo usa e produce risultati che violano la proprietà registrata, chi ne fa uso potrebbe essere verosimilmente perseguibile.
Per quanto riguarda l’attendibilità, c’è il sottovalutato problema delle cosiddette “allucinazioni”. Non da interpretare in senso letterale del termine, ma come un abbaglio, un errore grossolano dovuto a un limite intrinseco della tecnologia stessa. Quando si chiede a un LLM di rispondere a una domanda o di comporre un testo, infatti, questo non si appoggia a un bagaglio di conoscenze strutturato come quello umano. Fa riferimento alla sua conoscenza della lingua (ossia al numero di parole che ha appreso) e a fonti non meglio precisate. Il risultato è che la risposta o il testo che vengono elaborati possono essere parzialmente o totalmente sbagliati; usarli può far prendere delle cantonate e, nel peggiore dei casi, causare danni d’immagine o economici. E non è possibile verificare le fonti di ChatGPT perché non c’è alcuna trasparenza al riguardo.
Fin qui la teoria. La pratica è che, anche per i motivi sopra indicati, se qualcuno all’interno di un’azienda impiega ChatGPT per trovare “una scorciatoia” può danneggiare l’impresa. La strada più semplice per evitare che ciò accada sarebbe proibire l’uso di ChatGPT ai dipendenti, ma come farlo? L’LLM si interpella mediante un semplice browser, non serve un software la cui installazione può essere interdetta.
Come suggerisce Gearóid Ó Fearghaíl, è qui che si dimostra utile una soluzione NDR – Network Detection and Response, ossia una soluzione di cybersecurity in grado di analizzare in real-time sia il traffico di rete, sia “il comportamento dei computer nel senso più ampio del termine (client, server, smartphone, telecamere, stampanti e le soluzioni IoT più disparate), di qualsiasi categoria di utenti (interni o esterni all’azienda), e il comportamento dell’accesso ai servizi – siano essi email, ERP, eccetera”, come aveva spiegato a suo tempo il Country Manager per l’Italia Massimilano Galvagna.
L’attività che la piattaforma di Vectra AI svolge nativamente permette anche il monitoraggio dell’utilizzo di ChatGPT mediante l’analisi delle richieste DNS ai server di OpenAI. Grazie a un’apposita dashboard l’amministratore di rete può vedere in tempo reale quali sono gli host che interagiscono attivamente con OpenAI. Inoltre, sfruttando la tecnologia brevettata di attribuzione dell'ID host di Vectra, è possibile tracciare questi utenti anche quando gli indirizzi IP dei loro endpoint cambiano, quando si collegano a una nuova rete, e ovviamente sapere chi sono per poterli contattare in tempi brevi.