▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

ChatGPT può creare problemi in azienda. Come monitorarlo

Una soluzione NDR può essere utile anche per monitorare l’uso in azienda di ChatGPT ed evitare problemi legati alla violazione della privacy, del copyright e altro.

Tecnologie/Scenari

Gli LLM (Large Language Model) non sono certo una novità in ambito tecnologico, ma per via di ChatGPT hanno acquisito risonanza mediatica associata a forti preoccupazioni. In ambito cybersecurity i timori ruotano per lo più attorno al loro impiego nella stesura delle email di phishing e nella generazione di codice: entrambe attività che possono agevolare gli attaccanti così come i difensori, come avevano chiarito (fra gli altri) gli esperti di Kaspersky a tempo debito.

Ci sono tuttavia altri scenari interessanti che hanno riscosso meno successo mediatico, ma che sono stati messi in evidenza da Gearóid Ó Fearghaíl, Product Manager di Vectra AI. Per esempio la tutela della privacy, la violazione di copyright, l’inattendibilità delle informazioni, che possono causare alle aziende problemi parimenti gravi agli attacchi cyber. Riassumendo, sul fronte della privacy è ben noto che OpenAI (la proprietà di ChatGPT) tiene traccia delle richieste all’LLM per migliorare il proprio prodotto, monitorare eventuali abusi del sistema e altro. Questo comporta inevitabilmente la memorizzazione delle informazioni condivise, e se queste sono sensibili o riservate può essere un guaio.

Sul fronte copyright c’è lo stesso problema: ChatGPT o un LLM analogo non è tenuto a condurre controlli sulla proprietà intellettuale di quello che gli viene “dato in pasto”. Ma nel momento in cui lo usa e produce risultati che violano la proprietà registrata, chi ne fa uso potrebbe essere verosimilmente perseguibile.


Per quanto riguarda l’attendibilità, c’è il sottovalutato problema delle cosiddette “allucinazioni”. Non da interpretare in senso letterale del termine, ma come un abbaglio, un errore grossolano dovuto a un limite intrinseco della tecnologia stessa. Quando si chiede a un LLM di rispondere a una domanda o di comporre un testo, infatti, questo non si appoggia a un bagaglio di conoscenze strutturato come quello umano. Fa riferimento alla sua conoscenza della lingua (ossia al numero di parole che ha appreso) e a fonti non meglio precisate. Il risultato è che la risposta o il testo che vengono elaborati possono essere parzialmente o totalmente sbagliati; usarli può far prendere delle cantonate e, nel peggiore dei casi, causare danni d’immagine o economici. E non è possibile verificare le fonti di ChatGPT perché non c’è alcuna trasparenza al riguardo.

Dalla teoria alla pratica

Fin qui la teoria. La pratica è che, anche per i motivi sopra indicati, se qualcuno all’interno di un’azienda impiega ChatGPT per trovare “una scorciatoia” può danneggiare l’impresa. La strada più semplice per evitare che ciò accada sarebbe proibire l’uso di ChatGPT ai dipendenti, ma come farlo? L’LLM si interpella mediante un semplice browser, non serve un software la cui installazione può essere interdetta.

Come suggerisce Gearóid Ó Fearghaíl, è qui che si dimostra utile una soluzione NDR – Network Detection and Response, ossia una soluzione di cybersecurity in grado di analizzare in real-time sia il traffico di rete, sia “il comportamento dei computer nel senso più ampio del termine (client, server, smartphone, telecamere, stampanti e le soluzioni IoT più disparate), di qualsiasi categoria di utenti (interni o esterni all’azienda), e il comportamento dell’accesso ai servizi – siano essi email, ERP, eccetera”, come aveva spiegato a suo tempo il Country Manager per l’Italia Massimilano Galvagna.

L’attività che la piattaforma di Vectra AI svolge nativamente permette anche il monitoraggio dell’utilizzo di ChatGPT mediante l’analisi delle richieste DNS ai server di OpenAI. Grazie a un’apposita dashboard l’amministratore di rete può vedere in tempo reale quali sono gli host che interagiscono attivamente con OpenAI. Inoltre, sfruttando la tecnologia brevettata di attribuzione dell'ID host di Vectra, è possibile tracciare questi utenti anche quando gli indirizzi IP dei loro endpoint cambiano, quando si collegano a una nuova rete, e ovviamente sapere chi sono per poterli contattare in tempi brevi.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di SecurityOpenLab.it iscriviti alla nostra Newsletter gratuita.
Rimani sempre aggiornato, seguici su Google News! Seguici

Notizie correlate

Speciali Tutti gli speciali

Speciale

Previsioni per la cybersecurity del 2025

Speciale

Digitalizzazione e cybersecurity

Reportage

Cybertech Europe 2024

Speciale

Identity security

Speciale

Infosecurity Europe 2024

Calendario Tutto

Dic 19
Webinar v-valley : Barracuda: the power of Choice
Gen 21
Palo Alto Networks Partner Xchange Milano
Gen 23
Nutanix Cloud Day Roadshow - Bari
Giu 05
MSP Day 2025

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter