ChatGPT potrebbe essere una minaccia per la cybersecurity ma anche una risorsa per i difensori. L’opinione dell’esperto.
Autore: Redazione SecurityOpenLab
ChatGPT sta riscuotendo molta attenzione da parte dei media. Non è la prima AI Generativa, esistono già decine di applicazioni per la stesura di testi originali, la creazione di video e di immagini inediti, di musica e di codice. OpenAI, tuttavia, è il nome più rappresentativo del momento, dato che è il cavallo su cui Microsoft ha deciso di puntare miliardi di dollari. Proprio l’investimento della casa di Redmond, e la disponibilità di un sito aperto tramite il quale “interrogare” l’AI, ha scatenato l’opinione pubblica.
Le questioni etiche e le potenzialità generiche di una AI Generativa non sono competenza di questo sito. Ma lo sono le potenziali insidie sul piano della cybersecurity. Le hanno analizzate gli esperti di Kaspersky, che hanno riassunto gli aspetti principali. Quello che è bene ricordare è che, come la maggior parte delle tecnologie al momento dell’esordio, ChatGPT di per sé non svolge alcuna azione dannosa. È il suo impiego, e quindi il suo utilizzatore, a determinarne un uso buono o cattivo.
Per quanto riguarda il phishing, ChatGPT-3 è capace di creare testi credibili e difficilmente distinguibili da quelli scritti dagli esseri umani. Per questo motivo, i criminali informatici stanno già cercando di applicare questa tecnologia agli attacchi di spear-phishing, ossia il phishing mirato. In precedenza, l’ostacolo principale che gli impediva di condurre campagne di spear-phishing di massa era il costo elevato della scrittura di ciascuna e-mail mirata. ChatGPT potrebbe permettere agli attaccanti di generare e-mail di phishing persuasive e personalizzate su scala industriale. Può persino riprodurre la corrispondenza, creando false e-mail convincenti che sembrano inviate da un dipendente all’altro. Purtroppo, questo significa che il numero di attacchi di phishing di successo potrebbe aumentare.
ChatGPT è in grado di generare codici, purtroppo anche quelli dannosi. Significa che usandolo sarà possibile creare un semplice infostealer senza alcuna competenza di programmazione. Tuttavia, gli utenti più esperti non hanno nulla da temere. Se il codice scritto da un bot viene effettivamente utilizzato, le soluzioni di sicurezza lo rileveranno e lo neutralizzeranno con la stessa rapidità con cui sono stati individuati tutti i precedenti malware creati dall’uomo. Sebbene alcuni analisti temano che ChatGPT possa addirittura creare un malware personalizzato per ogni vittima, questi modelli mostrerebbero comunque un comportamento dannoso che molto probabilmente verrà rilevato da una soluzione di sicurezza. Inoltre, è probabile che il malware scritto dal bot contenga piccoli errori e difetti logici, il che significa che la piena automazione della codifica del malware deve ancora essere raggiunta.
In sostanza, nonostante l’hype che ha generato, l’esperto di security Vladislav Tushkanov sottolinea che “ChatGPT non è assolutamente in grado di diventare una sorta di IA autonoma per l’hacking. Il codice malevolo generato dalla rete neurale non sarà necessariamente funzionante e richiederà comunque uno specialista esperto per essere migliorato e implementato”.
Sebbene lo strumento possa essere utile agli attaccanti, anche i difensori possono trarne beneficio. Ad esempio, ChatGPT è già in grado di spiegare rapidamente cosa fa un particolare elemento di codice. Si rivela utile in condizioni di SOC, dove gli analisti, costantemente oberati di lavoro, devono dedicare una quantità minima di tempo a ogni incidente, quindi qualsiasi strumento che acceleri il processo è ben accetto. In futuro, gli utenti avranno probabilmente a disposizione numerosi prodotti specializzati: un modello di reverse-engineering per comprendere meglio il codice, un modello per la risoluzione di CFT, un modello per la ricerca di vulnerabilità e altro ancora.
In definitiva, ChatGPT oggi non ha un impatto immediato sull’industria e non cambia il mondo della cybersecurity, ma le prossime generazioni di IA probabilmente lo faranno. Secondo Tushkanov, “nei prossimi anni potremmo vedere come i modelli linguistici di grandi capacità, basati sia sul linguaggio naturale che sul codice di programmazione, vengano adattati a casi d’uso specializzati nella cybersecurity. Questi cambiamenti possono influenzare un’ampia gamma di attività di cybersecurity, dalla ricerca delle minacce alla risposta agli incidenti”. Ecco il motivo per il quale i vendor di cybersecurity devono esplorare fin da subito tutte le possibilità.