L'AI crea email di spear phishing efficaci, ma aiuta anche la difesa

Uno studio rivela che le email di spear phishing create in maniera automatizzata dall'AI ingannano oltre metà dei destinatari. Le stesse AI però sono anche strumenti di difesa molto efficienti.

Autore: Redazione SecurityOpenLab

La GenAI usata per scrivere le email di phishing è ormai un argomento all’ordine del giorno nell’ambito della cybersecurity. La maggior parte degli esperti la reputa la principale funzione di GenAI sfruttata dal cybercrime e i difensori hanno un gran da fare per tentare di arginare il fenomeno. Finora non è stato del tutto chiaro quanto effettivamente l’AI pesasse - in termini percentuali - sull’efficacia delle campagne di phishing e sull’ottimizzazione dei costi sostenuti dagli attaccanti.

Sul tema fa luce la interessante ricerca Evaluating Large Language Models' Capability to Launch Fully Automated Spear Phishing Campaigns: Validated on Human Subjects che ha valutato la capacità degli LLM di condurre attacchi di phishing personalizzati, confrontando le prestazioni con quelle ottenute da esperti umani. La conclusione è che da una parte gli LLM stanno rendendo gli attacchi di phishing più sofisticati ed efficaci, dall’altra si dimostrano strumenti molto utili ed efficaci per la difesa proattiva contro il phishing.

L’AI e spear phishing: un esperimento

I ricercatori titolari della Harvard Kennedy School e dell’Avant Research Group hanno sviluppato e testato uno strumento automatizzato basato sull'IA per condurre campagne di spear phishing. Hanno utilizzato GPT-4o e Claude 3.5 Sonnet per cercare informazioni disponibili sul web riguardanti obiettivi specifici e le hanno usate per creare messaggi di phishing altamente personalizzati. Il risultato è che le campagne di spear phishing mirate con il supporto dell'AI hanno ottenuto un clic rate del 54%. Per raffronto, il gruppo che ha ricevuto email di phishing generiche ha registrato un CTR del 12%. Inoltre, l’AI è stata in grado di raccogliere informazioni precise e utili sulle potenziali vittime nell'88% dei casi e di generare profili personalizzati per ciascuna di esse.

Un secondo gruppo di utenti è stato bersagliato con email di spear phishing create da esperti umani. Si sono rivelate altrettanto efficaci delle email automatizzate con l'IA, per ché hanno ottenuto lo stesso CTR: 54%. Significa che l’AI non dà alcun vantaggio? No, anzi, tutto l’opposto: a parità di clic rate, far creare email da esperti umani ha comportato costi 30 volte superiori rispetto a quelli sostenuti usando strumenti automatizzati basati sull'AI. Se si valutano invece campagne rivolte a un vasto pubblico, i ricercatori hanno valutato che gli attacchi di phishing automatizzati con l’AI possono garantire un aumento della redditività fino a 50 volte.

Mettendo a confronto i risultati ottenuti con quelli di uno studio analogo precedente, risulta inoltre un miglioramento significativo delle capacità ingannevoli dei modelli di intelligenza artificiale rispetto allo scorso anno, quando era risultato necessario l’intervento umano per ottenere risultati simili a quelli conseguiti dalle email di phishing create da esperti in carne e ossa.

AI ed esperti umani insieme

L’esperimento ha valutato anche un’altra opzione, ossia l’associazione di strumenti di GenAI con l’assistenza umana. Il risultato è che si è ottenuto un CTR superiore a quello conseguito negli esperimenti illustrati sopra, raggiungendo un clic rate del 56%. Peccato che questo abbia anche comportato un costo quattro volte superiore rispetto all’uso esclusivo di strumenti automatizzati. Significa che un essere umano esperto può effettivamente migliorare il lavoro dell’AI, ma la sua presenza potrebbe non giustificare l'investimento di tempo e risorse necessario, soprattutto in considerazione del fatto che i cyber criminali tendono a prediligere il massimo risultato con il minimo sforzo.

Difesa e riconoscimento degli attacchi

La ricerca ha anche valutato uno degli aspetti che preoccupano maggiormente difensori e potenziali vittime, ossia la capacità degli LLM di rilevare un abuso dei loro motori. L’esito non è confortante: con nessuno dei modelli testati sono risultate efficaci le barriere che dovrebbero impedire ai modelli di intelligenza artificiale di assistere i criminali informatici.

Tuttavia, c’è una buona notizia: rispetto al passato è significativamente migliorata la capacità delle AI di riconoscere email di phishing, soprattutto quando "innescate per il sospetto", ovvero quando è stato chiesto loro di valutare se le email fossero o meno sospette. A tale proposito i ricercatori hanno testato cinque diversi LLM (GPT-4o, Claude 3.5 Sonnet, Mistral Large, Gemini e Llama 3.1) istruendoli con 20 email, inclusi messaggi di controllo (spam), email create da esperti, email generate tramite AI e email legittime.

Claude 3.5 Sonnet ha conseguito il risultato migliore, identificando il 100% delle email di phishing; l’altro modello che ha dato risultati notevoli è stato GPT-4o. Entrambi sono stati successivamente testati su un dataset di 381 email, di cui 363 di phishing e 18 legittime. Claude 3.5 Sonnet ha ottenuto un tasso di rilevamento del 97,25% sulle email di phishing, senza falsi positivi, superando GPT-4o, e ha persino indicato la presenza di indirizzi del mittente sospetti e altre informazioni anomale. I modelli sono stati anche in grado di distinguere se un'email fosse scritta da un'AI o da un umano e hanno fornito ottimi consigli su come rispondere alle email sospette.


Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.