▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

Spoofing con gli assistenti vocali, una possibile soluzione

Una nuova tecnica promette di tutelare meglio gli utenti degli assistenti vocali dagli attacchi di spoofing.

Business Consumer Vulnerabilità
Chi usa gli assistenti vocali come Amazon Alexa o Google Assistant può essere vittima di spoofing vocale. I ricercatori di Data61 hanno creato Void, una soluzione capace di rilevare gli attacchi di spoofing vocale otto volte più velocemente dei metodi tradizionali. Inoltre, impiega una quantità di memoria 153 volte inferiore, affermandosi come un'opzione facilmente integrabile nei dispositivi intelligenti.

Per comprendere la minaccia bisogna fare un passo indietro. Gli utenti che hanno dispositivi di riconoscimento vocale li usano spesso per fare acquisti online, telefonate, inviare messaggi, controllare elettrodomestici intelligenti e accedere ai servizi bancari.

Lo spoofing vocale consiste nel presentare al dispositivo intelligente una registrazione vocale fasulla, che imita la voce dell'utente legittimo. Così facendo i cyber criminali possono "effettuare acquisti con la carta di credito della vittima, controllare i dispositivi IoT connessi, ottenere dati sensibili come le coordinate del conto corrente, informazioni finanziarie, indirizzo di casa e altro" spiega Muhammad Ejaz Ahmed, Cybersecurity Research Scientist della divisione Data61.
amazon alexaLa prima informazione importante è che nonostante lo spoofing vocale sia una minaccia nota, è uno degli attacchi più facili da eseguire. Basta essere in possesso di una registrazione della voce della vittima. Al momento ci sono diverse tecnologie che cercano di fronteggiare questo fenomeno, anche con l'impiego dell'Intelligenza Artificiale. Il guaio è che non sono sempre efficaci. 

Void (Voice liveness detection) si propone come alternativa più efficiente e precisa nel prevenire l'uso improprio dei comandi vocali delle persone. Può essere integrata in uno smartphone o nel software di gestione dell'assistente vocale. Una volta attivata identifica le differenze di potenza spettrale tra una voce umana "dal vivo" e una riprodotta attraverso un altoparlante.

Nel secondo caso blocca le operazioni sospettando che qualcuno stia tentando di trarre in inganno il sistema. Il trucco è quindi la base scientifica. Tutto ruota attorno agli spettrogrammi, che potremmo definire per sommi capi una rappresentazione visiva dello spettro delle frequenze di un segnale. Funziona perché lo spettro di una voce dal vivo e di una registrata hanno spettri molto differenti.

I test condotti con un sistema Samsung hanno ottenuto una precisione del 99%. L'azienda intende quindi proporre questa soluzione ai produttori di assistenti vocali, affinché integrino questa tecnologia all'interno dei propri software di gestione.

La superficie per gli attacchi di spoofing vocale è molto estesa: si stima che entro il 2023 nelle case di tutto il mondo saranno in uso 275 milioni di dispositivi con assistente vocale. È una crescita esponenziale che mette a rischio la sicurezza di milioni di persone. Oltre tutto, in un contesto internazionale in cui le norme per la tutela della privacy sono sempre più stringenti e obbligano i produttori di tecnologia a soddisfare precisi requisiti di tutela dei dati. 
google assistantIn attesa di sviluppi in questo senso, ecco alcuni suggerimenti per proteggere i propri dati quando si usano gli assistenti vocali. La prima best practice è quella di modificare le impostazioni dell'assistente vocale di modo che si attivi solo mediante un'azione fisica, come la pressione di un pulsante. È vero che usare solo la voce è comodo, ma apre agli attacchi di spoofing vocale.

Sui dispositivi mobili, è bene sincerarsi che l'assistente vocale possa attivarsi solo quando il sistema è sbloccato. Nel caso di prodotti per l'ambiente domestico o per l'ufficio, è bene spegnerli sempre quando si esce.

Dato che per perpetrare un attacco di spoofing vocale il criminale informatico dev'essere in possesso di campioni della voce della vittima, è bene cancellare periodicamente tutti i messaggi vocali registrati con Google, Apple o Amazon.

Ultimo ma non meno importante: meglio limitare all'indispensabile gli acquisti online tramite assistenti vocali e le richieste agli stessi di dati riservati, quali quelli finanziari.
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di SecurityOpenLab.it iscriviti alla nostra Newsletter gratuita.
Rimani sempre aggiornato, seguici su Google News! Seguici

Notizie correlate

Speciali Tutti gli speciali

Speciale

Previsioni per la cybersecurity del 2025

Speciale

Digitalizzazione e cybersecurity

Reportage

Cybertech Europe 2024

Speciale

Identity security

Speciale

Infosecurity Europe 2024

Calendario Tutto

Dic 19
Webinar v-valley : Barracuda: the power of Choice
Gen 21
Palo Alto Networks Partner Xchange Milano
Gen 23
Nutanix Cloud Day Roadshow - Bari
Giu 05
MSP Day 2025

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter