Chi usa gli assistenti vocali come Amazon Alexa o Google Assistant può essere vittima di
spoofing vocale. I ricercatori di Data61 hanno creato Void, una soluzione capace di rilevare gli attacchi di spoofing vocale otto volte più velocemente dei metodi tradizionali. Inoltre, impiega una quantità di memoria 153 volte inferiore, affermandosi come un'opzione facilmente integrabile nei dispositivi intelligenti.
Per comprendere la minaccia bisogna fare un passo indietro. Gli utenti che hanno dispositivi di riconoscimento vocale li usano spesso per fare
acquisti online, telefonate, inviare messaggi, controllare elettrodomestici intelligenti e accedere ai servizi bancari.
Lo spoofing vocale consiste nel presentare al dispositivo intelligente una
registrazione vocale fasulla, che imita la voce dell'utente legittimo. Così facendo i cyber criminali possono "effettuare acquisti con la carta di credito della vittima, controllare i dispositivi IoT connessi, ottenere dati sensibili come le coordinate del conto corrente, informazioni finanziarie, indirizzo di casa e altro" spiega Muhammad Ejaz Ahmed, Cybersecurity Research Scientist della divisione
Data61.
La prima informazione importante è che nonostante lo spoofing vocale sia una minaccia nota,
è uno degli attacchi più facili da eseguire. Basta essere in possesso di una registrazione della voce della vittima. Al momento ci sono diverse tecnologie che cercano di fronteggiare questo fenomeno, anche con l'impiego dell'Intelligenza Artificiale. Il guaio è che non sono sempre efficaci.
Void (Voice liveness detection) si propone come alternativa più efficiente e precisa nel prevenire l'uso improprio dei comandi vocali delle persone. Può essere integrata in uno smartphone o nel software di gestione dell'assistente vocale. Una volta attivata identifica le differenze di potenza spettrale tra una voce umana "dal vivo" e una riprodotta attraverso un altoparlante.
Nel secondo caso blocca le operazioni sospettando che qualcuno stia tentando di trarre in inganno il sistema. Il trucco è quindi la base scientifica. Tutto ruota attorno agli
spettrogrammi, che potremmo definire per sommi capi una rappresentazione visiva dello spettro delle frequenze di un segnale. Funziona perché lo spettro di una voce dal vivo e di una registrata hanno spettri molto differenti.
I test condotti con un sistema Samsung hanno ottenuto una precisione del 99%. L'azienda intende quindi proporre questa soluzione ai produttori di assistenti vocali, affinché integrino questa tecnologia all'interno dei propri software di gestione.
La superficie per gli attacchi di spoofing vocale è molto estesa: si stima che entro il 2023 nelle case di tutto il mondo saranno in uso
275 milioni di dispositivi con assistente vocale. È una crescita esponenziale che mette a rischio la sicurezza di milioni di persone. Oltre tutto, in un contesto internazionale in cui le norme per la tutela della privacy sono sempre più stringenti e obbligano i produttori di tecnologia a soddisfare precisi requisiti di tutela dei dati.
In attesa di sviluppi in questo senso, ecco alcuni
suggerimenti per proteggere i propri dati quando si usano gli assistenti vocali. La prima best practice è quella di modificare le impostazioni dell'assistente vocale di modo che si attivi solo mediante un'azione fisica, come la pressione di un pulsante. È vero che usare solo la voce è comodo, ma apre agli attacchi di spoofing vocale.
Sui dispositivi mobili, è bene sincerarsi che l'assistente vocale possa attivarsi solo quando il sistema è sbloccato. Nel caso di prodotti per l'ambiente domestico o per l'ufficio, è bene
spegnerli sempre quando si esce.
Dato che per perpetrare un attacco di spoofing vocale il criminale informatico dev'essere in possesso di campioni della voce della vittima, è bene
cancellare periodicamente tutti i messaggi vocali registrati con Google, Apple o Amazon.
Ultimo ma non meno importante: meglio limitare all'indispensabile gli acquisti online tramite assistenti vocali e le richieste agli stessi di dati riservati, quali quelli finanziari.