La Cisco Consumer Privacy Survey 2023 evidenzia che le fasce giovani della popolazione sono oggi quelle più attente alla tutela dei dati personali
Autore: f.p.
Ricordate quella teoria secondo cui i più giovani, essendo "nativi digitali", sono talmente abituati a usare servizi digitali di ogni genere che non badano più di tanto alla privacy delle loro informazioni personali? Pare sia proprio il contrario, almeno secondo una indagine - la Cisco Consumer Privacy Survey 2023 - che è andata ad esaminare proprio quanto i consumatori sono consci della privacy della loro vita digitale.
"Nelle fasce più giovani - sintetizza Fabio Florio, Business Development Manager and Cybersecurity Innovation Center Leader di Cisco - c'è una forte attenzione alla privacy, attenzione che con l'aumentare dell'età cala". E non è una questione solo teorica: i più giovani agiscono concretamente a tutela della propria privacy. "In generale aumenta il numero delle persone che già hanno esercitato i propri diritti DSAR [Data Subject Access Rights - NdR] e anche in questo caso i più giovani sono i più attenti".
I numeri spiegano meglio queste tendenze. A livello globale una larga (87%) fetta del campione analizzato dichiara di tenere alla privacy propria e degli altri, il che si traduce in una analoga (81% di citazioni) volontà di agire per proteggere i propri dati e la privacy in generale. La quota di chi ha già agito in questo senso, in qualche occasione, è al 46%.
Intersecando questi gruppi Cisco arriva a concludere che il 33% del campione intervistato (il 32% nel caso della sola Italia) sia fatto da consumatori "privacy active", ossia per i quali la tutela della privacy è un fattore sempre presente nelle decisioni di comportamento e di acquisto. Ed è importante notare che le fasce di età più giovani sono anche quelle con una indicazione di impegno superiore a tale media: 42% per le fasce 18-24 e 25-34 anni, 38% per la fascia 35-44 anni.
La componente "attiva" in questa sempre maggiore attenzione alla privacy si vede ad esempio nella percentuale del campione che ha già esercitato i suoi diritti DSAR, ossia ha esplicitamente chiesto ad una entità con cui ha una relazione, tipicamente commerciale, se questa gestisce i loro dati e, se sì, quali informazioni sta conservando, per quali scopi, con quali altre entità le condivide.
In questa edizione della Survey il 28% del campione ha fatto queste "indagini" DSAR, con un aumento di 4 punti percentuali anno su anno. Il 19% del campione 2023 ha anche richiesto una modifica, o persino la cancellazione, dei dati gestiti da qualche organizzazione. Anche in questo caso i più attenti sono i più giovani, con le tre fasce citate prima ancora una volta sopra la media: rispettivamente al 42, 40 e 35 percento.
L'attenzione alla privacy è insomma evidente, ma è anche vero che i consumatori sanno di non poter fare tutto da soli. Per questo chiedono che chi di dovere assuma un ruolo di leadership sulla privacy, assegnandolo in larga parte (50%) alla PA nazionale o locale. In Italia, il 43% del campione lo assegna al Governo centrale.
I consumatori sembrano quindi indicare che la privacy si tutela efficacemente quando ci sono norme specifiche e vincolanti. Una impressione confermata dal fatto che la quota del campione (55% in Italia, 46% globalmente) che afferma di essere a conoscenza delle leggi sulla privacy esprime anche la maggiore convinzione di essere in grado di proteggere i propri dati personali.
Nell'indagine Cisco non poteva mancare un approfondimento sull'AI, che in questo ambito gioca il ruolo di tecnologia in grado di estendere la raccolta e l'analisi dei dati e quindi, potenzialmente, di introdurre maggiori rischi per la privacy. Come in altre survey sul tema, il campione intervistato dà segnali ambivalenti. Da un lato ritiene che l'utilizzo dell'AI porti vantaggi (lo dice il 42% del campione italiano) e quindi è disposto a cedere i propri dati personali - anonimizzati - per migliorare le soluzioni basate su AI (lo farebbe 61% del campione italiano).
D'altro canto, c'è un evidente e già riscontrato problema di fiducia. La maggior parte del campione (54% in Italia, 60% globalmente) afferma di aver perso fiducia nelle imprese per come hanno già utilizzato l'AI. Di conseguenza è necessario che le aziende si muovano per infondere fiducia verso l'utilizzo dell'AI, ed è già possibile identificare le mosse più indicate in questo senso.
In particolare, fette importanti del campione (comunque superiori al 70%) indicano che si sentirebbero più sicure nei confronti dell'AI se le aziende che la utilizzano intraprendessero quattro azioni: fare auditing delle applicazioni basate su AI per evidenziare eventuali bias, spiegare come l'AI prende le sue decisioni, garantire che personale umano sia sempre coinvolto in queste decisioni, creare programmi per garantire il comportamento genericamente "etico" delle AI.
Quello che vale per l'AI in generale vale per la nuova moda dell'AI generativa. "È interessante notare che già adesso si passano ai motori di AI generativa informazioni che sono personali e spesso sensibili", sottolinea Fabio Florio. Un dato che stride con una altra constatazione della survey, ossia che tra le paure associate all'AI generativa c'è proprio, al primo posto, che la privacy di queste informazioni possa essere violata.
A differenza che per l'AI nel suo complesso, di fronte all'AI generativa i consumatori sembrano non sapere bene come muoversi per tutelare le proprie informazioni, al di là di azioni piuttosto generiche come non dare in pasto all'AI determinati dati o controllare sempre l'accuratezza dei suoi risultati.
Anche in questo caso, però, una buona fetta del campione (il 44%) sta assumendo una certa "agency" nei confronti delle piattaforme di AI generativa: è preoccupata dei suoi rischi e agisce in qualche modo per ridurli. Anche l'attenzione alla privacy per l'AI generativa sta insomma mutando rapidamente, come d'altronde tutto il panorama AI.