▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

Come i deepfake possono influenzare le comunicazioni di taglio istituzionale-politico

L'enorme quantità di audio, video e immagini che sono disponibili nella sfera politica rappresentano un ottimo punto di partenza per la creazione di deepfake di taglio politico.

Vulnerabilità

Salvidor Dalì è morto il 23 gennaio 1989, molti anni prima dell'avvento dei social media, molto prima che la parola “deepfake” entrasse nei vocabolari e prima ancora che la Russia imparasse a manipolare i contenuti online di un'elezione presidenziale piuttosto dibattuta. Ma Salvator Dali è tuttora presente. Chi non conoscesse il contesto o gli aspetti della sua vita e la sua storia, potrebbe concludere, dopo aver visto:

che è molto più vivo e reale di alcune delle sue opere artistiche. Questo è il punto.

Lo scorso maggio Public Citizen, un gruppo di attivisti apartitici, ha presentato alla Commissione elettorale federale degli Stati Uniti una petizione per bloccare gli annunci elettorali deliberatamente ingannevoli. Tutto questo perché gli straordinari progressi degli strumenti di Artificial Intelligence (AI) oggi forniscono agli esponenti politici i mezzi per produrre annunci elettorali con immagini false di candidati generate al computer incredibilmente realistiche al fine di rappresentare negativamente i candidati stessi.

In questo caso non si parla dell’uso dell’Artificial Intelligence che ne fa il cinema per creare effetti speciali, ambientazioni futuristiche o scenari disastrosi. L’approccio con cui viene sfruttata l’AI in politica è del tutto diverso. Cosa c'entra tutto questo con le questioni politiche e i deepfake? Tutto.

Paolo Cecchi è Regional Sales Director di SentinelOne

Una narrazione necessita di ingredienti avvincenti che la ancori nella mente del pubblico di riferimento. Nei film si tratta di intrattenimento e proiezione della realtà. In politica… anche. Un'immagine, un clip audio o un video sono espedienti utilizzati per essere credibili e rimanere impressi nella memoria delle persone. In questo contesto, il progresso dell’AI ha fatto passi da gigante, sfruttando la natura positiva del suo utilizzo, purtroppo, anche per scopi negativi.

Per essere efficace, l'AI ha bisogno di contenuti su cui essere istruita tramite machine learning. Maggiori sono i contenuti, migliore è la capacità dell'AI di raggiungere i risultati previsti. Supponendo che l'obiettivo sia la manipolazione del comportamento umano e il cambiamento di convinzioni precedentemente sostenute, l'enorme quantità di audio, video e immagini che sono disponibili nella sfera politica rappresentano un ottimo punto di partenza.

La storia insegna che le bugie si diffondono molto più facilmente della verità e sono molto più difficili da rettificare. Nella mente umana, ciò che viene percepito corrisponde al reale ed è molto più difficile cambiare la percezione iniziale una volta che questa si è insediata.

È un concetto molto attinente a quello della deception. Questo fenomeno ha generato un importante dilemma legale e tecnico. Come si riesce a sapere con certezza se il video visualizzato è un deepfake? Come si fa a dimostrare che un fatto non è avvenuto? Ma la domanda più spinosa è: come è possibile provare definitivamente che qualcosa è falso?

Durante le elezioni del 2016, la campagna di disinformazione della Russia è stata condotta tramite la Internet Research Agency - IRA - e ha prodotto uno dei migliori ritorni dell’investimento per l'interferenza politica. Poco più di 100.000 dollari hanno fornito una costante manipolazione dei social media che ha prodotto un risultato almeno cento volte superiore.

Nel 2023, l'AI si è spinta ben oltre la capacità umana di identificare rapidamente un output ingannevole (un'immagine, un video o una voce), creando una condizione in cui la facoltà di ancorare nelle menti degli elettori una percezione intenzionalmente falsa e di ignorare la verità, potrà essere considerata come la migliore arma politica.

I deepfake sono le nuove armi di inganno di massa. L'impatto più significativo dei video deepfake non è il fatto che sono falsi, ma, piuttosto, che l'inganno creato continua ad esistere anche dopo che la verità è stata scoperta: un potente strumento nelle mani dei nostri avversari.

Come scrisse Jonathan Swift, autore di “I viaggi di Gulliver”: “La falsità vola e la verità la segue zoppicando, cosicché, quando gli uomini vogliono essere disingannati, è troppo tardi; lo scherzo si è concluso e la messinscena ha avuto il suo effetto".

Un modo per sconfiggere l'AI che è stata istruita per fare del male è attraverso l’utilizzo di un’AI addestrata a produrre del bene. Non si può cedere il campo di battaglia digitale agli avversari limitando la capacità delle persone buone di creare e innovare. Le elezioni hanno le loro conseguenze. Tuttavia, le conseguenze devono essere scelte e create dai singoli elettori, non dovrebbero mai essere il risultato dell'interferenza degli avversari politici.

Le circostanze attuali sono ottimali per dichiarazioni e affermazioni politiche ingannevoli che utilizzeranno l'AI e i deepfake durante le prossime elezioni in tutto il mondo. L'AI come “forza del bene” è uno dei migliori alleati che abbiamo per fidarci di ciò che vediamo e sentiamo.

Paolo Cecchi è Regional Sales Director di SentinelOne

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di SecurityOpenLab.it iscriviti alla nostra Newsletter gratuita.
Rimani sempre aggiornato, seguici su Google News! Seguici

Notizie correlate

Speciali Tutti gli speciali

Speciale

Previsioni per la cybersecurity del 2025

Speciale

Digitalizzazione e cybersecurity

Reportage

Cybertech Europe 2024

Speciale

Identity security

Speciale

Infosecurity Europe 2024

Calendario Tutto

Gen 21
Palo Alto Networks Partner Xchange Milano
Gen 23
Nutanix Cloud Day Roadshow - Bari
Giu 05
MSP Day 2025

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter