Site icon Techprincess

AI, deepfake e il loro impatto nelle elezioni americane

AI, deepfake e il loro impatto nelle elezioni americane thumbnail

Joe Biden chiama gli elettori in New Hampshire per chiedere di NON votare — ma non è davvero il Presidente. Kamala Harris dice cose assurde, Elon Musk la riposta: eppure non ha mai pronunciato quelle parole. E poi ci sono le finte fan di Taylor Swift che (non) sostengono Trump. L’AI e i deepfake sono diventati dei protagonisti assoluti della campagna elettorale per le elezioni americani del 2024, diffondendo notizie false e potenzialmente pericolose. Tanto che non ha più senso chiedersi “se” l’intelligenza artificiale avrà un impatto su chi sarà il prossimo o la prossima presidente degli Stati Uniti — ma quante volte l’ha già fatto.

L’impatto dell’AI sulle elezioni 2024

Quest’anno è stato fondamentale per le democrazie di tutto il mondo, con elezioni in un centinaio di paesi che coinvolgeranno circa il 51% della popolazione mondiale. E per la maggior parte di questi Paesi, la tecnologia giocherà un ruolo importante, con le notizie online e i social fondamentali per informare gli aventi diritto al voto. Ma rispetto al recente passato, questa volta l’uso dell’intelligenza artificiale per creare contenuti manipolati avrà un peso enorme.

Se già in passato la manipolazione delle notizie online ha avuto un ruolo importante nelle elezioni, specialmente quelle americane (basti ricordare lo scandalo Cambridge Analytica per Facebook), negli ultimi anni qualcosa è cambiato. L’ampia diffusione dell’intelligenza artificiale generativa ha semplificato di molto la creazione di fake news. Creare deepfake audio e video, postare immagini modificate e tendenziose, generare notizie inventate di sana pianta: con l’AI generativa richiede solo pochi secondi.

Chi vuole creare disordine e influenzare le elezioni di un Paese democratico ha la vita facile. E ci sono diversi casi che lo dimostrano.

Il caso del deepfake audio di Biden nel New Hampshire

Nell’ultimo paio d’anni, abbiamo visto diverse figure politiche coinvolte in deepfake creati con l’AI: dal presidente ucraino Zelensky a Papa Francesco, passando per lo stesso Donald Trump. Ma da quando, quest’anno, la campagna per elezioni americane 2024 è entrata nel vivo, l’uso di fake news create con l’AI è moltiplicato.

Un esempio emblematico di questa nuova forma di disinformazione si è verificato durante le primarie del New Hampshire nel gennaio 2024. Un deepfake audio che imitava la voce del presidente Joe Biden è stato utilizzato per scoraggiare gli elettori democratici dal votare. La chiamata automatica, che sembrava provenire da una fonte ufficiale, invitava gli elettori a “conservare il voto per novembre”, sostenendo che votare alle primarie avrebbe favorito i Repubblicani.

Il presidente non aveva mai detto nulla di simile, e la maggior parte degli elettori nelle primarie lo ha capito. Ma la voce campionata era quella di Biden, e solo un ascolto attento avrebbe potuto rivelare che non stava parlando davvero.

I video deepfake: come l’AI sta influenzando le elezioni USA 2024

Se la voce di Biden ha ingannato a gennaio, nel frattempo sono cambiate moltissime cose. L’attuale presidente ha deciso di fare un passo indietro, lasciando spazio alla sua vice Kamala Harris che questa settimana riceverà il mandato ufficiale del partito democratico alla convention di Chicago. Ma addestrare un modello AI con la voce della candidata richiede poco tempo.

Già a fine luglio, come riporta il New York Times, è arrivato online il primo video deepfake di Kamala Harris. Sotto immagini di repertorio, la voce (finta) di Harris diceva cose assurde, come “sono una marionetta del Deep State”. E assicurava che tutti quelli che avrebbero cercato di criticarla erano “maschilisti e razzisti”. Chiaramente, Harris quelle parole non le aveva mai pronunciate.

In questo caso, non si tratta di una manipolazione di qualche spia straniera o l’opera di hacker che vogliono far cadere la democrazia americana. Il video lo ha condiviso uno youtuber americano e lo ha ricondiviso su X anche Elon Musk. Specificando (con qualche ora di ritardo) che si trattava semplicemente di una “parodia”.

Sul video, tuttavia, mancava la dicitura “AI Generated Content”, che X (l’ex Twitter) come policy impone a chi vuole postare video generati dall’AI, specie se parlano di elezioni o di altre vicende politiche. Ma quando a ripostarlo senza l’etichetta è lo stesso proprietario del social, sembra che nessuno abbia fretta di rimuovere il video. E come dimostra la sua recente intervista con Trump (e i poco credibili “attacchi DDoS” subiti), Musk ha tutta l’intenzione di restare attivo e sostenere il candidato repubblicano sul proprio social network.

Immagini manipolate e sostenitori inesistenti

Oltre agli audio deepfake, le immagini generate dall’AI stanno giocando un ruolo sempre più rilevante nelle campagne di disinformazione. Un caso recente ha visto l’ex presidente Donald Trump condividere immagini manipolate di alcune Swifties, le fan di Taylor Swift, che sembravano sostenere la sua candidatura.

L’ex presidente, in passato, aveva già usato immagini create con l’AI e deepfake. Come quando aveva postato un video prendendo in giro l’intervista di Elon Musk con Ron DeSantis, in cui aveva aggiunto le voci di Hitler e Satana. Ma se in quel caso l’intento satirico era evidente (divertente o no, lo lasciamo decidere a voi), questa volta non si capisce. Sembra piuttosto che il presidente abbia condiviso, forse inconsapevolmente, un’immagine fuorviante.

Quantità industriali di fake news, grazie all’AI generativa e ai social

Oltre alle immagini e video falsi sui candidati, le fake news create sull’AI riguardano anche la politica estera. Per esempio, a maggio abbiamo assistito ai video deepfake di attori americani che attaccavano Zelensky, e le fake news sulla guerra a Gaza sono più che quotidiane.

Ma abbiamo anche visto usi dell’AI per fare politica che non riguardano la disinformazione. Un caso piuttosto recente è l’immagine generata con l‘intelligenza artificiale della campagna “All Eyes On Rafah”, che mostra una gigantesca tendopoli. Un’immagine che nessuno ha cercato di spacciare come reale, ma che serve per rappresentare graficamente un campo rifugiati.

Come per la satira, tuttavia, i social fanno da fattore moltiplicante dell’impatto dell’AI. Se le immagini create con l’AI o i deepfake satirici passano davanti agli occhi di milioni di persone, diventa più probabile che possano essere fraintesi e passare per veri. Ci sono diversi casi in cui i ricercatori di cybersecurity hanno dimostrato le intenzioni malevole dietro la creazione di alcuni contenuti, come visto con l’operazione iraniana smascherata da OpenAI. Ma anche quando nascono come video satirici o immagini motivazionali, l’enorme quantità dei contenuti generati dall’AI e la capillarità della diffusione fra social, Reddit e aggregatori di notizie online, può rendere questi contenuti potenzialmente fuorvianti.

Come risolvere la questione

Di fronte a queste sfide, al momento non c’è nessuna soluzione vincente. Ma ci sono diverse iniziative che puntano a mitigare l’effetto di AI e deepfake, almeno in vista delle elezioni USA 2024.

Un consorzio di imprese tecnologiche, tra cui Google, Microsoft e OpenAI, ha stipulato un accordo per contrastare l’uso di deepfake nelle campagne elettorali. Questo “Tech Accord to Combat against Deceptive Use of AI in 2024 Elections” mira a sviluppare strumenti e pratiche per identificare e limitare la diffusione di contenuti manipolati.

Ci sono iniziative simili anche da realtà indipendenti. Per esempio, Rest of World ha lanciato il “2024 AI Elections Tracker”, un progetto che monitora la disinformazione generata dall’AI relativa alle elezioni in diversi paesi. Questa iniziativa mira a documentare e analizzare l’uso dell’AI nella manipolazione dell’informazione elettorale su scala globale. E ce ne sono molte simili.

L’idea alla base di questi progetti è di: introdurre etichette e watermark per identificare i contenuti generati con l’AI; evidenziare quando un contenuto e generato con l’AI nei social; educare al consumo consapevole di notizie e post sui social. Tutte cose che condividiamo e consideriamo importanti. Ma anche insufficienti.

L’AI ha reso estremamente semplice creare deepfake e fake news. In questo articolo abbiamo citato i casi più eclatanti, ma gli esempi potrebbero pressoché infiniti. Serviranno studi attenti per capire l’impatto che avranno sulle elezioni americane (e quello che hanno avuto su quelle europee, francesi e tutte le altre di quest’anno). Dovremo capire, coinvolgendo università, aziende e governi, come limitarne l’impatto in futuro. Nel frattempo, dovremo affidarci al buon senso di chi vota — e ricordarci di prestare attenzione alle fonti: non possiamo credere a tutto quello che incontriamo online.

Ultimo aggiornamento 2024-10-06 / Link di affiliazione / Immagini da Amazon Product Advertising API

Exit mobile version