fbpx
AttualitàNewsTech

Clona la voce di un parente: la truffa dell’IA

Negli ultimi tempi si parla molto delle possibili applicazioni dell’intelligenza artificiale (AI) nei più svariati campi. C’è chi ha sfruttato la tecnologia per scrivere canzoni, chi, come Microsoft, la sta implementando nei propri motori di ricerca, e chi la usa per pregare con Padre Pio (tutto vero, ve ne abbiamo parlato qui). Tuttavia l’intelligenza artificiale è stata già utilizzata per realizzare attacchi informatici e, ultimamente, anche per più di un tentativo di truffa.

Il caso dei coniugi Grace e del giovane Brandon

L’episodio è avvenuto nella città canadese di Regina, nel Saskatchewan, che si trova in quelli che sono chiamati Territori del Nord-Ovest. In pratica siamo a pochi chilometri dal confine statunitense. Vittima della truffa una donna di 73 anni, tale Ruth Card, la quale ha ricevuto una telefonata da quello che, dalla voce, sembrava proprio suo nipote Brandon. Questi informava la nonna di essere in prigione, senza portafoglio e cellulare, chiedendo all’anziana i soldi per pagare la cauzione.

Ovviamente, come avrete intuito, al telefono non c’era il vero Brandon. I truffatori hanno infatti sfruttato l’AI per simulare la voce del giovane, cercando così di truffare la donna. Fatto sta che la signora, totalmente ignara del raggiro, si è subito precipitata in banca insieme a suo marito Greg Grace (75 anni). I due hanno prelevato 3000 dollari canadesi (poco più di 2000€). Una volta recatisi in una seconda filiale, nel tentativo di aggirare il limite di prelievo giornaliero imposto dalle leggi canadesi, i due anziani sono stati fermata dal direttore della banca stessa.

Questi, preoccupato per i movimenti sospetti della coppia si è interessato alle motivazioni dietro il prelievo. Dopo aver percepito che che i due anziani potessero essere al centro di un raggiro, il direttore della filiale ha riportato alla razionalità i due coniugi, che hanno così capito che il vero Brandon, in realtà, non era mai finito in manette.

“Ci siamo cascati in pieno”, ha dichiarato Ruth Card al Washington Post. “Eravamo convinti di parlare con Brandon”.

Una truffa ben elaborata tramite intelligenza artificiale

L’episodio in questione non è certamente un caso isolato. The Washington Post riferisce che, solo nel 2022, le truffe sono state il secondo racket più popolare in America, con oltre 36.000 segnalazioni di persone truffate da coloro che fingevano di essere amici e familiari (dati della Federal Trade Commission). Oltre 5.100 di questi incidenti sono avvenuti via telefono. Sommando tutte le truffe riuscite, le vittime hanno perso un totale di 11 milioni di dollari.

I recenti progressi in termini di intelligenza artificiale non hanno fatto che fornire ai criminali nuovi strumenti per realizzare truffe sempre più credibili. Basti pensare alle tecnologie deep fake, in grado di replicare in modo perfetto le voci e i volti.

Questi tentativi di truffa, tramite intelligenza artificiale e non, vengono chiamate impostor scams (letteralmente truffa dell’impostore). Il meccanismo è bene o male sempre lo stesso: la vittima, generalmente anziana, viene contattata da un truffatore che si finge un parente o una persona di fiducia, chiedendo del denaro perchè in condizione di difficoltà. Facendo leva sulla parte emotiva della vittima, i truffatori spingono affinchè il denaro venga inviato il prima possibile. In tal modo la vittima si ritrova in uno stato psicologico di allarmismo, cercando di aiutare il parente, l’amico o l’amante in difficoltà senza ragionare in modo razionale. Spesso le vittime vengono scelte tra gli anziani, che tendenzialmente sono meno avvezzi ai pericoli delle nuove tecnologie.

Il caso Benjamin Perki

Un altro esempio di truffa tramite intelligenza artificiale perfettamente pianificata è quella che ha visto come vittime i genitori del 39enne Benjamin Perki. I due coniugi, anche in questo caso anziani, hanno ricevuto una telefonata da un presunto avvocato che li informava che Benjamin era in prigione dopo aver ucciso un diplomatico statunitense in un incidente d’auto. L’avvocato asseriva che Benjamin aveva bisogno di denaro immediatamente, per sostenere le spese legali.

I genitori sono stati ancor più allarmati quando il sedicente avvocato ha passato la cornetta a Benjamin Perkin stesso. I coniugi si sono ritrovati con la voce del figlio dall’altro capo del telefono che diceva di amarli e di aiutarlo economicamente in quella drammatica situazione. La voce, ovviamente un fake, chiedeva 21.000 dollari per sostenere la prima causa legale, che si sarebbe tenuta quello stesso giorno.

I genitori di Perkin, in seguito, rivelarono che la chiamata in effetti era sembrata sospetta, ma che non riuscivano a scrollarsi di dosso la sensazione di aver parlato davvero con loro figlio in prigione. La voce suonava “abbastanza fedele affinché i miei genitori credessero davvero di aver parlato con me”, ha spiegato il vero Benjamin Perkin in seguito. Presa dal panico, la coppia si è precipitata in banca e ha inviato la cifra richiesta dall’avvocato: 21.000$ in Bitcoin. I coniugi hanno capito di essere stati truffati solo poche ore dopo, quando il vero Benjamin ha telefonato ai genitori per una normale chiamata di routine.

Come hanno fatto i cybercriminali a rubare la voce di Benjamin?

Non è chiaro come i truffatori abbiano ottenuto la sua voce di Benjamin Perkin, ma è probabile che la fonte sia stato un video su YouTube, piattaforma sulla quale il ragazzo teneva puntualmente un vlog di motoslitte (la sua grande passione). La famiglia ha immediatamente denunciato la truffa presso le autorità federali canadesi, ma oramai era troppo tardi, anche perchè il versamento era avvenuto in Bitcoin.

È così semplice simulare in modo realistico la voce di un essere umano?

La risposta a questa domanda è si.

I software di generazione vocale basati su AI analizzano ciò che rende unica la voce di una persona. La tecnologia tiene conto di tutti i parametri, inclusi età, sesso e accento. Una volta analizzata la voce, il software cerca voci simili nel vasto database della rete. Per realizzare la truffa perfetta basta un breve campione di audio, che può essere facilmente rubato da YouTube, podcast, spot pubblicitari, video di TikTok, Instagram o Facebook

“Fino a pochi anni fa avevi bisogno di molto audio per clonare la voce di una persona”, spiega Hany Farid, professore di digital forensics presso l’Università della California a Berkeley. “Ora, se anche solo hai pubblicato un video su TikTok con la tua voce, le persone possono letteralmente clonare la tua voce.

Aziende come ElevenLabs, una start-up di sintesi vocale AI fondata nel 2022, sono in grado di partire da un breve campione vocale per generare una copia fedele della voce. Il software di ElevenLabs può essere utilizzato in modo gratuito, anche se con prezzi accessibili (dai 5$ ai 330$) è possibile sfruttare le funzionalità più avanzate. Un investimento insignificante per chi ha in mente di realizzare una truffa da migliaia di dollari.

MEDION Gaming bundle P81016 MD88087
  • Tastiera di alta qualità con 26 pulsanti antighosting per comandi complessi. Retroilluminazione RGB Rainbow con 8...
  • Cuffie con driver dell'altoparlante da 40 mm e bassi potenti; Microfono integrato e controllo del volume;Illuminazione a...
  • grande tappetino per mouse con una robusta superficie in tessuto. Può essere arrotolato con una parte inferiore...

Da non perdere questa settimana su Techprincess

🍎Nuovi iPad e accessori: cosa aspettarsi dall’evento Apple del 7 maggio
🍿Fallout: tutte le domande irrisolte alle quali la Stagione 2 dovrà rispondere
🛞Come scegliere gli pneumatici estivi per l’estate? I fattori da considerare
🤯Google licenzia 28 dipendenti per proteste contro il progetto Nimbus in Israele
✒️ La nostra imperdibile newsletter Caffellattech! Iscriviti qui 
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
💌 Risolviamo i tuoi problemi di cuore con B1NARY
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!

Marco Brunasso

Scrivere è la mia passione, la musica è la mia vita e Liam Gallagher il mio Dio. Per il resto ho 30 anni e sono un musicista, cantante e autore. Qui scrivo principalmente di musica e videogame, ma mi affascina tutto ciò che ha a che fare con la creazione di mondi paralleli. 🌋From Pompei with love.🧡

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button