Site icon Techprincess

Emma Watson, Scarlett Johansson e i video porno deepfake creati con l’app FaceMega

Emma Watson, Scarlett Johansson e i video porno deepfake creati con l’app FaceMega thumbnail

Mai come per l’argomento di cui ci occuperemo oggi vale l’adagio per cui nessuna tecnologia è buona o cattiva, ma dipende dall’uso che se ne fa.

Del deepfake abbiamo già parlato in diversi articoli, illustrandone – per così dire – vizi e virtù.

Anzitutto ricordiamo brevemente di cosa si tratta. Il deepfake, in breve, basandosi sull’intelligenza artificiale si “nutre” di immagini e video di un determinato personaggio, di cui è in grado di riprodurre a sua volta video estremamente realistici.

Dicevamo, appunto, che dipende dall’uso che del deepfake si fa.

Il deepfake e i suoi possibili utilizzi

Abbiamo per esempio scritto che il deepfake potrebbe rendere molto più verosimili i film doppiati, facendo combaciare le frasi pronunciate dal doppiatore con il labiale degli attori.

Proprio intorno a un attore, Bruce Willis, è nata una polemica che riguarda il deepfake: Willis, impossibilitato a recitare perché colpito da afasia, ha o non ha ceduto i diritti sulle proprie immagini a una società di deepfake?

Ma, se vogliamo pensare a un uso perverso del deepfake, la nostra memoria deve riandare all’inizio del conflitto russo-ucraino, quando l’AI ha fatto pronunciare a un finto Zelensky un messaggio di resa del suo Paese.

I porno deepfake di FaceMega

Il deepfake, comunque lo si prenda, manipola ad arte le fattezze di qualcuno.

Dunque, la tentazione di un suo utilizzo poco cavalleresco è, immaginiamo, forte.

In questo senso è emblematico quanto accaduto nei giorni scorsi sull’app FaceMega, e che ha coinvolto attrici come Scarlett Johansson ed Emma Watson (la Ermione di Harry Potter, per intenderci).

Scopriamo cosa è accaduto, spiegando anzitutto cosa sia FaceMega.

Cos’è FaceMega

FaceMega è un’app (che, mentre stiamo redigendo l’articolo, non è presente sugli app store) sulla falsariga di FaceApp.

Che permette cioè, attraverso l’intelligenza artificiale, di mostrare volti e corpi traendo ispirazione – diciamo così – da quelli di persone reali. FaceMega, insomma, utilizza in modo disinvolto il deepfake.

Troppo, disinvolto, a vedere la campagna pubblicitaria lanciata nei giorni scorsi.

I porno deepfake di FaceMega

Sono infatti circolati su Facebook e Instagram, proprio a opera di FaceMega, ben 127 video di Emma Watson e 74 di  Scarlett Johansson, in atteggiamenti provocatori o espliciti.

Certo: si trattava del volto delle due attrici ritoccate con l’IA e sovrapposto ai corpi di pornostar.

Emma Watson, peraltro, era già stata vittima di un video porno deepfake nel 2020.

Non paghi di tanta sfacciataggine, i gestori dell’app hanno addirittura fatto circolare sui social di Meta un breve tutorial che mostra come creare “ibridi” simili.

E dire che l’azienda di Zuckerberg all’inizio del 2020 aveva annunciato che avrebbe bloccato la diffusione di contenuti manipolati.

FaceMega, invece, permette (al costo di 8 dollari a settimana) di fare libero scambio di video assolutamente credibili, sovrapponendo corpi e volti di chicchessia. Superfluo aggiungere quali siano i rischi di un simile commercio di video porno con il deepfake.

La pornografia non consensuale

Se un simile strumento non viene bloccato o normato, i porno deepfake alimenterebbero un’insensata pornografia non consensuale.

Che potrebbe colpire persone ignare, fragili psicologicamente. E potrebbe aprire un nuovo inquietante capitolo sulla violenza di genere nell’era digitale.

Va da sé che questa tecnologia, se incontrollata, potrebbe avere come bersaglio non solo le celebrità ma, ad esempio, i minorenni.

L’intelligenza artificiale non è un gioco a cui assistere passivamente, non è una sfida che ci stimola ad andare sempre un po’ più in là. Occorre normarla, bisogna che siano i vincoli legali a ricordarci di quelli etici. Se no, quello che appare come un innocuo passatempo (il porno deepfake) può facilmente degenerare in cyberbullismo, pornografia non consensuale, pedopornografia.

Deepfake
  • Littman, Sarah Darer (Autore)

I numeri del porno deepfake

Giusto per inquadrare il problema anche da un punto di vista numerico, nel 2019 DeepTrace ha rilevato che il 96% dei video deepfake che circolano su Internet sono pornografici.

La quantità di video porno deepfake raddoppia ogni anno dal 2018, e nel febbraio del 2023 si è registrato il numero massimo mensile di porno deepfake prodotti e caricati in Rete.

Servono, lo ripetiamo, chiare e severe leggi sull’argomento. Perché questi dati mostrano che auspicare un ravvedimento globale sarebbe davvero una speranza ingenua.

Exit mobile version