fbpx
server Facebook crash deepfake

I modelli di Facebook faticano ancora a riconoscere i deepfake
In una recente sfida, è stato raggiunta un'accuratezza di solo il 65.18%


Facebook sembra ancora essere in difficoltà quando si tratta di riconoscere i deepfake, ovvero quella tipologia di video manipolati tramite l’intelligenza artificiale per cambiare le fattezze dei soggetti ripresi. A dimostrarlo sono i risultati raggiunti in una recente competizione indetta dall’azienda per trovare un sistema in grado di riconoscere questa tipologia di contenuti.

Facebook arranca dietro ai deepfake

La tecnologia dei deepfake, per quanto ancora embrionale, è considerata un minaccia molto concreta dalle piattaforme online. Con la sua capacità di far sembrare che una persona abbia fatto o detto praticamente qualunque cosa, infatti, rappresenterebbero una nuova frontiera nel panorama delle fake news. Non solo: la loro diffusione minerebbe la credibilità anche dei video veritieri, in quanto chiunque, maliziosamente o in buona fede, potrebbe additarli come ‘deepfake molto elaborati’.

Per questo Facebook, in un tentativo di trovare uno strumento adatto a contrastare il fenomeno, ha indetto di recente la Deepfake Detection Challenge. Si è trattata di una competizione con più di 2000 partecipanti impegnati nel testare più di 35mila modello a partire da dei dati creati apposta per l’evento.

Nonostante lo sforzo, il modello migliore è riuscito ad identificare correttamente i video falsi soltanto nel 65.18% dei casi. Considerando che un risultato del 50% è assolutamente equivalente al lancio di una monetina, l’accuratezza ottenuta nella competizione non è poi così in alta.

In una dichiarazione il social network ha detto: “Creando e condividendo un dataset di più di 100mila video, la competizione ha permesso ad esperti da tutto il mondo di unirsi, provare i loro modelli deepfake, trovare nuovi approcci e imparare gli uni dagli altri”.

Lo sforzo continua

Già da gennaio Facebook ha dichiarato che si sarebbe impegnata rimuovere qualunque video modificato in maniera ingannevolemanipolatoria. La moderazione di questi contenuti è fatta ancora sostanzialmente a mano, a partire dalle segnalazioni e al limite  usando algoritmi in grado di riconoscere gli argomenti trattati in un determinato video per favorirne l’individuazione.

La ricerca di strumenti smart per contrastare questa minaccia continua, ma avrà successo? Solo il tempo ce lo dirà.

Bestseller No. 2

Giovanni Natalini

Ingegnere Elettronico prestato a tempo indeterminato alla comunicazione e alla divulgazione. Estremamente curioso e interessato a quasi tutto: scienza, tecnologia, società, ma anche fumetti, podcast, internet culture e videogiochi.