fbpx
riconoscimento facciale

Riconoscimento facciale o Deep Fake?
Ancor prima delle questioni etiche, ci sono quelle tecnologiche: i bias degli algoritmi e il deepfake


Ogni volto è unico. Un prodotto inimitabile della genetica e della storia di ognuno di noi. Impariamo a riconoscere i volti dopo pochi minuti dalla nascita, perché è una competenza fondamentale per ogni essere umano. Quindi abbiamo insegnato il riconoscimento facciale ai computer non appena la tecnologia ce lo ha permesso.

Ed i computer si sono dimostrati molto bravi a farlo: l’iPhone ci riconosce al volo (anche con la mascherina) e i sistemi della CIA riconoscono ogni criminale nei film di spionaggio americani. Però non sono perfetti. Non soltanto perché, fra i mille diversi usi che questa tecnologia può avere, ce ne sono alcuni che sollevano dubbi morali. Ma anche perché ha due limiti tecnologici significativi: i bias etnici e il problema dei deepfake.

Riconoscimento facciale: una tecnologia dai mille usi

Il riconoscimento facciale è in ogni smartphone. O quasi. Tecnologie con il FaceID di Apple riconoscono i tratti del volto come dati biometrici per sbloccare il telefono, al pari delle impronte. Sono quindi una misura di sicurezza personale sviluppata con in testa anche la privacy: ad esempio le scansioni non sono salvate sul cloud ma solo in locale. Ma non è solo all’accensione dello smartphone che troviamo il riconoscimento facciale: Facebook e Instagram riconoscono i volti delle foto caricate, Google Foto riesce a trovare tutte le foto in cui compare lo stesso soggetto.

Offerta
Google Pixel 4 XL 16 cm (6.3") 6 GB 64 GB Nero 3700 mAh...
  • - Type: Smartphone- 2G Network: GSM 850 / 900 / 1800 / 1900- 3G Network: HSDPA 850 / 900 / 1700(AWS) / 1900 / 2100- 4G...
  • pixels- Displaytype: P-OLED capacitive touchscreen, 16M colors- Memory int.: 64GB 6GB RAM- Card slot: No- Keypad: full...
  • 2x optical zoom- Selfie Camera: 8 MP, f/2.0, 22mm (wide), 1.22µm, no AFTOF 3D camera- Oper.System: Android 10-...

Questa tecnologia non serve solo ai giganti della Silicon Valley. Alcuni ricercatori hanno sviluppato un programma che usa il riconoscimento facciale per aiutare i bambini autistici a riconoscere le emozioni negli altri. Listerine (sì, l’azienda del collutorio) ha sviluppato un’app che permette ai non vedenti di capire se chi hanno di fronte sta sorridendo. Di recente, è stato usato per rilevare il corretto uso delle mascherine nei luoghi pubblici. Ed probabile che nei prossimi anni questo tipo di notizie continuino ad aumentare.

Una tecnologia (molto dibattuta) per la sicurezza pubblica

Infine c’è la questione più complicata e dibattuta: l’uso del riconoscimento facciale per la sicurezza pubblica. Negli ultimi anni le forze dell’ordine di tutto il mondo hanno iniziato ad usare questa tecnologia per identificare indagati ripresi dalle telecamere durante furti e rapine. Ma anche (sembra) per monitorare i protestanti di Hong Kong e quelli per la morte di George Floyd negli Stati Uniti. Sollevando dubbi sull’eticità di usare questa tecnologia, tanto che sia Microsoft che Amazon hanno sospeso la loro collaborazione con il governo statunitense nell’ambito del riconoscimento facciale.

riconoscimento facciale person of interest
(Non temete, questa è una scena di un telefilm: Person of Interest)

Questi software, che vengono usati anche da catene di supermercati e centri commerciali per rintracciare borseggiatori e ladri, usano di solito database limitati, come ad esempio le fotografie di chi è schedato dalla polizia.  Per questo ha suscitato scandalo Clearview AI, una società che produce un software per il riconoscimento facciale che usa invece un database “pubblico”, prendendo fotografie dai social network. Nonostante questo violi le linee guida di Facebook, Twitter e molti altri social.

In Italia

Nel nostro Paese la tecnologia per il riconoscimento facciale usata dalle forze dell’ordine è Sari, che secondo un comunicato stampa della Polizia usa solo fotografie di censurati e sospetti. Un’indagine apparsa l’anno scorso  su Wired ha messo in luce che le persone nel database sono 9 milioni: 2 milioni di italiani censurati e 7 milioni di stranieri.

Sari Enterprise permette di confrontare video di sicurezza con sospetti, che però un esperto di polizia scientifica controlla personalmente. Sari Real Time serve invece per trovare sospetti in diretta, durante manifestazioni o eventi sportivi. In un’interrogazione parlamentare di gennaio il Ministero dell’Interno ha però spiegato che al momento la Polizia non usa la versione Real Time.

Sari riconoscimento facciale italiano
(Immagine da Punto Informatico)

L’Unione Europea, viste anche le perplessità nate con i casi di Hong Kong e degli Stati Uniti, ha incluso delle linee guida sul riconoscimento facciale nel suo “Libro Bianco” sull’intelligenza artificiale. Nel testo non compare però la moratoria di cinque anni sul riconoscimento facciale che alcuni membri avevano chiesto. Il Libro Bianco si limita a dire che il riconoscimento remoto può essere effettuato solo se giustificato (senza specificare casistiche) ed avvertire che alcuni algoritmi hanno dei bias.

Il riconoscimento facciale è razzista?

A gennaio del 2020 Robert Julian-Borchak Williams è stato arrestato per una serie di rapine. La prova: il software per il riconoscimento facciale della Polizia di Detroit, che aveva analizzato i filmati di sicurezza delle banche. Dopo una notte in cella, nel pomeriggio del giorno dopo due detective interrogano Williams, gli parlano delle rapine, gli mettono una fotogramma zoomato del filmato della telecamera e chiedono: “Sei tu?”. Lui mette la fotografia accanto al suo volto e risponde: “No. Pensate davvero che tutti gli uomini di colore siano uguali?”.

Robert Julian-Borchak Williams
(PHOTO CREDIT: Sylvia Jarrus per The New York Times)

Il dipartimento libera il sospettato: le impronte non corrispondono ed il volto evidentemente non è il suo. Nel frattempo, l’hanno schedato, gli hanno preso il DNA e l’hanno detenuto una notte. Tutto per un errore software.

Le analisi del NIST

Il fatto che il sistema abbia fallito nel riconoscere una persona afro-americana non è un caso. Il NIST (National Istitute of Standards and Technology), ente governativo americano, stima che la maggior parte dei software per il riconoscimento facciale abbiano dei “bias etnici”.

Sia nel rapporto uno a uno (come per sbloccare il proprio iPhone) sia per quello uno a molti (come nelle indagini della polizia), le statistiche del NIST mettono in evidenza che la quasi totalità dei software analizzati riconosce con elevata precisione solo soggetti caucasici. Secondo le analisi, le donne afroamericane e i nativi americani sono le categorie peggio riconosciute, con margini d’errore dalle 10 alle 100 volte più elevati rispetto ai soggetti caucasici. Questo è dovuto al fatto che si usino soprattutto fotografie di uomini bianchi per “addestrare” l’intelligenza artificiale a riconoscere i volti. Tanto che nel 2018 diversi software non hanno riconosciuto il genere di Oprah Winfrey, Serena Williams e Michelle Obama, tre delle donne nere più celebri al mondo.

Il capo progetto di Amazon Rekognition disputa queste statistiche, non trovando però il sostegno di molti ricercatori in questo campo. Entrambe le dichiarazioni sono però precedenti l’arresto di Williams, il primo caso in cui l’errore ha coinvolto le forze di polizia.

Quando il problema è sbloccare l’iPhone la situazione può essere frustrante ma ancora gestibile. Quando finiamo per errore in cella la situazione cambia. Ma l’arresto di Williams si sarebbe potuto evitare se gli agenti avessero confrontato di persona il video della rapina con una sua fotografia? Purtroppo non è davvero così semplice. Alcune ricerche condotte nel campo dell’aviazione, dove l’uso di tecnologie è molto elevato, hanno dimostrato che soffriamo del cosiddetto bias dell’automazione. Siamo portati a fidarci delle tecnologie, ignorando problemi che non ci vengono segnalati e mettendo in dubbio i nostri sensi se contraddicono quanto dice la macchina.

Offerta
Apple iPhone 11 Pro (64GB) - Verde Notte
  • Display super retina xdr da 5,8" (oled)
  • Resistente alla polvere e all'acqua (4 metri fino a 30 minuti, ip68)
  • Sistema a tripla fotocamera da 12mp (ultra-grandangolo, grandangolo e teleobiettivo) con modalità notte, modalità...

La questione “Deepfake”

I bias etnici del riconoscimento facciale hanno una soluzione tecnologica: chi sviluppa questo tipo di software deve addestrare l’intelligenza artificiale a riconoscere le altre etnie. Ma c’è un altro problema che viene invece proprio dalla tecnologia stessa: il deepfake.

I deepfake usano l’intelligenza artificiale per ricreare volti e voci di qualcun altro. Attualmente, il 96% dei video deepfake viene utilizzato per creare video porno. Una pratica che coopta senza consenso il corpo e il volto delle donne (nella stragrande maggioranza dei casi). Per la quale è necessario trovare soluzioni sia legislative che di controllo da parte delle piattaforme pornografiche. Ma le casistiche d’uso illecito di questa tecnologia stanno aumentando.

Nunzia Ciardi, capo della Polizia Postale, commenta: “Oggi  i video deepfake in rete sono circa 15.000. Non tantissimi quindi, ma in pochi mesi il loro aumento è stato del 100 per cento. Siamo costretti a inseguire l’evoluzione del sistema per contrastare i crimini, sapendo che ormai non c’è più differenza tra vita reale e virtuale. Possono essere tanti gli scopi criminali, dall’uso politico ai reati finanziari. Recentemente un’azienda è stata truffata per 18 milioni con le tecniche di social engineering. È chiaro che per contrastare il fenomeno la sola legge nazionale non è sufficiente”.

Riconoscimento facciale e deepfake

Secondo un analisi di TowardsDataScience, al momento le tecnologie di riconoscimento facciale sono più avanzate di quelle di deepfake. Questo significa che non è ancora possibile sbloccare un’iPhone di qualcuno con un finto video. Oppure manomettere i filmati di sicurezza di una banca, in modo da ingannare il riconoscimento facciale con un deepfake.

Il deepfake è però un concetto su cui la giustizia deve confrontarsi: i finti filmati diventano sempre più sofisticati e diventa difficile distinguerli da quelli veri. Dire “questo video è falso!” non è più un modo per negare l’evidenza ma un possibile problema per tutti i processi che hanno dei filmati nel computo delle prove.

I tribunali devono per legge “verificare l’attendibilità” dei filmati usati come prova ma questa verifica richiede competenze tecniche specifiche. C’è quindi bisogno di avere esperti che controllino che il video prova non sia un deepfake per assicurarne l’attendibilità.

Al momento le soluzioni normative sono incerte. Si sta tuttavia lavorando sia a livello europeo che nazionale per trovare un metodo per affrontare al meglio il problema. Una delle soluzione più innovative è stata proposta negli Stati Uniti: l’uso di Servizi autentificati di alibi“, dei registri costanti delle attività per poter dimostrare facilmente la falsità di un video deepfake. Viene però spontaneo domandarsi se davvero sia necessario registrare ogni nostro movimento per paura che un software di un riconoscimento facciale basato su un video deepfake possa accusarci di un presunto crimine. Essere innocenti dovrebbe essere più facile di così.

Offerta
Samsung Galaxy S20 Smartphone, Display 6.2" Dynamic AMOLED...
  • Prova lo Space Zoom 30X per cogliere dettagli che rischiavi di perderti; il nostro Zoom si compone di uno Zoom ottico...
  • Con i 64 MP di risoluzione di Galaxy S20 avrai a disposizione milioni di pixel per scatti nitidi che mantengono un...
  • Registra video in 8K con l'alta risoluzione di Galaxy S20; con Fermo Immagine 8K puoi selezionare il momento che ti...

Il futuro del riconoscimento facciale

Per il momento sembra che l’uso del riconoscimento facciale da parte della polizia americana durante le proteste #BlackLivesMatter abbia sancito una pausa nell’uso della tecnologia. Di certo però non l’ha cancellata. Anche perché gli usi sono molteplici, le possibilità enormi.

Ad oggi però ci sono anche dei limiti tecnologici che vanno risolti. Per poi domandarci come società dove vogliamo tracciare il confine fra sicurezza e privacy.


Stefano Regazzi

author-publish-post-icon
Il battere sulla tastiera è la mia musica preferita. Nel senso che adoro scrivere, non perché ho una playlist su Spotify intitolata "Rumori da laptop": amo la tecnologia, ma non fino a quel punto! Lettore accanito, nerd da prima che andasse di moda.
                   










 
Sì, iscrivimi alla newsletter!
close-link