Site icon Techprincess

Princeton: il sistema per la protezione bambini di Apple è pericoloso

Princeton: il sistema per la protezione bambini di Apple è pericoloso thumbnail

Princeton apple csma protezione bambini min

Due ricercatori dell‘Università di Princeton definiscono pericoloso il sistema CSAM (Chil Sexual Abuse Materiales) di Apple, con cui l’azienda di Cupertino vuole scandagliare le fotografie su iCloud in cerca di materiale illegale. Lo dicono sulla base dell’esperienza. Infatti hanno scritto un programma simile per rintracciare materiale che ritrae minori in maniera sessualmente esplicita. E conoscono il rischio per la privacy.

Princeton avverte: il sistema CSAM di Apple è pericoloso

Il rischio che si corre, secondo l’assistente professore Jonathan Mayer e ricercatrice laureata Anunay Kulshrestha, è che un governo repressivo potrebbe chiedere ad Apple di cercare immagini politiche. Lo fanno sulle pagine del Washington Post, spiegando che avevano le stesse buone intenzioni di Apple.

Il nostro progetto di ricerca iniziò due anni fa, come un sistema sperimentale per identificare CSAM nei servizi online end-to-end. Come ricercatori di sicurezza, conosciamo il valore della crittografia end-to-end, che protegge i dati dall’accesso di estranei. Ma eravamo anche disgustati dalla proliferazione di CSAM sulle piattaforme crittate. E temevamo che i servizi online fossero riluttanti a usare la crittografia senza strumenti per combattere la CSAM.

Abbiamo provato a esplorare una via di mezzo, dove i servizi online potessero identificare contenuti pericolosi pur conservando la crittografia. Il concetto era semplice: se qualcuno avesse condiviso materiale che combaciava con quello nei database pericolosi il servizio sarebbe allertato. Se condividevano contenuti innocui, la privacy restava. Le persone non potevano leggere il database per evitare che i criminali capissero come aggirare le restrizioni.

Dopo molte false partenze, abbiamo costruito un prototipo. Ma abbiamo incontrato un chiaro problema. Il nostro sistema poteva essere facilmente utilizzato per sorveglianza e censura. Il design non era ristretto a contenuti specifici, sarebbe bastato cambiare il database di controllo e la persona che usa il servizio non lo avrebbe mai saputo.

Un governo straniero, per esempio, avrebbe potuto chiedere al servizio di svelare chi condivide contenuti contro il regime. E non è un ipotetico: WeChat, la popolare applicazione di messaggistica cinese, già controlla i contenuti per cercare materiale dei dissidenti. L’India ha passato leggi che potrebbero richiedere un controllo governativo dei contenuti critici. La Russia ha di recente multato Google, Facebook e Twitter per non aver rimosso contenuti pro-democrazia”.

Apple contesta che non cederebbe mai a queste pressioni. Ma i ricercatori credono che potrebbe non avere scelta, se dei governi forzassero la mano.

OffertaBestseller No. 1
Exit mobile version