fbpx
AttualitàCulturaNews

Princeton: il sistema per la protezione bambini di Apple è pericoloso

L'università americana lo sa perché ne ha creato uno

Due ricercatori dell‘Università di Princeton definiscono pericoloso il sistema CSAM (Chil Sexual Abuse Materiales) di Apple, con cui l’azienda di Cupertino vuole scandagliare le fotografie su iCloud in cerca di materiale illegale. Lo dicono sulla base dell’esperienza. Infatti hanno scritto un programma simile per rintracciare materiale che ritrae minori in maniera sessualmente esplicita. E conoscono il rischio per la privacy.

Princeton avverte: il sistema CSAM di Apple è pericoloso

Il rischio che si corre, secondo l’assistente professore Jonathan Mayer e ricercatrice laureata Anunay Kulshrestha, è che un governo repressivo potrebbe chiedere ad Apple di cercare immagini politiche. Lo fanno sulle pagine del Washington Post, spiegando che avevano le stesse buone intenzioni di Apple.

Il nostro progetto di ricerca iniziò due anni fa, come un sistema sperimentale per identificare CSAM nei servizi online end-to-end. Come ricercatori di sicurezza, conosciamo il valore della crittografia end-to-end, che protegge i dati dall’accesso di estranei. Ma eravamo anche disgustati dalla proliferazione di CSAM sulle piattaforme crittate. E temevamo che i servizi online fossero riluttanti a usare la crittografia senza strumenti per combattere la CSAM.

Abbiamo provato a esplorare una via di mezzo, dove i servizi online potessero identificare contenuti pericolosi pur conservando la crittografia. Il concetto era semplice: se qualcuno avesse condiviso materiale che combaciava con quello nei database pericolosi il servizio sarebbe allertato. Se condividevano contenuti innocui, la privacy restava. Le persone non potevano leggere il database per evitare che i criminali capissero come aggirare le restrizioni.

Dopo molte false partenze, abbiamo costruito un prototipo. Ma abbiamo incontrato un chiaro problema. Il nostro sistema poteva essere facilmente utilizzato per sorveglianza e censura. Il design non era ristretto a contenuti specifici, sarebbe bastato cambiare il database di controllo e la persona che usa il servizio non lo avrebbe mai saputo.

Un governo straniero, per esempio, avrebbe potuto chiedere al servizio di svelare chi condivide contenuti contro il regime. E non è un ipotetico: WeChat, la popolare applicazione di messaggistica cinese, già controlla i contenuti per cercare materiale dei dissidenti. L’India ha passato leggi che potrebbero richiedere un controllo governativo dei contenuti critici. La Russia ha di recente multato Google, Facebook e Twitter per non aver rimosso contenuti pro-democrazia”.

Apple contesta che non cederebbe mai a queste pressioni. Ma i ricercatori credono che potrebbe non avere scelta, se dei governi forzassero la mano.

OffertaBestseller No. 1
Source
9to5mac

Stefano Regazzi

Il battere sulla tastiera è la mia musica preferita. Nel senso che adoro scrivere, non perché ho una playlist su Spotify intitolata "Rumori da laptop": amo la tecnologia, ma non fino a quel punto! Lettore accanito, nerd da prima che andasse di moda.

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button