fbpx
AttualitàCultura

Apple chiarisce i dubbi sulla privacy per la protezione dei bambini

Apple risponde ad alcune delle preoccupazioni degli utenti riguardo ai piani dell'azienda su bambini e privacy

Il responsabile della privacy di Apple, Erik Neuenschwander, ha risposto ad alcune delle preoccupazioni degli utenti riguardo ai piani dell’azienda per le nuove funzionalità di sicurezza per i bambini, che eseguiranno la scansione dei messaggi e delle librerie di foto, in un’intervista con TechCrunch.

Apple bilancia sicurezza per i bambini e privacy per gli utenti

Alla domanda sul motivo per cui Apple ha scelto di implementare ufficialmente funzionalità sulla sicurezza dei bambini che scansionano il materiale sugli abusi sessuali su minori (CSAM), Neuenschwander ha spiegato che Apple ha “ora ottenuto la tecnologia in grado di bilanciare una forte sicurezza per i bambini e la privacy degli utenti“, dando all’azienda “un nuovo capacità di identificare gli account che stanno avviando raccolte di CSAM noti.

A Neuenschwander è stato chiesto se, in retrospettiva, annunciare insieme le funzionalità di sicurezza della comunicazione in Messaggi e il sistema di rilevamento CSAM in Foto iCloud fosse la decisione giusta, alla quale ha risposto: “bene, sono [due] sistemi separati, ma formano anche un sistema singolo che arriverà a Siri e alla ricerca. Per quanto sia importante identificare le raccolte di CSAM conosciute archiviate nel servizio iCloud Photos di Apple, è anche importante cercare di risalire a quella situazione già orribile“.

La nuova direzione dell’azienda

Alla domanda se Apple stesse cercando di dimostrare ai governi e alle agenzie di tutto il mondo che è possibile eseguire la scansione di contenuti illeciti preservando la privacy degli utenti, Neuenschwander ha spiegato: “Ora era necessario farlo perché, come hai detto, questo è qualcosa che fornirà quella capacità di rilevamento che cerchiamo preservando la privacy dell’utente. Siamo motivati ​​dalla necessità di fare di più per la sicurezza dei bambini in tutto l’ecosistema digitale e tutte e tre le nostre funzionalità, penso, compiono passi molto positivi in ​​quella direzione. Allo stesso tempo, lasceremo indisturbata la privacy di tutti coloro che non sono coinvolti nell’attività illegale“.

Gli è stato chiesto se Apple avesse creato un framework che potesse essere utilizzato dalle forze dell’ordine per cercare altri tipi di contenuti nelle librerie degli utenti e se ciò minasse l’impegno di Apple per la crittografia end-to-end. “Non cambia di una virgola. Il dispositivo è ancora crittografato, non abbiamo ancora la chiave e il sistema è progettato per funzionare sui dati del dispositivo… L’alternativa di limitarsi a elaborare e provare a valutare i dati degli utenti su un server è in realtà più suscettibile alle modifiche [senza la conoscenza dell’utente] e meno protettivo per la privacy dell’utente … Sono quei tipi di sistemi che penso siano più complessi da capire e usare, quando si tratta delle proprietà riguardanti la privacy – o di come potrebbero essere modificati senza alcuna intuizione o conoscenza dell’utente per fare cose diverse da quello per cui sono stati progettati.”

Protezioni integrate al servizio

A Neuenschwander è stato quindi chiesto se Apple potesse essere costretta a rispettare leggi al di fuori degli Stati Uniti che potrebbero costringerla ad aggiungere cose che non sono CSAM al database per verificarle sul dispositivo. Ha spiegato che ci sono un “numero di protezioni integrate” al servizio: “L’elenco hash è integrato nel sistema operativo, abbiamo un sistema operativo globale e non abbiamo la possibilità di indirizzare gli aggiornamenti ai singoli utenti, quindi gli elenchi hash saranno condivisi da tutti gli utenti quando il sistema è abilitato.

E in secondo luogo, il sistema richiede il superamento della soglia delle immagini, quindi provare a cercare anche una singola immagine dal dispositivo di una persona o da un insieme di dispositivi di persone non funzionerà perché il sistema semplicemente non fornisce alcuna conoscenza ad Apple per le singole foto archiviate nel nostro servizio. E poi, in terzo luogo, il sistema ha integrato una fase di revisione manuale in cui, se un account viene contrassegnato con una raccolta di materiale CSAM illegale, un team Apple lo esaminerà per assicurarsi che si tratti di una corrispondenza corretta di materiale CSAM illegale prima di fare riferimento a qualsiasi entità esterna. Sicuramente potrebbero presentarsi molte ipotesi, incluso avere Apple che cambia il suo processo interno per riferire ad esterni materiale che non è illegale, ma non crediamo che ci siano tali richieste negli Stati Uniti. E l’ultimo punto che vorrei aggiungere è che il sistema comunque conserva ancora la scelta dell’utente, se a un utente non piace questo tipo di funzionalità, può scegliere di non utilizzare Foto di iCloud e se Foto di iCloud non è abilitato, nessuna parte del sistema è funzionante“.

Neuenschwander ha continuato che per gli utenti che “non sono coinvolti in questo comportamento illegale, Apple non acquisisce ulteriori conoscenze sulla libreria cloud di alcun utente” e “lascia la privacy completamente indisturbata”.

Da non perdere questa settimana su Techprincess

🍎Nuovi iPad e accessori: cosa aspettarsi dall’evento Apple del 7 maggio
🍿Fallout: tutte le domande irrisolte alle quali la Stagione 2 dovrà rispondere
🛞Come scegliere gli pneumatici estivi per l’estate? I fattori da considerare
🤯Google licenzia 28 dipendenti per proteste contro il progetto Nimbus in Israele
✒️ La nostra imperdibile newsletter Caffellattech! Iscriviti qui 
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
💌 Risolviamo i tuoi problemi di cuore con B1NARY
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!

Source
MacRumors

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button