fbpx
FeaturedNewsTech

I dipendenti di Amazon ascoltano quello che dici ad Alexa

Si tratta di un processo anonimo, ma comunque inquietante, per migliorare l'assistente vocale

Una nuova indagine di Bloomberg ha rivelato come Amazon impieghi migliaia di persone per ascoltare alcuni dei comandi che gli utenti impartiscono ad Alexa, al fine di migliorare l’intelligenza artificiale dietro l’assistente vocale. Gli audio analizzati, per quanto teoricamente anonimizzati dall’azienda prima dell’analisi, possono comunque potenzialmente contenere materiale sensibile a seconda del contesto della registrazione.

Amazon e la privacy di Alexa

Quando utilizziamo l’assistente vocale sul cellulare o sul nostro smart speaker, probabilmente ci piace di pensare che quello che diciamo rimanga tra noi e l’intelligenza artificiale in cloud dietro al dispositivo. E se è così che per la maggior parte dei casi, alcuni comandi sono invece ascoltati anche da altri esseri umani.

Per migliorare continuamente la sua AI, infatti, Amazon (così come Google ed Apple) impiega migliaia di dipendenti per ascoltare un numero di enorme di registrazioni. Il loro compito è quello di catalogarli, trascriverli o associare ad ognuno di questi comandi la risposta appropriata, in modo da migliorare l’algoritmo di intelligenza artificiale.

Nel caso di Amazon, gli addetti sono un misto di appaltatori e lavoratori a tempo pieno, sparsi in tutto il mondo: da Boston fino alla Costa Rica, l’India e la Romania. A Bucharest, ad esempio, l’ufficio di Amazon dedicato occupa gli ultimi tre piani di un edificio anonimo, casualmente senza nessun riferimento esterno alla multinazionale ospitata al suo interno.

In un turno giornaliero di nove ore, un dipendente può arrivare ad ascoltare anche 1000 audio. Il lavoro solitamente non prevede registrazioni particolarmente eccitanti. Una lavoratore di Boston ha per esempio raccontato di aver dovuto raccogliere dati vocali riguardanti la pronuncia di determinate parole, tra cui il nome “Taylor Swift“, per migliorare le ricerche dei brani musicali.

Ci sono ovviamente anche casi di audio più “privati”, come persone che cantano sotto la doccia o bambini urlanti. Ci sono però poi anche audio disturbanti o che addirittura fanno pensare a situazioni criminali. Per esempio, due lavoratori hanno affermato di aver sentito lo svolgersi di una violenza sessuale. Anche se in questo tipo di situazioni l’azienda offre ai lavoratori il supporto emotivo e psicologico necessario, alla richiesta di direttive su come procedere gli è stato detto che Amazon non ha il compito di intervenire.

Un portavoce di Amazon ha dichiarato: “Prendiamo molto seriamente la sicurezza e la privacy dei nostri utenti. Trascriviamo solo un campione estremamente piccolo di registrazioni di Alexa, con lo scopo di migliorare la customer experience. Per esempio, questa informazione ci aiuta ad addestrare il nostro algoritmo di riconoscimento vocale e i nostri sistemi di comprensione del linguaggio naturale, in modo che Alexa possa capire meglio le vostre richieste, ed assicurare un servizio buono per tutti.”

Continua: “Abbiamo delle tutele tecniche ed operazionali, e abbiamo una politica di tolleranza zero per abusi del nostro sistema. Gli impiegati non hanno accesso diretto alle informazioni necessarie per identificare la persona o l’account su cui stanno lavorando. Tutta l’informazione è trattata in maniera strettamente confidenziale e usiamo, per proteggerla, un’autenticazione multi-fattore per restringere l’accesso, un servizio di crittografia e delle verifiche del nostro centro di controllo.”

L’azienda, però, non parla esplicitamente, nel suo materiale promozionale e riguardante la privacy, dell’ascolto da parte di essere umani delle registrazioni fatte da Alexa. Uno screenshot ottenuto dai dipendenti di Amazon ha inoltre rivelato come ai file audio sia associato un codice identificato dell’account, così come al nome (senza il cognome) dell’utente ed al numero seriale del dispositivo utilizzato.

Come citato prima, anche altri servizi utilizzano operatori umani per migliorare i loro algoritmi. Apple, per Siri, utilizza solo registrazioni “prive di informazioni personali identificabili, conservate per sei mesi con un numero identificativo casuale“. Google, invece, mette a disposizione dei suoi dipendenti solo audio distorti, riconoscibili nel contenuti ma non nell’origine.

Nel caso di Amazon, gli utenti possono comunque chiedere di essere esclusi da questo programma. Andando nelle impostazioni per la privacy di Alexa, si può disabilitare l’autorizzazione ad utilizzare i propri dati per lo sviluppo di nuove funzionalità. E, se proprio pensate che la vostra privacy non sia ancora al sicuro, forse è il momento di rivalutare l’acquisto del vostro Echo.

[amazon_link asins=’B0792HCFTG,B0793KQRJZ,B079PPQJWP’ template=’ProductCarousel’ store=’gamspri02-21′ marketplace=’IT’ link_id=’1416b14a-9066-45f2-9004-eb0ee68660ec’]

Da non perdere questa settimana su Techprincess

🚪 La pericolosa backdoor di Linux, disastro sventato da un solo ricercatore
 
🎶Streaming Farms: il lato oscuro della musica, tra ascolti falsi e stream pompati
 
✈️Abbiamo provato DJI Avata 2: sempre più divertente!
 
✒️ La nostra imperdibile newsletter Caffellattech! Iscriviti qui 
  
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
  
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
  
💌 Risolviamo i tuoi problemi di cuore con B1NARY
  
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
  
💸E trovi un po' di offerte interessanti su Telegram!

Via
Gizmodo
Source
Bloomberg

Giovanni Natalini

Ingegnere Elettronico prestato a tempo indeterminato alla comunicazione. Mi entusiasmo facilmente e mi interessa un po' di tutto: scienza, tecnologia, ma anche fumetti, podcast, meme, Youtube e videogiochi.

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button