fbpx
NewsTech

L’algoritmo per l’anteprima delle foto su Twitter è razzista?

Diversi utenti hanno notato una certa preferenza per i volti bianchi rispetto a quelli neri

Degli esperimenti condotti da alcuni utenti di Twitter hanno provato a evidenziare come l’algoritmo per l’anteprima delle immagini avrebbe un bias “razzista”, ovvero orientato a promuovere più spesso le facce di persone bianche rispetto a quelle di persone nere.

L’algoritmo “razzista” di Twitter

Su Twitter, per immagini particolarmente lunghe, larghe o comunque di un formato diverso da quello predefinito, nell’anteprima è mostrato solo un ritaglio dell’originale. Per selezionare questo ritaglio, un algoritmo cerca di individuare le aree di interesse, come scritte, oggetti in primo pianovolti.

 

Twitter Algoritmo razzista esempi
Uno dei tweet di esempio e le due immagini allegate

Nel caso però di un’immagine con più volti, nello specifico un volto bianco e uno nero, l’algoritmo sembra prediligere quasi sempre il volto bianco. La questione ha cominciato a venire evidenziata questo weekend, quando alcuni utenti  del social hanno postato degli esempi di questo fenomeno.

La risposta di Twitter

Ma come può essere un algoritmo razzista? Nell’immaginario comune, un algoritmo (e in generale una macchina) è un’entità neutra e oggettiva, che non dovrebbe mostrare preferenze o pregiudizi come invece noi esseri umani. Il punto, però, è che gli algoritmi imparano basandosi proprio su esempi forniti da noi umani, che possono facilmente essere affetti da bias (un pregiudizio, per così dire) che viene poi passato alla macchina.

Non serve neanche che gli esseri umani siano “razzisti” per avere un bias legato all’etnia: è sufficiente, prendendo il nostro caso, che gli esempi usati per allenare l’algoritmo contengano molti più volti di persone bianche che volti di persone nere o di altre minoranze. Il risultato è che per la macchina sarà più facile e “naturale” riconoscere come volti quelli delle persone bianche, che quindi saranno privilegiati nella selezione all’interno dell’immagine.

Twitter, sotto forma di Liz Kelly, del team di comunicazione del social, ha risposto dicendo che “Il nostro team ha testato [l’algoritmo] in cerca di bias prima di implementare il modello e non hanno trovato traccia di bias razziale o di genere. È chiaro però da questi esempi che dobbiamo svolgere ulteriori analisi. Stiamo investigando e continueremo a condividere con voi quanto apprenderemo [dall’investigazione] e le azioni che intraprenderemo

OffertaBestseller No. 1
Hands-on Machine Learning With Scikit-learn, Keras, and...
  • Use scikit-learn to track an example ML project end to end
  • Gron, Aurlien (Autore)
OffertaBestseller No. 2

Da non perdere questa settimana su Techprincess

🌍 Giornata della Terra: ciascuno può dare il suo piccolo contributo per salvaguardarla
 
🍿Fallout: tutte le domande irrisolte alle quali la Stagione 2 dovrà rispondere
 
🛞Come scegliere gli pneumatici estivi per l’estate? I fattori da considerare
🤯Google licenzia 28 dipendenti per proteste contro il progetto Nimbus in Israele
 
✒️ La nostra imperdibile newsletter Caffellattech! Iscriviti qui 
 
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
 
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
 
💌 Risolviamo i tuoi problemi di cuore con B1NARY
 
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
 
💸E trovi un po' di offerte interessanti su Telegram!

Giovanni Natalini

Ingegnere Elettronico prestato a tempo indeterminato alla comunicazione. Mi entusiasmo facilmente e mi interessa un po' di tutto: scienza, tecnologia, ma anche fumetti, podcast, meme, Youtube e videogiochi.

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button