Site icon Techprincess

L’algoritmo per l’anteprima delle foto su Twitter è razzista?

Degli esperimenti condotti da alcuni utenti di Twitter hanno provato a evidenziare come l’algoritmo per l’anteprima delle immagini avrebbe un bias “razzista”, ovvero orientato a promuovere più spesso le facce di persone bianche rispetto a quelle di persone nere.

L’algoritmo “razzista” di Twitter

Su Twitter, per immagini particolarmente lunghe, larghe o comunque di un formato diverso da quello predefinito, nell’anteprima è mostrato solo un ritaglio dell’originale. Per selezionare questo ritaglio, un algoritmo cerca di individuare le aree di interesse, come scritte, oggetti in primo pianovolti.

 

Uno dei tweet di esempio e le due immagini allegate

Nel caso però di un’immagine con più volti, nello specifico un volto bianco e uno nero, l’algoritmo sembra prediligere quasi sempre il volto bianco. La questione ha cominciato a venire evidenziata questo weekend, quando alcuni utenti  del social hanno postato degli esempi di questo fenomeno.

La risposta di Twitter

Ma come può essere un algoritmo razzista? Nell’immaginario comune, un algoritmo (e in generale una macchina) è un’entità neutra e oggettiva, che non dovrebbe mostrare preferenze o pregiudizi come invece noi esseri umani. Il punto, però, è che gli algoritmi imparano basandosi proprio su esempi forniti da noi umani, che possono facilmente essere affetti da bias (un pregiudizio, per così dire) che viene poi passato alla macchina.

Non serve neanche che gli esseri umani siano “razzisti” per avere un bias legato all’etnia: è sufficiente, prendendo il nostro caso, che gli esempi usati per allenare l’algoritmo contengano molti più volti di persone bianche che volti di persone nere o di altre minoranze. Il risultato è che per la macchina sarà più facile e “naturale” riconoscere come volti quelli delle persone bianche, che quindi saranno privilegiati nella selezione all’interno dell’immagine.

Twitter, sotto forma di Liz Kelly, del team di comunicazione del social, ha risposto dicendo che “Il nostro team ha testato [l’algoritmo] in cerca di bias prima di implementare il modello e non hanno trovato traccia di bias razziale o di genere. È chiaro però da questi esempi che dobbiamo svolgere ulteriori analisi. Stiamo investigando e continueremo a condividere con voi quanto apprenderemo [dall’investigazione] e le azioni che intraprenderemo

OffertaBestseller No. 1
Hands-on Machine Learning With Scikit-learn, Keras, and...
  • Use scikit-learn to track an example ML project end to end
  • Gron, Aurlien (Autore)
OffertaBestseller No. 2
Exit mobile version