Degli esperimenti condotti da alcuni utenti di Twitter hanno provato a evidenziare come l’algoritmo per l’anteprima delle immagini avrebbe un bias “razzista”, ovvero orientato a promuovere più spesso le facce di persone bianche rispetto a quelle di persone nere.
L’algoritmo “razzista” di Twitter
Su Twitter, per immagini particolarmente lunghe, larghe o comunque di un formato diverso da quello predefinito, nell’anteprima è mostrato solo un ritaglio dell’originale. Per selezionare questo ritaglio, un algoritmo cerca di individuare le aree di interesse, come scritte, oggetti in primo piano o volti.
Nel caso però di un’immagine con più volti, nello specifico un volto bianco e uno nero, l’algoritmo sembra prediligere quasi sempre il volto bianco. La questione ha cominciato a venire evidenziata questo weekend, quando alcuni utenti del social hanno postato degli esempi di questo fenomeno.
La risposta di Twitter
Ma come può essere un algoritmo razzista? Nell’immaginario comune, un algoritmo (e in generale una macchina) è un’entità neutra e oggettiva, che non dovrebbe mostrare preferenze o pregiudizi come invece noi esseri umani. Il punto, però, è che gli algoritmi imparano basandosi proprio su esempi forniti da noi umani, che possono facilmente essere affetti da bias (un pregiudizio, per così dire) che viene poi passato alla macchina.
Non serve neanche che gli esseri umani siano “razzisti” per avere un bias legato all’etnia: è sufficiente, prendendo il nostro caso, che gli esempi usati per allenare l’algoritmo contengano molti più volti di persone bianche che volti di persone nere o di altre minoranze. Il risultato è che per la macchina sarà più facile e “naturale” riconoscere come volti quelli delle persone bianche, che quindi saranno privilegiati nella selezione all’interno dell’immagine.
(1/n) OK, so I am conducting a systematic experiment to see if the cropping bias is real. I am programmatically tweeting (using tweepy) a (3 x 1) image grid consisting of a self identified Black-Male + blank image + self identified White-Male
( h/t @Abebab @alexhanna )— Vinay Prabhu (@vinayprabhu) September 19, 2020
Twitter, sotto forma di Liz Kelly, del team di comunicazione del social, ha risposto dicendo che “Il nostro team ha testato [l’algoritmo] in cerca di bias prima di implementare il modello e non hanno trovato traccia di bias razziale o di genere. È chiaro però da questi esempi che dobbiamo svolgere ulteriori analisi. Stiamo investigando e continueremo a condividere con voi quanto apprenderemo [dall’investigazione] e le azioni che intraprenderemo“
- Use scikit-learn to track an example ML project end to end
- Explore several models, including support vector machines, decision trees, random forests, and ensemble methods
- Exploit unsupervised learning techniques such as dimensionality reduction, clustering, and anomaly detection
Ultimo aggiornamento 2025-04-20 / Link di affiliazione / Immagini da Amazon Product Advertising API