fbpx
Attualità

Il corpo delle donne: social network e corpi culturali. Le nostre immagini sotto la lente dell’IA

Secondo un’indagine del Guardian, il corpo delle donne viene sessualizzato sui social network molto più rispetto a quello degli uomini. In particolar modo, se la foto ritrae donne che fanno sport e donne incinta. Perché succede questo? Le immagini pubblicate sui social media vengono analizzate da algoritmi di intelligenza artificiale (AI) che decidono cosa amplificare e cosa sopprimere. Molti di questi algoritmi hanno un pregiudizio di genere e potrebbero quindi censurare moltissime foto che ritraggono corpi di donne.

Corpo delle donne e social network

Impara in modo intelligente per la tua casa con Dyson

L’indagine del Guardian di Gianluca Mauro e Hilke Schellmann, dal titolo There is no standard, ha dimostrato e messo in evidenza come determinate foto che ritraggono donne vengano sessualizzate dall’intelligenza artificiale dei social network e quindi shadowbannate. Questo riguarda soprattutto foto di donne incinta e in tenuta sportiva.

L’utilizzo dell’intelligenza artificiale ha l’ottimo compito di proteggere gli utenti da immagini che ritraggono violenza o pornografia. Quindi quello che fa è quello di bloccarle prima che qualcuno le veda. Il problema, però, è che in molti casi sono in grado di rilevare l’etnia di una persona e quanto sia sessualmente suggestiva una foto. Con questa classificazione, le piattaforme possono sopprimere le immagini controverse.

Il problema dello shadowban e i pregiudizi di genere dell’AI

donne social network
Foto di Jason Goodman

Come spiega l’articolo del Guardian, se prendiamo, ad esempio, due foto di cui una ritrae uomini in costume e l’altra donne sempre in costume, lo strumento AI di Microsoft classifica come foto esplicita al 96% quella in cui sono ritratte le donne, invece non esplicita con un risultato del 14% quella che ritrae gli uomini. Inoltre, la foto delle donne ha ottenuto, in un’ora, solo 8 visualizzazioni; quella degli uomini ben 655 visualizzazioni, suggerendo che la foto della donna sia stata shadowbannata.

Lo shadowbanning è stato documentato per anni, ma i giornalisti del Guardian potrebbero aver trovato un anello mancante per comprendere il fenomeno: algoritmi di IA con pregiudizi di genere. Le piattaforme dei social media sembrano sfruttare questi algoritmi per valutare le immagini e limitare la portata dei contenuti che considerano troppo espliciti. Il problema sembra essere che questi algoritmi di intelligenza artificiale abbiano pregiudizi di genere incorporati, valutando le donne più sessualmente esposte rispetto alle immagini che contengono uomini.

“I nostri team utilizzano una combinazione di tecniche automatizzate, revisioni di esperti umani e segnalazioni dei membri per aiutare a identificare e rimuovere i contenuti che violano le nostre politiche della comunità professionale”, ha dichiarato un portavoce di LinkedIn, Fred Han, in una dichiarazione. “Inoltre, il nostro feed utilizza gli algoritmi in modo responsabile per far emergere contenuti che aiutino i nostri membri a essere più produttivi e ad avere successo nel loro percorso professionale”.

L’esperimento di Gianluca Mauro

Ma cosa stanno effettivamente analizzando i classificatori AI nelle foto? Gianluca Mauro, autore e giornalista, ha deciso, così, di realizzare altri esperimenti e si è fatto fotografare in pantaloni lunghi e a petto nudo. L’algoritmo di Microsoft aveva un punteggio a 22% di esplicitezza. Quando Mauro ha indossato il reggiseno, il punteggio è drasticamente salito a 97%. Infine, l’algoritmo ha dato un punteggio del 99% quando il reggiseno è stato tenuto accanto al soggetto.

Non è da sottovalutare il fatto che non esiste un concetto univoco di esplicitezza. Come afferma Abeba Birhane, senior fellow presso la Mozilla Foundation ed esperta di dati visivi, non vi è un unica definizione di esplicitezza, di pudore e di sessualità.

Il problema delle immagini mediche

Un altro problema riguarda le immagini mediche. Gli algoritmi di intelligenza artificiale sono stati testati su immagini rilasciate dal National Cancer Insitute degli Stati Uniti che dimostrano come eseguire un esame clinico al seno, come simbolo di prevenzione. L’AI di Microsoft aveva decretato che la foto presa in esame fosse all’82% di natura esplicitamente sessuale. Questo risulta un vero problema per tutte quelle campagne social di prevenzione al cancro al seno.

Per questo motivo, la domanda sorge spontanea: quanto i social network possono essere discriminanti se hanno a disposizione questi presupposti per decretare che una foto sia più giusta di un’altra?

La risposta giunge altrettanto naturale: è ovvio che, in questo modo, l’algoritmo dei social prediliga le foto di uomini, amplificando ulteriormente le disparità sociali. L’oggettivazione della donna è codificata nel sistema?

censura Facebook Instagram

Social e pregiudizi nei confronti delle donne

Bisogna riconoscere ai social network il fatto che, innanzitutto, sono uno strumento molto potente. Abbiamo visto come essi siano fallibili, dal momento che lo shadowban delle foto di donne in tenuta sportiva e incinte sia in balia di una distorsione dell’algoritmo dell’AI.

Ci auguriamo, infine, che i social network diventino un posto migliore, sia dal punto di vista di chi li abita e ne usufruisce giorno dopo giorno, e sia dal punto di vista di chi li ha creati e continua ad aggiornarli, affinché possano essere sempre di più uno strumento che riesca ad abbattere i pregiudizi e gli stereotipi di tutti i tipi.

Apple iPhone 14 Pro (128 GB) - Oro
  • Display Super Retina XDR da 6,1" always-on con ProMotion
  • Dynamic Island, un modo mai visto per interagire con iPhone
  • Fotocamera principale da 48MP: risoluzione fino a 4 volte più alta

Da non perdere questa settimana su Techprincess

🚪 La pericolosa backdoor di Linux, disastro sventato da un solo ricercatore
 
🎶Streaming Farms: il lato oscuro della musica, tra ascolti falsi e stream pompati
 
✈️Abbiamo provato DJI Avata 2: sempre più divertente!
 
✒️ La nostra imperdibile newsletter Caffellattech! Iscriviti qui 
  
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
  
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
  
💌 Risolviamo i tuoi problemi di cuore con B1NARY
  
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
  
💸E trovi un po' di offerte interessanti su Telegram!

Roberta Maglie

Amante del cinema, serie tv, tecnologia e video games, mi piace approfondire la cultura pop attraverso il battere delle mie dita sulla tastiera del MacBook. La laurea in Comunicazione mi ha dato la spinta per buttarmi nel mondo del giornalismo, dandomi così l’opportunità di riflettere sui temi più disparati.

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button