fbpx
NewsTech

Promossi post contenenti nudità, violenza e fake news: la colpa è di un bug

Il mondo al rovescio. L’ultimo assurdo bug di Facebook ha infatti ribaltato le normali convenzioni. Invece di bloccare nudità, violenza e fake news ha fatto esattamente l’opposto, amplificando contenuti che normalmente l’algoritmo avrebbe limitato e indicizzando persino i post dei media russi controllati dallo Stato.

Un problema tecnico di cui oggi vediamo le conseguenze ma in realtà il bug esiste dal 2019. Per due anni è stato silente, nascosto nel codice di uno dei social network più famosi del mondo, poi, nell’ottobre del 2021, gli ingegneri hanno iniziato a notare il problema. La risoluzione definitiva, come riporta The Verge, è arrivata l’11 marzo di quest’anno.

Stando a quanto dichiarato dal portavoce di Meta Joe Osborne, l’azienda “ha rilevato inconsistenze nella declassicazione in cinque diverse occasioni, correlate a piccoli e temporanei aumenti di alcune metriche interne.”
“Abbiamo individuato la causa del problema, associata ad un bug del software, e applicato le necessarie correzioni”, ha aggiungo Osborne, specificando che questo problema non ha alternato in modo significativo le metriche interne.

Il bug di Facebook e i contenuti declassati

mark zuckerberg facebook patteggiamento cambridge analytica min
Mark Zuckerberg, CEO di Meta

Quanto accaduto riporta sotto i riflettori il sistema di declassificazione di Facebook.
Facciamo però un passo indietro: che cos’è questo fantomatico sistema?
In sostanza Facebook ha sviluppato un sistema, in vigore da anni, per ridurre l’impatto di contenuti potenzialmente dannosi. Questo perché, anche quando un contenuto viene ritenuto inadatto – per nudità, violenza e disinformazione – gli utenti tendono ad interagire maggiormente con esso, anche solo per dire che non sono d’accordo; tutta questa interazione però rischia di aumentare la diffusione del contenuto stesso e peggiorare la situazione. Ecco perché l’algoritmo declassa questi post, così da ridurre la generale interazione e limitarne la diffusione.

L’idea generale è indubbiamente condivisibile. Il problema però è che il funzionamento di questo sistema non è chiaro, il che non permette di capire come influenza le persone, soprattutto quando accadono incidenti di questo tipo.

Non è però una totale mancanza di trasparenza da parte di Meta. Da un lato infatti il non sapere non ci permette di comprendere a pieno le implicazioni sociali, dall’altro però l’assenza di dettagli impedisce ai malintenzionati di trovare soluzioni per aggirare il sistema.
Questo però non significa che l’attuale situazione vada bene e non sia migliorabile. Sarà indubbiamente necessario trovare una soluzione che permette quanto meno di individuare più facilmente gli eventuali malfunzionamenti.

Da non perdere questa settimana su Techprincess

✒️ La nostra imperdibile newsletter Caffellattech! Iscriviti qui 
 
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
 
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
 
💌 Risolviamo i tuoi problemi di cuore con B1NARY
 
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
 
💸E trovi un po' di offerte interessanti su Telegram!

Erika Gherardi

Amante del cinema, drogata di serie TV, geek fino al midollo e videogiocatrice nell'anima. Inspiegabilmente laureata in Scienze e tecniche psicologiche e studentessa alla magistrale di Psicologia Clinica, dello Sviluppo e Neuropsicologia.

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button