fbpx
CulturaTech

Quattro ricerche riabilitano gli algoritmi di Meta: non influenzano le nostre convinzioni politiche

Risultati pubblicati su Science e Nature

Di tanto in tanto spunta un’associazione, una ricerca o uno scoop giornalistico che segnala come questo o quel social sia deleterio per una determinata fascia della popolazione (di solito rappresentata da giovani e giovanissimi). Senza badare al fatto che nessuna piattaforma social è buona o cattiva, ma tutte portano in sé enormi possibilità e altrettanto grandi rischi. Dipende dall’uso che se ne fa.

E l’uso che se ne fa dipende a sua volta da quanto si è alfabetizzati all’utilizzo dei social network. I genitori, ad esempio, conoscono davvero tutti i filtri e le limitazioni applicabili? E hanno davvero parlato con i propri figli, decidendo assieme a solo quale sia un’esposizione congrua – qualitativamente e quantitativamente – alla Rete e ai social?

Questa premessa per dire che il problema dei social e di quanto possano incidere sulla nostra esistenza è complesso, ma liquidare la faccenda demonizzando i social medesimi è semplicistico (oltra che furbamente autoassolutorio).

Ad esempio i social, anzi più nello specifico gli algoritmi di Meta, come influenzano (se le influenzano) le nostre convinzioni politiche?

Meta

Le quattro ricerche

Le ricerche sugli algoritmi dei social di Meta rispetto alle convinzioni politiche sono state pubblicate, nella giornata di giovedì 27 luglio, sugli autorevoli siti Science e Nature.

I titoli sono, rispettivamente, How do social media feed algorithms affect attitudes and behavior in an election campaign? (Come gli algoritmi dei feed dei social media influenzano gli atteggiamenti e il comportamento in una campagna elettorale?) e Like-minded sources on Facebook are prevalent but not polarizing (Traduzione letterale: Le fonti che la pensano allo stesso modo su Facebook sono prevalenti ma non polarizzanti.)

Le ricerche hanno coinvolto un unico team di 17 persone, e alla loro realizzazione ha contribuito anche Meta. Ma se qualcuno storcesse il naso sull’indipendenza dei report, va aggiunto che l’azienda di Zuckerberg si è limitata a fornire i dati, ma non ha finanziato nessuno degli studi.

Che sono stati condotti nel 2020, in vista delle elezioni americane. Ma sono stati pubblicati solo ora, in previsione delle elezioni del prossimo anno, e per tacitare i timori di chi teme che gli algoritmi di Meta possano determinare appunto gli esiti delle elezioni.

Gli algoritmi dei feed social di Meta

Lo studio pubblicato su Science ha analizzato i dati di ben 208 milioni di utenti, per un periodo di tre mesi.

Sono stati indagati gli effetti degli algoritmi dei feed di Facebook e Instagram durante le elezioni statunitensi del 2020. A un campione di utenti consenzienti sono stati assegnati feed in ordine cronologico inverso anziché basati sugli algoritmi predefiniti.

Il risultato più eclatante è che soprattutto i conservatori tendono a leggere notizie nel feed bollate come disinformazione. Tuttavia, scopriamo dalla ricerca, “il feed cronologico non ha alterato in modo significativo i livelli di polarizzazione”.

Gli altri due studi

Altri due dei quattro studi dimostrano che gli algoritmi di Meta non hanno cambiato le convinzioni politiche degli utenti.

Il primo dei due (pubblicato su Nature) scaturisce da un esperimento condotto su 23.377 fruitori di Facebook e Instagram: sono stati ridotti di un terzo i contenuti di pagine e utenti che esprimono idee simili a quelle del campione oggetto della ricerca. E comunque le tendenze politiche non sono cambiate.

Un altro studio ci mostra cosa è accaduto eliminando la possibilità di utilizzare il pulsante di condivisione dei contenuti. L’inibizione di questa funzionalità ha certamente ridotto la diffusione di post di disinformazione. Tuttavia, non ha modificato le idee politiche dei soggetti coinvolti.

Gli algoritmi di Meta e le opinioni politiche

L’ultimo dei quattro studi indaga nello specifico gli algoritmi di Meta alla base dei post suggeriti.

Qui viene sbugiardata l’ipotesi secondo cui i post che mostrano idee simili alle proprie creerebbero delle bolle, e impedirebbero l’accesso a una pluralità di informazioni. Invece, la ricerca non mostra sostanziali differenze tra i post suggeriti dall’algoritmo e quelli che appaiono in ordine cronologico.

Offerta

I commenti

David Lazer, docente della Northeastern University che ha partecipato alle quattro ricerche, ha detto: “Gli algoritmi rendono solo più semplice che gli utenti facciano quello per cui sono già propensi a fare”.

Ha commentato gli studi anche Nick Clegg, presidente degli Affari globali di Meta. Clegg ha dichiarato: “Non ci sono prove che le funzionalità chiave di Meta causino da sole una pericolosa polarizzazione, o che abbiano un impatto significativo sulla fede politica”.

Da non perdere questa settimana su Techprincess

🍎Nuovi iPad e accessori: cosa aspettarsi dall’evento Apple del 7 maggio
🍿Fallout: tutte le domande irrisolte alle quali la Stagione 2 dovrà rispondere
🛞Come scegliere gli pneumatici estivi per l’estate? I fattori da considerare
🤯Google licenzia 28 dipendenti per proteste contro il progetto Nimbus in Israele
✒️ La nostra imperdibile newsletter Caffellattech! Iscriviti qui 
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
💌 Risolviamo i tuoi problemi di cuore con B1NARY
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!

Claudio Bagnasco

Claudio Bagnasco è nato a Genova nel 1975 e dal 2013 vive a Tortolì. Ha scritto e pubblicato diversi libri, è co-fondatore e co-curatore del blog letterario Squadernauti. Prepara e corre maratone con grande passione e incrollabile lentezza. Ha raccolto parte delle sue scritture nel sito personale claudiobagnasco.com

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button