Site icon Techprincess

Quattro ricerche riabilitano gli algoritmi di Meta: non influenzano le nostre convinzioni politiche

Quattro ricerche riabilitano gli algoritmi di Meta: non influenzano le nostre convinzioni politiche thumbnail

Di tanto in tanto spunta un’associazione, una ricerca o uno scoop giornalistico che segnala come questo o quel social sia deleterio per una determinata fascia della popolazione (di solito rappresentata da giovani e giovanissimi). Senza badare al fatto che nessuna piattaforma social è buona o cattiva, ma tutte portano in sé enormi possibilità e altrettanto grandi rischi. Dipende dall’uso che se ne fa.

E l’uso che se ne fa dipende a sua volta da quanto si è alfabetizzati all’utilizzo dei social network. I genitori, ad esempio, conoscono davvero tutti i filtri e le limitazioni applicabili? E hanno davvero parlato con i propri figli, decidendo assieme a solo quale sia un’esposizione congrua – qualitativamente e quantitativamente – alla Rete e ai social?

Questa premessa per dire che il problema dei social e di quanto possano incidere sulla nostra esistenza è complesso, ma liquidare la faccenda demonizzando i social medesimi è semplicistico (oltra che furbamente autoassolutorio).

Ad esempio i social, anzi più nello specifico gli algoritmi di Meta, come influenzano (se le influenzano) le nostre convinzioni politiche?

Le quattro ricerche

Le ricerche sugli algoritmi dei social di Meta rispetto alle convinzioni politiche sono state pubblicate, nella giornata di giovedì 27 luglio, sugli autorevoli siti Science e Nature.

I titoli sono, rispettivamente, How do social media feed algorithms affect attitudes and behavior in an election campaign? (Come gli algoritmi dei feed dei social media influenzano gli atteggiamenti e il comportamento in una campagna elettorale?) e Like-minded sources on Facebook are prevalent but not polarizing (Traduzione letterale: Le fonti che la pensano allo stesso modo su Facebook sono prevalenti ma non polarizzanti.)

Le ricerche hanno coinvolto un unico team di 17 persone, e alla loro realizzazione ha contribuito anche Meta. Ma se qualcuno storcesse il naso sull’indipendenza dei report, va aggiunto che l’azienda di Zuckerberg si è limitata a fornire i dati, ma non ha finanziato nessuno degli studi.

Che sono stati condotti nel 2020, in vista delle elezioni americane. Ma sono stati pubblicati solo ora, in previsione delle elezioni del prossimo anno, e per tacitare i timori di chi teme che gli algoritmi di Meta possano determinare appunto gli esiti delle elezioni.

Gli algoritmi dei feed social di Meta

Lo studio pubblicato su Science ha analizzato i dati di ben 208 milioni di utenti, per un periodo di tre mesi.

Sono stati indagati gli effetti degli algoritmi dei feed di Facebook e Instagram durante le elezioni statunitensi del 2020. A un campione di utenti consenzienti sono stati assegnati feed in ordine cronologico inverso anziché basati sugli algoritmi predefiniti.

Il risultato più eclatante è che soprattutto i conservatori tendono a leggere notizie nel feed bollate come disinformazione. Tuttavia, scopriamo dalla ricerca, “il feed cronologico non ha alterato in modo significativo i livelli di polarizzazione”.

Gli altri due studi

Altri due dei quattro studi dimostrano che gli algoritmi di Meta non hanno cambiato le convinzioni politiche degli utenti.

Il primo dei due (pubblicato su Nature) scaturisce da un esperimento condotto su 23.377 fruitori di Facebook e Instagram: sono stati ridotti di un terzo i contenuti di pagine e utenti che esprimono idee simili a quelle del campione oggetto della ricerca. E comunque le tendenze politiche non sono cambiate.

Un altro studio ci mostra cosa è accaduto eliminando la possibilità di utilizzare il pulsante di condivisione dei contenuti. L’inibizione di questa funzionalità ha certamente ridotto la diffusione di post di disinformazione. Tuttavia, non ha modificato le idee politiche dei soggetti coinvolti.

Gli algoritmi di Meta e le opinioni politiche

L’ultimo dei quattro studi indaga nello specifico gli algoritmi di Meta alla base dei post suggeriti.

Qui viene sbugiardata l’ipotesi secondo cui i post che mostrano idee simili alle proprie creerebbero delle bolle, e impedirebbero l’accesso a una pluralità di informazioni. Invece, la ricerca non mostra sostanziali differenze tra i post suggeriti dall’algoritmo e quelli che appaiono in ordine cronologico.

Offerta

I commenti

David Lazer, docente della Northeastern University che ha partecipato alle quattro ricerche, ha detto: “Gli algoritmi rendono solo più semplice che gli utenti facciano quello per cui sono già propensi a fare”.

Ha commentato gli studi anche Nick Clegg, presidente degli Affari globali di Meta. Clegg ha dichiarato: “Non ci sono prove che le funzionalità chiave di Meta causino da sole una pericolosa polarizzazione, o che abbiano un impatto significativo sulla fede politica”.

Exit mobile version