Site icon Techprincess

L’esperimento di Facebook per contrastare la disinformazione sul cambiamento climatico

L'esperimento di Facebook per contrastare la disinformazione sul cambiamento climatico thumbnail

Facebook, il social network del colosso Meta, ha condotto un esperimento molto interessante di “democrazia della piattaforma” al fine di trovare un modo per affrontare i molti post di disinformazione riguardo il cambiamento climatico. Le bufale riguardo questo argomento, infatti, sono sempre più numerose ed è necessario contrastarle al meglio sui social: ma non sarebbe meglio far creare delle politiche di moderazione agli utenti stessi?

Disinformazione: Facebook starebbe sperimentando nuovi criteri di moderazione, suggeriti dagli utenti della piattaforma

La disinformazione intenzionale, o disinformazione basata sull’ignoranza o sull’incomprensione, è una delle maggiori sfide di moderazione affrontate dai social network come Facebook e Twitter. Gli argomenti con informazioni false importanti toccano argomenti come le vaccinazioni COVID-19 e i cambiamenti climatici, con questi ultimi che si sono rivelati particolarmente difficili da contrastare.

Ma ecco un po’ di contesto. Per le informazioni palesemente false, entrambe le piattaforme mostrano un badge per avvisare che l’affermazione non è vera e che porta a una fonte attendibile di informazioni accurate. Il problema è che le cose si complicano quando il post appartiene a un’area grigia. Ovvero nel momento in cui il contenuto “non è necessariamente falso, ma esprime opinioni che possono contenere informazioni fuorvianti, di bassa qualità o incomplete che possono probabilmente portare a conclusioni false”.

Un esempio può essere un post contenente la frase “le calamità naturali sono sempre avvenute”, che è vero, ma non riconosce il fatto che la frequenza e l’entità di queste sono in costante aumento.

Proprio per questo Facebook starebbe tentando un nuovo approccio. L’azienda Meta voleva infatti capire cosa desidererebbero gli utenti tipici in termini di moderazione se fossero adeguatamente informati sul problema. Casey Newton, della testata Platformer ha spiegato come si è svolto l’esperimento.

L’esperimento di Meta

Per l’esperimento l’azienda ha collaborato con BIT, per coinvolgere gli utenti di Facebook nel processo di sviluppo delle politiche di moderazione. In particolare, agli utenti è stato chiesto cosa dovrebbe fare Meta riguardo alle “informazioni problematiche”.

“Hanno trovato un campione di 250 persone che rispecchiassero la base di utenti di Facebook e le hanno riunite virtualmente per due volte, educandoli sui problemi climatici e sulle politiche della piattaforma. Inoltre hanno offerto loro l’accesso a esperti esterni (sia sul clima che su questioni linguistiche) e ai dipendenti di Facebook. Alla fine del processo, Facebook ha offerto al gruppo una varietà di possibili soluzioni alle informazioni problematiche sul clima e il gruppo ha deliberato e votato sui risultati preferiti.” spiega Casey Newton.

“Facebook non mi ha detto cosa hanno deciso i gruppi, solo che tutti e tre i gruppi hanno raggiunto un consenso simile su ciò che dovrebbe essere fatto. Le loro deliberazioni sono ora sotto consiglio dei team di Facebook che lavorano su un aggiornamento delle politiche, mi ha detto la società.”, continua Newton.

Brent Harris, vicepresidente della governance di Meta ha dichiarato che l’azienda non crede di dover prendere così tante decisioni – in merito alla moderazione dei post – da soli. “Pensiamo che se si imposta questo nel modo giusto, le persone sono in un’ottima posizione per prendere alcune delle decisioni difficili (intorno) ai compromessi e informare su come procedere”, ha detto Harris. “In realtà è stato davvero sorprendente quante persone, quando si sono riunite, hanno concordato su quale pensavano sarebbe stato l’approccio giusto”.

Insomma, come molti sostengono da molto, anche Facebook si sarebbe accorta che le piattaforme dovrebbero – invece di far affidamento esclusivamente sulle proprie fonti interne – coinvolgere anche gli utenti nel processo di realizzazione delle politiche di moderazione.

Exit mobile version