Un recente studio condotto dal Center for Countering Digital Hate (CCDH) rivela che TikTok mostra costantemente ai propri utenti contenuti pericolosi, sottolineando che questi potrebbero favorire l’autolesionismo e i disturbi alimentari.
La ricerca ha preso in analisi i contenuti mostrati dall’algoritmo, riscontrando la presenza di numerosi video che promuovono diete pericolosamente restrittive e immagini che idealizzano l’autolesionismo e parlano del suicidio in chiave romantica.
La ricerca di Center for Countering Digital Hate
I ricercatori hanno svolto lo studio creando diversi account TikTok in vari Paesi del mondo. In particolare sono stati scelti Stati Uniti, Regno Unito, Canada e Australia. Gli account sono stati impostati come appertenenti a utenti di 13 anni (età minima per iscriversi alla piattaforma).
Il secondo passo è stato quello di scegliere i nomi utente. Questi, per quanto possano sembrare irrilevanti, in realtà interagiscono con l’algoritmo. I ricercatori hanno creato sia account “standard” che “vulnerabili” e hanno inserito nei loro username parole come “loseweight” (“perdere peso”). Una scelta che riflette la tendenza degli utenti giovani a scegliere come nome qualcosa nel quale si identificano fortemente.
Nel corso dei primi 30 minuti gli account si sono soffermati solo brevemente su contenuti riguardanti l’immagine del corpo, disturbi alimentari e suicidio. I 30 minuti iniziali sono il lasso di tempo con il quale l’algoritmo calibra le preferenze dell’utente. Dopodichè TikTok tende a mostrare i video che ritiene più interessanti per l’account, in base proprio alle interazioni avvenute in quei 30 minuti iniziali.
Sugli account “standard”, i contenuti sul suicidio hanno cominciato ad apparire entro tre minuti, mentre i video disturbi alimentari sono apparsi entro otto minuti sulla piattaforma.
Imran Ahmed, amministratore delegato di CCDH, ha dichiarato a The Guardian: “I risultati sono l’incubo di ogni genitore. I feed dei giovani sono bombardati da contenuti dannosi e strazianti, che possono avere un impatto cumulativo significativo sulla loro comprensione del mondo che li circonda e sulla loro salute fisica e mentale”.
Cosa è emerso dall’indagine su TikTok: “Contenuti pericolosi ogni 126 secondi”
La maggior parte dei contenuti ritenuti pericolosi sono apparsi nel feed Per Te, la sezione principale dell’app. In particolare l’algoritmo tendeva a mostrare video di altri utenti che condividevano le loro ansie e insicurezze.
Lo studio rivela anche un altro dato agghiacciante: agli account registrati come 13enni, il social tende a mostrare molti video che pubblicizzano bevande dimagranti e interventi chirurgici di “addominoplastica”.
La media di contenuti pericolosi su TikTok è di uno ogni 206 secondi. I video relativi all’immagine corporea, alla salute mentale e ai disturbi alimentari venivano mostrati ad account “vulnerabili” tre volte di più rispetto agli account standard. Inoltre, su questi account, sono apparsi anche contenuti nei quali dei ragazzi discutevano sui vari modi di togliersi la vita.
La risposta di TikTok: “Lo studio non riflette l’esperienza reale dell’utente”
Dopo la pubblicazione dello studio è arrivata prontamente la risposta di TikTok. Un portavoce della società ha dichiarato (via NME):
“Questa attività e l’esperienza che ne deriva non riflettono comportamenti genuini o esperienze di persone reali. Ci consultiamo regolarmente con esperti sanitari e rimuoviamo costantemente le violazioni delle nostre politiche, fornendo supporto e accesso a chiunque ne abbia bisogno. L’esperienza in merito ai contenuti mostrati è unica per ogni individuo e rimaniamo concentrati sulla promozione di uno spazio sicuro e confortevole per tutti, comprese le persone che scelgono di condividere gli aspetti più personali della loro vita”
Ricordiamo che le linee guida di TikTok vietano i contenuti che promuovono comportamenti che potrebbero portare al suicidio e all’autolesionismo, nonché il materiale che promuove comportamenti o abitudini alimentari non salutari.
- Goodin, Tanya (Autore)
Ultimo aggiornamento 2024-10-06 / Link di affiliazione / Immagini da Amazon Product Advertising API
Rimani aggiornato seguendoci su Google News!
Da non perdere questa settimana su Techprincess
🎮 Che impatto avranno le elezioni americane sui videogiochi?
🚘 I gadget più strani delle case automobilistiche
🇨🇳 Un gruppo di ricercatori cinesi ha sviluppato un modello di IA per uso militare basato su Llama di Meta
🔍 ChatGPT si aggiorna e ora naviga sul web
Ma lo sai che abbiamo un sacco di newsletter?
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!