Site icon Techprincess

Nel 2023 l’intelligenza artificiale ha dato una spinta alla disinformazione

Nel 2023 l’intelligenza artificiale ha dato una spinta alla disinformazione thumbnail

Nei giorni scorsi abbiamo pubblicato un articolo in cui ci siamo divertiti a eleggere dodici emblematiche fake news dell’anno che sta terminando, una per ogni mese.

E ci siamo accorti di come l’IA stia producendo sempre più bufale, e quasi sicuramente ancor più ne produrrà in futuro. Conferma la nostra impressione un recente report di NewsGuard. Si tratta di una retrospettiva sul 2023, che mostra come l’intelligenza artificiale abbia spinto in avanti la produzione di disinformazione.

Scopriamo più nel dettaglio il report annuale di NewsGuard.

Il report di NewsGuard: misinformazione e disinformazione

Mercoledì 27 dicembre sul sito di NewsGuard è apparso un report sulla disinformazione riassuntivo dell’intero 2023. Il cui titolo, come spesso accade, è eloquente: “L’anno in cui l’intelligenza artificiale ha messo il turbo alla misinformazione: il 2023 di NewsGuard in rassegna.”

Una precisazione linguistica: non siamo sicuri che la parola misinformazione sia qui usata in modo troppo appropriato. La differenza tra disinformazione e misinformazione è che la prima è la diffusione voluta di notizia false, la seconda corrisponde piuttosto alla loro propagazione (ad esempio condividendole sui social) per leggerezza.

Mentre ci pare che NewsGuard, con misinformazione, intenda semmai la manipolazione consapevole delle notizie.

Intelligenza artificiale e disinformazione

La ricerca ci informa del fatto che “l’ascesa dell’intelligenza artificiale nel 2023 ha trasformato l’ecosistema della misinformazione, fornendo nuovi strumenti agli attori malintenzionati per creare articoli, immagini, audio, video e persino interi siti web, all’apparenza simili a quelli tradizionali, per promuovere narrazioni false o polarizzanti destinate a seminare confusione e sfiducia tra i lettori.”

E lo fa non solo globalmente, ma anche in modo sempre più raffinato: “Gli strumenti basati sull’intelligenza artificiale vengono utilizzati per diffondere diverse tipologie di misinformazione, dalla propaganda russa, cinese e iraniana a bufale sulla salute, fino a narrazioni false sui conflitti in Ucraina e a Gaza, rendendo la nebbia di guerra ancora più fitta.

Con l’evoluzione di questi strumenti, le bufale prodotte dall’IA generativa sono oggi scritte e organizzate in modo più efficace e sono diventate più convincenti e quindi più pericolose.”

Intelligenza artificiale e disinformazione: individuati 614 siti

NewsGuard aggiorna periodicamente un monitoraggio ad hoc proprio sulla disinformazione che proviene dall’intelligenza artificiale.

Ebbene: il team di NewsGuard a oggi ha individuato ben 614 siti inaffidabili di notizie e informazioni generati dall’IA, e il numero è in continua crescita (a maggio del 2023 erano appena 40). Per comprendere la portata globale del fenomeno, basti pensare che si tratta di siti che hanno pubblicato in 15 diverse lingue: arabo, ceco, cinese, coreano, francese, indonesiano, inglese, italiano, olandese, portoghese, spagnolo, tagalog, tailandese, tedesco e turco.

NewsGuard ha poi analizzato tre casi eclatanti di disinformazione prodotta dall’intelligenza artificiale nel corso del 2023.

I video cospirazionisti su TikTok

A settembre, NewsGuard ha individuato una rete di 17 account TikTok che utilizzano una tecnologia di sintesi vocale basata sull’IA per generare contenuti che promuovono teorie di complotto, in grado di avere centinaia di milioni di visualizzazioni.

Tra i video fake più celebri, quello in cui Barack Obama legge una falsa dichiarazione sulla morte del suo chef personale, Tafari Campbell, dichiarandosi coinvolto nella vicenda.

ChatGPT e il plagio automatizzato

Ad agosto, come vi abbiamo raccontato in un articolo, NewsGuard ha identificato 37 siti che utilizzano chatbot come ChatGPT per riscrivere articoli apparsi in origine su testate giornalistiche come CNN, New York Times e Reuters, senza che il plagio venga riconosciuto.

Aggregazione efficiente o di plagio automatizzato? Di certo manca l’attribuzione della fonte. E, sempre nel mese di agosto, sull’argomento NewsGuard si era espresso così: “Comunque lo si chiami (e probabilmente saranno i tribunali a decidere), mai prima d’ora i siti hanno avuto la possibilità di riscrivere articoli creati da altri praticamente in tempo reale, e in un modo che spesso può essere difficile da riconoscere.”

Offerta

La risposta di ChatGPT su presunti esperimenti scientifici ai danni della Cina

Ad aprile, la testata statale cinese China Daily ha diffuso in un video l’affermazione infondata secondo cui un laboratorio in Kazakistan, che sarebbe stato gestito dagli Stati Uniti, avrebbe condotto ricerche segrete sulla trasmissione di virus dai cammelli agli esseri umani per danneggiare la Cina.

Nel video era citata a supporto della teoria una risposta fornita da ChatGPT.

Exit mobile version