Nei giorni scorsi abbiamo pubblicato un articolo in cui ci siamo divertiti a eleggere dodici emblematiche fake news dell’anno che sta terminando, una per ogni mese.
E ci siamo accorti di come l’IA stia producendo sempre più bufale, e quasi sicuramente ancor più ne produrrà in futuro. Conferma la nostra impressione un recente report di NewsGuard. Si tratta di una retrospettiva sul 2023, che mostra come l’intelligenza artificiale abbia spinto in avanti la produzione di disinformazione.
Scopriamo più nel dettaglio il report annuale di NewsGuard.
Il report di NewsGuard: misinformazione e disinformazione
Mercoledì 27 dicembre sul sito di NewsGuard è apparso un report sulla disinformazione riassuntivo dell’intero 2023. Il cui titolo, come spesso accade, è eloquente: “L’anno in cui l’intelligenza artificiale ha messo il turbo alla misinformazione: il 2023 di NewsGuard in rassegna.”
Una precisazione linguistica: non siamo sicuri che la parola misinformazione sia qui usata in modo troppo appropriato. La differenza tra disinformazione e misinformazione è che la prima è la diffusione voluta di notizia false, la seconda corrisponde piuttosto alla loro propagazione (ad esempio condividendole sui social) per leggerezza.
Mentre ci pare che NewsGuard, con misinformazione, intenda semmai la manipolazione consapevole delle notizie.
Intelligenza artificiale e disinformazione
La ricerca ci informa del fatto che “l’ascesa dell’intelligenza artificiale nel 2023 ha trasformato l’ecosistema della misinformazione, fornendo nuovi strumenti agli attori malintenzionati per creare articoli, immagini, audio, video e persino interi siti web, all’apparenza simili a quelli tradizionali, per promuovere narrazioni false o polarizzanti destinate a seminare confusione e sfiducia tra i lettori.”
E lo fa non solo globalmente, ma anche in modo sempre più raffinato: “Gli strumenti basati sull’intelligenza artificiale vengono utilizzati per diffondere diverse tipologie di misinformazione, dalla propaganda russa, cinese e iraniana a bufale sulla salute, fino a narrazioni false sui conflitti in Ucraina e a Gaza, rendendo la nebbia di guerra ancora più fitta.
Con l’evoluzione di questi strumenti, le bufale prodotte dall’IA generativa sono oggi scritte e organizzate in modo più efficace e sono diventate più convincenti e quindi più pericolose.”
Intelligenza artificiale e disinformazione: individuati 614 siti
NewsGuard aggiorna periodicamente un monitoraggio ad hoc proprio sulla disinformazione che proviene dall’intelligenza artificiale.
Ebbene: il team di NewsGuard a oggi ha individuato ben 614 siti inaffidabili di notizie e informazioni generati dall’IA, e il numero è in continua crescita (a maggio del 2023 erano appena 40). Per comprendere la portata globale del fenomeno, basti pensare che si tratta di siti che hanno pubblicato in 15 diverse lingue: arabo, ceco, cinese, coreano, francese, indonesiano, inglese, italiano, olandese, portoghese, spagnolo, tagalog, tailandese, tedesco e turco.
NewsGuard ha poi analizzato tre casi eclatanti di disinformazione prodotta dall’intelligenza artificiale nel corso del 2023.
I video cospirazionisti su TikTok
A settembre, NewsGuard ha individuato una rete di 17 account TikTok che utilizzano una tecnologia di sintesi vocale basata sull’IA per generare contenuti che promuovono teorie di complotto, in grado di avere centinaia di milioni di visualizzazioni.
Tra i video fake più celebri, quello in cui Barack Obama legge una falsa dichiarazione sulla morte del suo chef personale, Tafari Campbell, dichiarandosi coinvolto nella vicenda.
ChatGPT e il plagio automatizzato
Ad agosto, come vi abbiamo raccontato in un articolo, NewsGuard ha identificato 37 siti che utilizzano chatbot come ChatGPT per riscrivere articoli apparsi in origine su testate giornalistiche come CNN, New York Times e Reuters, senza che il plagio venga riconosciuto.
Aggregazione efficiente o di plagio automatizzato? Di certo manca l’attribuzione della fonte. E, sempre nel mese di agosto, sull’argomento NewsGuard si era espresso così: “Comunque lo si chiami (e probabilmente saranno i tribunali a decidere), mai prima d’ora i siti hanno avuto la possibilità di riscrivere articoli creati da altri praticamente in tempo reale, e in un modo che spesso può essere difficile da riconoscere.”
La risposta di ChatGPT su presunti esperimenti scientifici ai danni della Cina
Ad aprile, la testata statale cinese China Daily ha diffuso in un video l’affermazione infondata secondo cui un laboratorio in Kazakistan, che sarebbe stato gestito dagli Stati Uniti, avrebbe condotto ricerche segrete sulla trasmissione di virus dai cammelli agli esseri umani per danneggiare la Cina.
Nel video era citata a supporto della teoria una risposta fornita da ChatGPT.
Ultimo aggiornamento 2024-10-06 / Link di affiliazione / Immagini da Amazon Product Advertising API
Rimani aggiornato seguendoci su Google News!
Da non perdere questa settimana su Techprincess
🎮 Che impatto avranno le elezioni americane sui videogiochi?
🚘 I gadget più strani delle case automobilistiche
🇨🇳 Un gruppo di ricercatori cinesi ha sviluppato un modello di IA per uso militare basato su Llama di Meta
🔍 ChatGPT si aggiorna e ora naviga sul web
Ma lo sai che abbiamo un sacco di newsletter?
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!