Che informazione e disinformazione si intreccino in modo sempre più fitto (e difficile da districare) è sotto gli occhi di tutti.
Ce ne siamo accorti soprattutto dal 24 febbraio, giorno dell’invasione russa dell’Ucraina: quella delle fake news è diventata una sorta di guerra nella guerra.
Non parliamo poi di questi ultimi mesi, dominati da due diversi approdi dell’intelligenza artificiale generativa. Ovvero i software capaci di produrre testi (come ChatGPT) e quelli che, partendo da una stringa testuale, generano immagini (come Midjourney).
Abbiamo visto di tutto: da improvvidi avvocati che, affidandosi ai chatbot conversazionali, hanno clamorosamente toppato, a giornalisti che per gioco hanno vestito Papa Francesco con un piumino o hanno immaginato l’ex presidente Usa Donald Trump dietro le sbarre.
Ma l’uso dell’intelligenza artificiale può certo essere meno innocente di così. E proprio della disinformazione generata dall’IA si è di recente occupata NewsGuard.
NewsGuard e il Centro di monitoraggio delle informazioni generate dall’IA
NewsGuard, grazie a un team di giornalisti e redattori, attraverso nove criteri di valutazione fornisce valutazioni e punteggi di affidabilità dei siti Internet.
Utilizza ChatGPT con NordVPN – 56% di sconto sul piano annuale + 3 mesi gratis
Oltre a stilare un report mensile, apre periodicamente specifici Centri di monitoraggio, come quello sul conflitto russo-ucraino.
Visto il già citato dilagare dell’intelligenza artificiale generativa, con tutti i rischi connessi (oltre che naturalmente le svariate opportunità), NewsGuard ha di recente aperto anche un Centro di monitoraggio delle informazioni generate dall’IA. Dove si indaga appunto l’informazione, e soprattutto la disinformazione, che dall’IA proviene. Vediamo qualche dato più da vicino.
Almeno 150 i siti inaffidabili
Nella nota introduttiva al report, leggiamo che “NewsGuard ha finora identificato 150 siti di notizie e informazioni generati dall’intelligenza artificiale che operano con poca o nessuna supervisione umana.” Aggiungiamo che, mentre stiamo redigendo l’articolo, l’indagine di NwGuard è aggiornata a mercoledì 7 giugno.
I siti di disinformazione tramite IA stanno operando, per ora, in 12 lingue: arabo, cinese, ceco, coreano, francese, indonesiano, inglese, olandese, portoghese, tagalog, thailandese e turco.
Pur avendo spesso nomi del tutto credibili, questi siti operano appunto senza alcuna supervisione umana o quasi, pubblicando così come sono articoli scritti da bot.
“Questi siti hanno sfornato decine e in alcuni casi centinaia di articoli su vari argomenti, tra cui politica, tecnologia, intrattenimento e viaggi. Gli articoli talvolta contengono affermazioni false, come ad esempio bufale sulla morte di personaggi famosi ed eventi inventati o datati, presentati però come se fossero appena accaduti.”
Spesso il guadagno di simili siti è dato dagli annunci pubblicitari. E il problema, fa giustamente notare NewsGuard, è proprio questo: finché le aziende non porranno la giusta attenzione, evitando di pubblicare i propri annunci su siti non attendibili, questi continueranno a diffondere fake news.
I quattro requisiti
I 150 siti di disinformazione tramite IA individuati da Newsuard hanno tutti le seguenti quattro caratteristiche: ci sono prove inconfutabili che buona parte dei contenuti del sito sia prodotta dall’IA; ci sono altrettante prove che l’intervento di supervisione umana sia minimo o nullo; le modalità di presentazione degli articoli inducono a credere che a scriverli siano stati esseri umani; non c’è alcuna indicazione del fatto che autore degli articoli sia l’intelligenza artificiale.
Siti di disinformazione tramite IA triplicati in un mese
Nel mese di maggio 2023, il Centro di monitoraggio delle informazioni generate dall’IA aveva intercettato 49 siti di fake news generati dall’IA. Ora, a giugno, siamo a 150: più del triplo.
Sono soprattutto i media statali di Cina e Russia ad adoperare ChatGPT per diffondere disinformazione tramite IA.
La parola a NewsGuard
Sulla disinformazione tramite IA si sono espressi i due Ceo di NewsGuard.
Steven Brill ha detto: “Uno dei motivi per cui 5 anni fa abbiamo creato NewsGuard era la facilità e il basso costo di produzione delle content farm. I siti di notizie generati dall’intelligenza artificiale di oggi sono simili alle content farm macedoni che diffondevano disinformazione qualche anno fa, con la differenza che i costi di produzione sono ancora più bassi e che queste nuove fonti possono diventare ancora più prolifiche grazie ai progressi dell’intelligenza artificiale”.
E Gordon Crovitz è tornato sul problema della pubblicità: “La maggior parte di questi siti è stata creata sulla base del modello commerciale che genera entrate dalla pubblicità programmatica. I marchi non hanno alcuna intenzione di inserire annunci su siti che non sono sicuri per la loro reputazione, eppure la scarsa trasparenza del sistema di gestione della pubblicità programmatica fa sì che le loro inserzioni, fornite da aziende di tecnologia pubblicitaria come Google, appaiano comunque su questi siti”.
Ultimo aggiornamento 2024-10-06 / Link di affiliazione / Immagini da Amazon Product Advertising API
Rimani aggiornato seguendoci su Google News!
Da non perdere questa settimana su Techprincess
🎮 Che impatto avranno le elezioni americane sui videogiochi?
🚘 I gadget più strani delle case automobilistiche
🇨🇳 Un gruppo di ricercatori cinesi ha sviluppato un modello di IA per uso militare basato su Llama di Meta
🔍 ChatGPT si aggiorna e ora naviga sul web
Ma lo sai che abbiamo un sacco di newsletter?
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!