fbpx
CulturaTech

NewsGuard individua 37 siti che usano l’IA per riscrivere contenuti delle principali testate giornalistiche

Negli articoli manca l’attribuzione della fonte

Nei giorni scorsi (ve ne abbiamo parlato in un articolo) il New York Times ha creato un precedente dalla grande importanza simbolica.

Ha cioè impedito all’intelligenza artificiale di OpenAI di addestrarsi “nutrendosi” anche dei contenuti della testata.

È un’azione che evidentemente mira alla salvaguardia dei diritti di proprietà intellettuale. Discorso intricato e destinato a protrarsi a lungo, quando c’è in gioco l’intelligenza artificiale generativa. È ad esempio recentissima una sentenza di un tribunale Usa per cui i contenuti “creativi” prodotti dall’IA non possono godere del diritto d’autore.

Un’altra questione, non troppo lontana, sta dividendo le star della canzone: ossia l’accordo, che pare prossimo, tra Google e Universal per creare musica con l’intelligenza artificiale partendo dalle vocalità e sonorità di celebri cantanti e musicisti.

Ma, come ha dimostrato un recente report di NewsGuard, nella produzione di contenuti c’è chi usa l’IA in modo anche del tutto disinvolto, non badando a copyright alcuno.

newsbot siti online newsguard min

La ricerca di NewsGuard

Non è un caso se il New York Times ha chiuso le porte ai chatbot, essendo il suo sito tra quelli più saccheggiati.

È quanto emerge da un report di NewsGuard relativo al mese di agosto, e pubblicato sul sito giovedì 24.

La ricerca mira a individuare i siti che, in pratica, plagiano (o quasi) i contenuti delle principali testate giornalistiche. E, come… in ogni plagio che si rispetti, si guardano bene dal citare la fonte originaria.

Ricordiamo che NewsGuard, tramite un team di giornalisti e redattori, fornisce valutazioni e punteggi di affidabilità dei siti Internet, stilando report mensili e aprendo periodicamente specifici centri di monitoraggio.

Le content farm, l’IA e i contenuti plagiati

A essere analizzate da NewsGuard sono state diverse “content farm”, cioè aziende che generano rapidamente una grande quantità di contenuti. Andando inevitabilmente a scapito della qualità.

Con un paradosso aggiuntivo: le “content farm” producono un’ingente mole di contenuti per piazzarsi meglio su Google e ottenere pubblicità di grosse aziende. Che però, così facendo, spesso foraggiano siti scarsamente affidabili. O, come vedremo, parassiti di altri.

Infatti nel mese di agosto NewsGuard ha individuato 37 siti che “sembrerebbero” (il condizionale è nel report) essersi appoggiati a chatbot per riscrivere articoli già apparsi su alcune testate giornalistiche autorevoli, come CNN, New York Times e Reuters. Testate che, peraltro, non sono mai state menzionate come fonti dei contenuti.

La pubblicità programmatica di grandi marchi, peraltro, è presente in 15 di questi 37 siti.

Inoltre, l’automazione di alcuni di essi sembra addirittura totale. Nel senso che alcuni siti tra i 37 analizzati producono articoli senza nessuna supervisione né intervento umano.

Riscrittura o plagio?

Il punto fondamentale è se la riscrittura dei contenuti tramite IA possa o meno considerarsi plagio.

Nella stessa ricerca di NewsGuard si legge che siamo in un territorio di confine: “Non è chiaro come descrivere questa nuova pratica, né se gli articoli riscritti con l’IA possano costituire ‘contenuti originali’. Nella migliore delle ipotesi, si potrebbe parlare di ‘aggregazione efficiente’; nel peggiore dei casi, di ‘plagio iper-efficiente’. Comunque lo si chiami (e probabilmente saranno i tribunali a decidere), mai prima d’ora i siti hanno avuto la possibilità di riscrivere articoli creati da altri praticamente in tempo reale, e in un modo che spesso può essere difficile da riconoscere.”

Quel che è certo è che i due principali chatbot (ChatGPT di OpenAI e Bard di Google) nelle loro linee guida esplicitano il divieto di utilizzo per plagiare contenuti altrui.

NewsGuard, in relazione alla sua indagine, ha inviato una mail a OpenAI e una a Google, e finora non ha ottenuto risposta.

Nessun intervento umano

La maggior parte dei 37 siti che ripropongono contenuti di altre testate agiscono, dicevamo, senza supervisione umana in nessuna fase del processo.

Sono dunque addestrati a intercettare contenuti da plagiare, riscriverli e pubblicarli.

Segnale inequivocabile in questo senso, e che ha dato il via alla ricerca di NewsGuard, è il fatto che alcuni contenuti elaborati dall’IA e riproposti contengano i “ragionamenti” del software.

Per esempio, il 28 maggio 2023 TopGolf.kr è uscito con un pezzo assai simile a uno pubblicato lo stesso giorno da Wired Magazine.

E nel titolo si legge: “Come modello linguistico di IA, non sono certo delle preferenze dei lettori umani, ma ecco alcune opzioni alternative per il titolo…”

Da non perdere questa settimana su Techprincess

✒️ La nostra imperdibile newsletter Caffellattech! Iscriviti qui 
 
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
 
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
 
💌 Risolviamo i tuoi problemi di cuore con B1NARY
 
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
 
💸E trovi un po' di offerte interessanti su Telegram!

Claudio Bagnasco

Claudio Bagnasco è nato a Genova nel 1975 e dal 2013 vive a Tortolì. Ha scritto e pubblicato diversi libri, è co-fondatore e co-curatore del blog letterario Squadernauti. Prepara e corre maratone con grande passione e incrollabile lentezza. Ha raccolto parte delle sue scritture nel sito personale claudiobagnasco.com

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button