Site icon Techprincess

Nightshade e Glaze: le armi per gli artisti che vogliono combattere l’intelligenza artificiale

Nightshade e Glaze: le armi per gli artisti che vogliono combattere l’intelligenza artificiale thumbnail

Il tema più che caldo è letteralmente bollente: da una parte gli artisti, dall’altra l’intelligenza artificiale (AI) generativa, noncurante di qualsiasi forma di copyright. I primi vogliono preservare la propria arte, mentre l’AI assimila e rastrella tutto lo scibile (e il riproducibile) che trova in rete.

La domanda è semplice: cosa possono fare gli artisti per difendere i loro diritti e la loro creatività?

La risposta arriva proprio dal mondo della tecnologia.

Intelligenza artificiale e copyright: due armi a tutela degli artisti

Un team di ricercatori dell’Università di Chicago ha sviluppato due strumenti che promettono di aiutare gli artisti a contrastare le aziende AI che raccolgono le loro opere senza il loro consenso (e senza compenso). Si tratta di Nightshade e Glaze, due strumenti che modificano i pixel delle immagini in modo invisibile per l’occhio umano, ma assolutamente importante per le macchine. Una sorta di vernice invisibile, che l’uomo non vede ma che per l’intelligenza artificiale è come una macchia di inchiostro che non rende possibile l’assimilazione dell’opera.

Nello specifico Nightshade è uno strumento di avvelenamento dei dati, cioè una tecnica che altera i dati di addestramento in modo da compromettere il funzionamento dei modelli AI. Gli artisti possono usare Nightshade per aggiungere cambiamenti impercettibili alle loro immagini prima di caricarle online, in modo da rendere i propri lavori letteralmente inutilizzabili dai modelli di apprendimento basati su intelligenza artificiale.

Glaze è invece uno strumento che permette agli artisti di mascherare il proprio stile personale per impedire che venga copiato dall’AI. Glaze funziona in modo simile a Nightshade, ma invece di alterare il contenuto delle immagini, altera il modo in cui esse vengono percepite dai modelli di apprendimento automatico. In questo modo, gli artisti possono proteggere la loro identità e la loro espressione artistica.

L’esperimento e il progetto

Il team di ricercatori ha testato l’efficacia dei due strumenti su alcuni modelli di AI generativa, tra cui il popolare StableDiffusion. I ricercatori hanno scoperto che bastano poche centinaia di immagini avvelenate da Nightshade per “confondere” l’AI. Hanno anche scoperto che Glaze rende difficile per l’intelligenza artificiale riconoscere e sfruttare le opere originali.

Le due tecnologie sono state presentate in occasione di Usenix, una conferenza sulla sicurezza informatica. I ricercatori hanno reso disponibile Nightshade come software open source, in modo che chiunque possa modificarlo e creare le proprie versioni. Il team intende anche integrare Nightshade in Glaze, e gli artisti potranno scegliere se usare o meno lo strumento di avvelenamento dei dati. 

L’obiettivo è quello di creare un deterrente contro le aziende AI che violano il diritto d’autore, per restituire agli artisti il controllo delle proprie opere.

Echo Show 10 (3ª generazione) | Schermo intelligente in HD...
  • Progettato per muoversi con te - Con uno schermo HD da 10,1" che si muove automaticamente, avrai sempre sott'occhio...
  • Sempre al centro dell'attenzione - Videochiama amici e famiglia o scatta una foto con la telecamera da 13 MP che, grazie...
  • Dare vita alla tua Casa Intelligente è semplice - Configura i dispositivi ZigBee compatibili senza bisogno di un hub...
Exit mobile version