Il tema più che caldo è letteralmente bollente: da una parte gli artisti, dall’altra l’intelligenza artificiale (AI) generativa, noncurante di qualsiasi forma di copyright. I primi vogliono preservare la propria arte, mentre l’AI assimila e rastrella tutto lo scibile (e il riproducibile) che trova in rete.
La domanda è semplice: cosa possono fare gli artisti per difendere i loro diritti e la loro creatività?
La risposta arriva proprio dal mondo della tecnologia.
Intelligenza artificiale e copyright: due armi a tutela degli artisti
Un team di ricercatori dell’Università di Chicago ha sviluppato due strumenti che promettono di aiutare gli artisti a contrastare le aziende AI che raccolgono le loro opere senza il loro consenso (e senza compenso). Si tratta di Nightshade e Glaze, due strumenti che modificano i pixel delle immagini in modo invisibile per l’occhio umano, ma assolutamente importante per le macchine. Una sorta di vernice invisibile, che l’uomo non vede ma che per l’intelligenza artificiale è come una macchia di inchiostro che non rende possibile l’assimilazione dell’opera.
Nello specifico Nightshade è uno strumento di avvelenamento dei dati, cioè una tecnica che altera i dati di addestramento in modo da compromettere il funzionamento dei modelli AI. Gli artisti possono usare Nightshade per aggiungere cambiamenti impercettibili alle loro immagini prima di caricarle online, in modo da rendere i propri lavori letteralmente inutilizzabili dai modelli di apprendimento basati su intelligenza artificiale.
Glaze è invece uno strumento che permette agli artisti di mascherare il proprio stile personale per impedire che venga copiato dall’AI. Glaze funziona in modo simile a Nightshade, ma invece di alterare il contenuto delle immagini, altera il modo in cui esse vengono percepite dai modelli di apprendimento automatico. In questo modo, gli artisti possono proteggere la loro identità e la loro espressione artistica.
L’esperimento e il progetto
Il team di ricercatori ha testato l’efficacia dei due strumenti su alcuni modelli di AI generativa, tra cui il popolare StableDiffusion. I ricercatori hanno scoperto che bastano poche centinaia di immagini avvelenate da Nightshade per “confondere” l’AI. Hanno anche scoperto che Glaze rende difficile per l’intelligenza artificiale riconoscere e sfruttare le opere originali.
Le due tecnologie sono state presentate in occasione di Usenix, una conferenza sulla sicurezza informatica. I ricercatori hanno reso disponibile Nightshade come software open source, in modo che chiunque possa modificarlo e creare le proprie versioni. Il team intende anche integrare Nightshade in Glaze, e gli artisti potranno scegliere se usare o meno lo strumento di avvelenamento dei dati.
L’obiettivo è quello di creare un deterrente contro le aziende AI che violano il diritto d’autore, per restituire agli artisti il controllo delle proprie opere.
- Progettato per muoversi con te - Con uno schermo HD da 10,1" che si muove automaticamente, avrai sempre sott'occhio...
- Sempre al centro dell'attenzione - Videochiama amici e famiglia o scatta una foto con la telecamera da 13 MP che, grazie...
- Dare vita alla tua Casa Intelligente è semplice - Configura i dispositivi ZigBee compatibili senza bisogno di un hub...
Ultimo aggiornamento 2024-10-06 / Link di affiliazione / Immagini da Amazon Product Advertising API
Rimani aggiornato seguendoci su Google News!
Da non perdere questa settimana su Techprincess
🛍️ Amazon Black Friday 2024: date, migliori offerte e consigli per risparmiare
🎮 I 10 migliori giochi che dovresti assolutamente comprare con le offerte di Steam: sconti fino al 95%
🪁 PlayLab, il museo a portata di bambino
🚗 Restomod: quando le leggende dell’asfalto rinascono per farci sognare ancora
📰 Ma lo sai che abbiamo un sacco di newsletter?
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!