fbpx
Tech

AI Act: non c’è ancora l’accordo dopo 22 ore di discussioni

Ci si riaggiornerà a venerdì 8 dicembre

Sembra che le maggiori aziende che producono software di IA abbiano sincronizzato gli orologi, perché nei giorni attorno al primo compleanno di ChatGPT (il 30 novembre scorso) è successo un po’ di tutto.

Pensiamo non solo ai colpi di scena nel board di OpenAI, o al rebranding di Bing Chat in Copilot, ma anche alla presentazione di rinnovate versioni di software già esistenti, o a quella di intelligenze artificiali nuove di zecca, come Titan di Amazon o, nelle scorse ore, Gemini di Google.

Verso una regolamentazione dell’IA

Ma sono anche giorni di grande fermento per la regolamentazione dell’intelligenza artificiale, specie quella generativa.

Prima è stata la volta di un documento, firmato da 18 Paesi tra cui l’Italia, contenente alcune norme (non vincolanti) sull’utilizzo dell’IA. Il documento individua quattro aree chiave cui prestare la massima attenzione: progettazione sicura, sviluppo sicuro, implementazione sicura, funzionamento e manutenzione sicuri.

Dopo di che, in previsione della discussione dell’AI Act in corso a Bruxelles, ecco che 34 associazioni culturale italiane hanno sottoscritto un appello in cui si chiede al nostro governo di “sostenere una regolamentazione equilibrata che, garantendo la trasparenza delle fonti, favorisca lo sviluppo delle tecnologie di intelligenza artificiale, tutelando e promuovendo al contempo la creatività umana originale e tutti i contenuti culturali del nostro Paese.”

intelligenza artificiale 1

La discussione sull’AI Act

L’appello, dicevamo, è stato sottoscritto alla vigilia della discussione sull’AI Act che sta avvenendo in queste ore a Bruxelles.

Si deciderà infatti dell’approvazione o meno dell’importante regolamento giuridico europeo in materia di intelligenza artificiale. Come leggiamo sul sito ufficiale, l’AI Act è “una proposta di legge europea sull’intelligenza artificiale, la prima legge al mondo sull’IA da parte di un importante organismo regolatore. La legge assegna le applicazioni dell’IA a tre categorie di rischio.”

Avevano fatto scalpore, lo scorso giugno, i tentativi (peraltro, pare, andati a buon fine) di Sam Altman di far rivedere la proposta di legge, declassando il livello di rischio dell’IA generativa, e quindi garantendo l’allentamento della stretta dell’UE sui prodotti di OpenAI.

Il trilogo sull’IA Act inizia con una fumata nera

Dicevamo che in queste ore si sta svolgendo a Bruxelles un’importante riunione per decidere sull’AI Act.

È un cosiddetto trilogo, cioè una riunione congiunta di rappresentanti di Consiglio, Parlamento e Commissione, per giungere con maggior rapidità a un accordo rispetto alla procedura legislativa ordinaria.

Tuttavia, da indiscrezioni sembra che, dopo ben 22 ore di negoziati, tra legislatori e governi degli stati membri si sia arrivati solo ad accordi parziali. La discussione, iniziata mercoledì 6 dicembre intorno alle ore 14, dovrebbe avere messo tutti d’accordo per quanto riguarda i modelli di IA a “rischio sistemico”. Chi li sviluppa dovrà pubblicare un chiaro elenco dei contenuti utilizzati per il loro addestramento. È la posizione espressa nell’appello delle associazioni culturali italiane, che contestavano l’idea (condivisa anche dai governi di Francia e Germania) secondo cui i produttori di software avrebbero potuto affidarsi all’autoregolamentazione.

Su altri punti, invece, si è ancora lontani.

Il nodo del riconoscimento biometrico

L’importante trilogo sull’AI Act si riaggiornerà alle ore 9 di venerdì 8 dicembre.

Il punto di maggior disaccordo pare essere quello delle tecniche di identificazione biometrica. E, assieme, quello della polizia predittiva, ossia l’uso di sistemi di intelligenza artificiale da parte delle forze dell’ordine per poter prevedere il tempo e il luogo di possibili crimini, e il profilo di chi potrebbe commetterli.

In generale, la posizione del Parlamento Ue tende a essere più severa, mentre quella del Consiglio e di alcuni Paesi spinge per ottenere norme meno stringenti.

L’iter dell’AI Act

Un regolamento europeo sull’IA è stato proposto per la prima volta dalla Commissione europea nell’aprile del 2021.

Nel mese di giugno c’è stato l’importante via libera del Parlamento europeo, che ha portato al trilogo attualmente in pieno svolgimento.

Dicevamo della posizione radicale del Parlamento. Che, una volta dato l’ok, aveva subito fatto sapere che “saranno vietati i sistemi di IA che presentano un livello di rischio inaccettabile per la sicurezza delle persone”.

Il che significa un altolà all’identificazione biometrica remota  in spazi pubblici ella polizia predittiva. E lo stop alle categorizzazioni biometriche basate sulle caratteristiche sensibili come genere, razza, etnia, cittadinanza, religione e orientamento politico.

Nelle prossime ore sapremo se l’IA Act passerà. In caso di accordo, nei prossimi mesi si arriverà alla legge, che sarà resa operativa nel giro di due anni.

Da non perdere questa settimana su Techprincess

✒️ La nostra imperdibile newsletter Caffellattech! Iscriviti qui 
 
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
 
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
 
💌 Risolviamo i tuoi problemi di cuore con B1NARY
 
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
 
💸E trovi un po' di offerte interessanti su Telegram!

Claudio Bagnasco

Claudio Bagnasco è nato a Genova nel 1975 e dal 2013 vive a Tortolì. Ha scritto e pubblicato diversi libri, è co-fondatore e co-curatore del blog letterario Squadernauti. Prepara e corre maratone con grande passione e incrollabile lentezza. Ha raccolto parte delle sue scritture nel sito personale claudiobagnasco.com

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button