fbpx
AttualitàCulturaNews

Intelligenza artificiale: nuove regole Ue su sorveglianza e manipolazione del comportamento

Trapelata la bozza del regolamento sull’AI che sarà presentato la prossima settimana dall’Unione Europea

Intelligenza artificiale nell’Unione Europea: il regolamento che sarà presentato la prossima settimana ne delinea caratteristiche e confini. Scopriamo cosa è trapelato dalla bozza.

Intelligenza artificiale nell’Unione Europea: il nuovo regolamento

L’Ue si appresta a presentare un regolamento inedito sui limiti di utilizzo dell’AI all’interno del suo territorio.

Quali saranno le possibilità di utilizzo dell’intelligenza artificiale nell’interesse degli stati membri, e allo stesso tempo nel rispetto dei diritti fondamentali?

È trapelata la bozza del regolamento che la Commissione europea presenterà la prossima settimana. E i punti fondamentali sembrano due: le tecnologie vietate e le responsabilità delle aziende sull’eventuale alto rischio delle proprie tecnologie AI.

Europa e AI: le tecnologie vietate

Il GDPR europeo è stato recepito in Italia nel 2018 e contiene alcune norme per il contenimento degli effetti lesivi dell’intelligenza artificiale. Tuttavia, tre anni sono un tempo lunghissimo, se si considera nel frattempo quanto abbiano accelerato queste tecnologie.

Il nuovo regolamento redatto dall’Ue è decisamente più al passo con i tempi, e capace di individuare l’alto potenziale di rischio di alcune applicazioni di AI. Verso le quali pone un veto assoluto.

Tra le tecnologie messe al bando troviamo i sistemi di sorveglianza di massa (eccezion fatta per la sorveglianza a scopo di pubblica sicurezza) e i sistemi di credito sociale. Questi ultimi, adottati per esempio in Cina, prevedono una serie di controlli invasivi su ogni singolo cittadino, in modo da assegnare un punteggio alla sua reputazione. E lo stesso per le aziende.

Il divieto dell’Ue intende colpire anche tutti i sistemi di AI, si legge nella bozza, “progettati per manipolare il comportamento umano, le decisioni o le opinioni, per un fine dannoso”. Si tratta di tecnologie contrarie allo spirito dell’Unione Europea, così come i sistemi che utilizzano i dati personali per generare previsioni sfruttando e amplificando le vulnerabilità di persone o gruppi sociali.

intelligenza artificiale unione europea

Il regolamento Ue e i social

Queste note del regolamento potrebbero limitare almeno parzialmente la nostra profilazione da parte dei social. Le ultime due parole dell’estratto del testo, “fine dannoso”, sono da interpretare, ma per esempio sarebbero vietate le profilazioni che possano indurre a comportamenti discriminatori o che possano disinformare.

Si legge nella bozza: “Si dovrebbe riconoscere che l’intelligenza artificiale può consentire nuove pratiche di manipolazione, dipendenza, controllo sociale e sorveglianza indiscriminata che sono particolarmente dannose e dovrebbero essere vietate in quanto in contrasto con i valori dell’Unione del rispetto della dignità umana, della libertà, della democrazia, dello stato di diritto e del rispetto dei diritti umani”.

Il problema della sorveglianza

L’intelligenza artificiale nell’Unione Europea sarà dunque limitata anche per quanto riguarda il riconoscimento facciale. Che verosimilmente sarà vietato nei luoghi pubblici, e che introduce il secondo concetto base del regolamento: quello dell’alto rischio.

Europa e AI: le tecnologie ad alto rischio

La bozza parla del “coinvolgimento di un organismo notificato” per la “procedura di autorizzazione che affronta i rischi specifici impliciti nell’uso della tecnologia”. Chi autorizza le tecnologie ad alto rischio “dovrebbe considerare nella sua valutazione la probabilità e la gravità del danno causato dalle imprecisioni di un sistema utilizzato per un determinato scopo, in particolare per quanto riguarda l’età, l’etnia, il sesso o le disabilità. Dovrebbe inoltre considerare l’impatto sociale, considerando in particolare la partecipazione democratica e civica, così come la metodologia, la necessità e la proporzionalità per l’inclusione delle persone nel database di riferimento”.

Sono dunque considerati ad alto rischio i sistemi di IA “che possono principalmente portare a implicazioni negative per la sicurezza personale”, e che sono obbligati a seguire questa procedura più rigorosa.

intelligenza artificiale parlamento europeo

Il ruolo delle aziende

Ogni azienda sarà chiamata ad autoresponsabilizzarsi e ad autovalutarsi, per capire se la sua applicazione di AI sia o meno ad alto rischio. Dice una nota esplicativa della proposta: “La classificazione di un sistema di intelligenza artificiale come ad alto rischio dovrebbe essere basata sulla sua destinazione d’uso – che dovrebbe fare riferimento all’uso a cui è destinato un sistema di intelligenza artificiale, compresi il contesto e le condizioni d’uso specifici – ed essere determinata in due fasi, considerando se può causare determinati danni e, in tal caso, la gravità del danno possibile e la probabilità che si verifichi”.

Offerta

Intelligenza artificiale: per un’Unione Europea più consapevole

La grande responsabilità in mano a ogni azienda verrà ripagata con un marchio di qualità che le società conformi potranno esibire.

Lo scopo del nuovo regolamento è dunque duplice. Da una parte, quello di garantire maggiori tutele dei diritti e, insieme, una più rapida innovazione dei sistemi. Dall’altra, quello di sensibilizzare sia i singoli cittadini che le imprese verso il mondo delle nuove tecnologie e dell’AI, che in futuro sarà sempre più pervasivo.

È la strada già intrapresa con il libro bianco sull’intelligenza artificiale, pubblicato dall’Unione Europea il 19 febbraio 2020.

Claudio Bagnasco

Claudio Bagnasco è nato a Genova nel 1975 e dal 2013 vive a Tortolì. Ha scritto e pubblicato diversi libri, è co-fondatore e co-curatore del blog letterario Squadernauti. Prepara e corre maratone con grande passione e incrollabile lentezza. Ha raccolto parte delle sue scritture nel sito personale claudiobagnasco.com

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button