fbpx
Tech

Ora ChatGPT può essere usata per scopi militari

OpenAI ha aggiornato la policy

Non vi ripeteremo quanto l’intelligenza artificiale generativa di software come ChatGPT, lanciato nel novembre del 2022, abbia cambiato e stia cambiando le nostre vite.

Come almeno nei primi tempi succede per tutte le dirompenti novità, dell’IA generativa stiamo apprendendo gli enormi potenziali benefici ma anche tutti i rischi. Un nodo da sciogliere, ad esempio, è quello dell’addestramento degli algoritmi. E il problema ha guadagnato le prime pagine dei giornali dopo che il New York Times ha fatto causa a OpenAI e Microsoft, accusati di aver adoperato materiale coperto da copyright (e non è mancata la pronta risposta delle due aziende).

Poi c’è il discorso dei potenziali usi perversi dei chatbot che producono testo e immagini. Si pensi (per prendere solo un esempio tra i tanti possibili) al deepfake, con cui i volti di diverse attrici famose sono stati sovrapposti a brevi video porno.

Ma con l’ultimo aggiornamento della policy di OpenAI si potrebbero prospettare scenari ben più cupi.

ChatGPT openai 1

ChatGPT e gli scopi militari

Nella policy d’uso del suo software di IA pubblicata nel marzo del 2023 da OpenAI, un passaggio recitava esplicitamente che “l’uso militare o legato alla guerra” di ChatGPT era vietato.

Poi è successo qualcosa. E quel qualcosa coincide con l’apertura del ChatGPT store. L’azienda ha modificato la policy il 10 gennaio, ufficialmente per renderla più snella e facilmente fruibile, e per “offrire delle linee guida più specifiche per il servizio.”

Niko Felix, portavoce di OpenAI, ha infatti dichiarato: “Abbiamo cercato di creare un insieme di principi universali che fossero facili da ricordare e da applicare.”

Tuttavia, a leggere il nuovo testo si scopre che quell’importante passaggio sul fatto che ChatGPT non potrà essere utilizzata per scopi militari è scomparso. O meglio, al suo posto appare adesso una frase che spiega come il software non concorrerà a “qualsiasi azione che possa causare danni a terzi” o per “lo sviluppo e l’uso delle armi”.

OpenAI e la collaborazione con la Difesa

Un altro portavoce dell’azienda di Sam Altman ha poi detto che “la nostra policy non consente di utilizzare i nostri strumenti per  sviluppare armi, sorvegliare le comunicazioni, ferire altre persone o distruggere proprietà. Esistono tuttavia casi di utilizzo per la sicurezza nazionale che sono in linea con la nostra missione.”

E, per fugare dubbi, il portavoce chiarito che OpenAI sta già collaborando con la Difesa. Nello specifico, con la Darpa, agenzia governativa del Dipartimento della Difesa degli Stati Uniti che sviluppa nuove tecnologie per uso militare.

Ma in che modo l’IA di ChatGPT potrebbe piegarsi agli scopi militari, escludendo la produzione di armi?

ChatGPT, gli scopi bellici e il rischio allucinazioni

Un eventuale utilizzo di ChatGPT per scopi bellici non riguarderebbe dunque lo sviluppo di armamenti. Ma potrebbe magari riguardare, ad esempio, la redazione di documenti testuali. E visto il noto rischio di “allucinazioni” dei chatbot (ossia la possibilità che il software risponda in maniera del tutto incongrua rispetto alla domanda posta, o che inventi informazioni imprecise se non inesistenti), le paure di un uso di ChatGPT per scopi militari non sono illegittime.

Come spiega Heidy Khlaaf, esperta di sicurezza informatica: “Considerati i casi noti di allucinazioni presenti nei large language models e la loro generale mancanza di accuratezza, l’uso nella guerra non può che portare a operazioni imprecise e distorte a per colpa dei bias che rischiano di aggravare i danni collaterali e le vittime civili”.

Offerta
ChatGPT for dummies
  • Di Bello, Bonaventura (Autore)

Parole e fatti

Sarah Myers, Managing Director dell’AI Now Institute, è stata interpellata da The Intercept, che per primo ha dato la notizia della modifica della policy di OpenAI.

Myers ha spiegato che “visto l’utilizzo di sistemi IA per il targeting dei civili a Gaza, quello attuale è un momento decisamente delicato per rimuovere quelle parole dalle policy di servizio di OpenAI”.

D’altro canto, come già accennato, OpenAI ha fatto sapere che la nuova versione del documento “mira a creare una serie di principi universali facili da ricordare e da applicare, e un principio come ‘non fare del male agli altri’ può essere compreso più facilmente di una frase in cui citiamo apertamente le armi e l’industria bellica”.

Al di là dei diversi punti di vista sulle parole, ci sono i fatti. Resta insomma da capire (e speriamo che ciò avvenga il più tardi possibile) quali conseguenze potrebbe avere l’ingresso dell’intelligenza artificiale nell’industria bellica.

Da non perdere questa settimana su Techprincess

🍎Nuovi iPad e accessori: cosa aspettarsi dall’evento Apple del 7 maggio
🍿Fallout: tutte le domande irrisolte alle quali la Stagione 2 dovrà rispondere
🛞Come scegliere gli pneumatici estivi per l’estate? I fattori da considerare
🤯Google licenzia 28 dipendenti per proteste contro il progetto Nimbus in Israele
✒️ La nostra imperdibile newsletter Caffellattech! Iscriviti qui 
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
💌 Risolviamo i tuoi problemi di cuore con B1NARY
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!

Claudio Bagnasco

Claudio Bagnasco è nato a Genova nel 1975 e dal 2013 vive a Tortolì. Ha scritto e pubblicato diversi libri, è co-fondatore e co-curatore del blog letterario Squadernauti. Prepara e corre maratone con grande passione e incrollabile lentezza. Ha raccolto parte delle sue scritture nel sito personale claudiobagnasco.com

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button