fbpx
AttualitàCultura

La Federal Trade Commission apre un’indagine su ChatGPT

Sarebbero a rischio i dati personali degli utenti

La notizia è clamorosa, e ha tra i protagonisti un’agenzia e un prodotto che, per motivi differenti, stanno facendo parlare di sé in questi ultimi tempi.

L’agenzia è la FTC, sigla per Federal Trade Commission, appunto un’agenzia governativa statunitense che tutela i consumatori da pratiche commerciali anticoncorrenziali. E che proprio in questi giorni sta cercando in tutti i modi di opporsi all’acquisizione di Activision Blizzard da parte di Microsoft.

Dall’altra parte c’è ChatGPT, prodotto di OpenAI che immaginiamo non abbia bisogno di presentazioni.

Accolta con più di qualche sospetto per diversi motivi, l’intelligenza artificiale generativa sembrava finalmente aver messo d’accordo tutti. E la percezione comune era che, dopo lo scetticismo iniziale, si stava concordando sul fatto che ChatGPT e gli altri chatbot conversazionali faranno parte sempre di più delle nostre vite.

E così, il miglior atteggiamento da adottare non è quello di proibire, ma semmai di normare, per poter utilizzare questa tecnologia nel modo più proficuo (e ridurne al massimo le possibili ricadute negative).

Garante privacy ChatGPT 1

La FTC apre un’indagine su ChatGPT

Non abbiamo usato il tempo imperfetto per caso. Quando i principali dubbi su ChatGPT sembravano sopiti, ecco l’intervento della Federal Trade Commission, che ha aperto un’indagine sulla creatura di casa OpenAI.

Lo rivela in anteprima il Washington Post, in un articolo pubblicato nella giornata di giovedì 13 luglio. Il quotidiano spiega di essere entrato in possesso di un documento di venti pagine. Dal quale emerge che i motivi dell’indagine aperta su ChatGPT dall’FTC sono due: il chatbot conversazionale “metterebbe a rischio i dati personali e la reputazione dei singoli individui.”

Utilizza ChatGPT in totale sicurezza con NordVPN – Fino a 63% di sconto per 2 anni di NordVPN

Il problema dei dati degli utenti

La prima parte delle accuse a ChatGPT riguarda dunque l’utilizzo dei dati degli utenti.

Come vengono gestiti e quanto sono tutelati? A suscitare forti perplessità è soprattutto quanto accaduto nel mese di marzo. Quando un bug nei sistemi ha permesso ad alcuni utenti di vedere alcuni dati della cronologia di altri utenti. Ma anche alcune informazioni relative a pagamenti. Ecco perché la Federal Trade Commission si sta accertando che le modalità di salvaguardia dei dati non violino le leggi sulla privacy dei consumatori.

OpenAI, in un post sul blog ufficiale, aveva dichiarato che il numero di utenti i cui dati sono stati rivelati a qualcun altro era “estremamente basso”.

Il caso dell’Italia

Ricordiamo che, sempre nel mese di marzo, il nostro Garante della privacy aveva bloccato l’utilizzo di ChatGPT in Italia.

I dubbi riguardavano il fatto che la raccolta dei dati degli utenti del nostro Paese avvenisse in violazione del GDPR. Dopo alcune settimane di sospensione, il chatbot era stato reso di nuovo disponibile. Questo perché OpenAI aveva accolto alcune richieste del Garante. Tra cui l’inserimento della verifica dell’età degli utenti in fase di registrazione e la possibilità di dialogare in forma anonima con il chatbot.

Il problema della “reputazione degli individui”

Il secondo motivo che ha fatto scattare l’indagine nei confronti di ChatGPT deriva da una serie di clamorosi errori in cui, da quando è disponibile, è incappato il chatbot di OpenAI.

Perciò la Federal Trade Commission ha chiesto all’azienda di Sam Altman di fornire descrizioni dettagliate di tutti i reclami che ha ricevuto sui suoi prodotti a causa di “dichiarazioni false, fuorvianti, denigratorie o dannose” sulle persone.

Secondo il documento in mano al Washington Post, la FTC sta cercando di capire se OpenAI si sia impegnata in pratiche sleali o ingannevoli che hanno provocato un “danno reputazionale” ai consumatori.

OpenAI e l’EU AI Act

L’indagine dell’FTC su ChatGPT è la prima azione di questo tipo intrapresa negli Stati Uniti.

Il problema della regolamentazione di simili prodotti, dicevamo, è un problema stringente. Vi abbiamo raccontato dell’atteggiamento mutevole del CEO dell’azienda, Sam Altman, nei confronti della grande attenzione che il nostro continente ha da subito riservato alla necessità di normare l’IA generativa.

Fino ad arrivare al clamoroso scoop del Time. Secondo cui OpenAI avrebbe fatto pressioni tali da essere riuscito ad ammorbidire la bozza dell’EU AI Act. Ovvero la proposta di legge europea che mira a regolamentare l’intelligenza artificiale, assegnano le applicazioni dell’IA a tre categorie di rischio.

Ebbene, OpenAI avrebbe fatto in modo che l’intelligenza artificiale generativa non rientrasse nella categoria di rischio elevato.

Ultimo aggiornamento 2024-10-06 / Link di affiliazione / Immagini da Amazon Product Advertising API

Da non perdere questa settimana su Techprincess

 

🎮 Che impatto avranno le elezioni americane sui videogiochi?
🚘 I gadget più strani delle case automobilistiche
🇨🇳 Un gruppo di ricercatori cinesi ha sviluppato un modello di IA per uso militare basato su Llama di Meta

🔍 ChatGPT si aggiorna e ora naviga sul web
Ma lo sai che abbiamo un sacco di newsletter?
 
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
 
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
 
💸E trovi un po' di offerte interessanti su Telegram!

Autore

  • Claudio Bagnasco

    Claudio Bagnasco è nato a Genova nel 1975 e dal 2013 vive a Tortolì. Ha scritto e pubblicato diversi libri, è co-fondatore e co-curatore del blog letterario Squadernauti. Prepara e corre maratone con grande passione e incrollabile lentezza. Ha raccolto parte delle sue scritture nel sito personale claudiobagnasco.com

    Visualizza tutti gli articoli

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button