fbpx
Tech

Troppi errori nella produzione di immagini: Google sospende Gemini

A poche ore dal lancio di Gemma

Ma come: ci stavamo divertendo così tanto!

Spieghiamoci meglio. Google, negli ultimi giorni, sembrava avesse fatto la voce grossa nell’ambito dell’intelligenza artificiale generativa. In un primo momento, annunciando la più recente versione del suo software di IA, Gemini 1.5 Pro, che migliora dell’87% la versione Pro del primo Gemini. E poi presentando (a distanza di pochi giorni) Gemma, famiglia di modelli di intelligenza artificiale aperti.

Due colpi in un breve spazio di tempo, passati un po’ troppo inosservati perché nel frattempo OpenAI ha mostrato al mondo le meraviglie di Sora, capace di produrre clip video estremamente realistici partendo da un comando testuale.

Sulla produzione di immagini, invece, Gemini ha fatto cilecca, come vedremo. Troppe e troppe grossolane imprecisioni, che hanno portato Google a sospendere uno dei servizi di Gemini.

google centro cybersicurezza malaga min 1

Google sospende Gemini

Google sospende Gemini. Non bloccando in toto la propria intelligenza artificiale generativa, ma solo inibendo momentaneamente la possibilità di creare immagini di persone.

In un post pubblicato su X, l’azienda di Sundar Pichai ha scritto: “Stiamo già lavorando per risolvere i recenti problemi con la funzionalità di generazione delle immagini di Gemini. Mentre lo facciamo, metteremo in pausa la generazione delle immagini delle persone e presto pubblicheremo nuovamente una versione migliorata”.

In un altro post, Google si è dichiarata consapevole del fatto che “Gemini sta mostrando imprecisioni in alcune rappresentazioni della generazione di immagini storiche”.

A cui sono seguite le scuse: “Stiamo lavorando per risolvere questo problema immediatamente. L’intelligenza artificiale di Gemini produce un’ampia varietà di individui. E in genere questa è una cosa buona, perché la usano persone in tutto il mondo. Ma in questo caso abbiamo sbagliato”.

La decisione è stata presa in seguito alle segnalazioni di diversi utenti, che avevano riscontrato imprecisioni non banali. Ricordiamo che da febbraio Gemini dà la possibilità in alcuni Paesi (ma non in Europa) di creare immagini partendo da prompt testuali in inglese grazie al modello text-to-image Imagen 2.

I nazisti afroamericani

Uno dei rischi dell’addestramento dei modelli di IA, si sa, è quello del ribadimento di alcuni stereotipi che inquinano la nostra cultura e società.

In concreto: se nel materiale dato in pasto ai software ci sono pregiudizi legati ad esempio al genere o all’etnia, è evidente che questi saranno restituiti nei testi o nelle immagini che l’IA di turno produrrà.

Non sappiamo se il problema che ha portato Google e sospendere Gemini sia questo. Ma di certo, alla richiesta di generare “immagini di soldati tedeschi nel 1943” se ne sono viste, è proprio il caso di dire, delle belle.

Divise ed elmetti avevano la loro plausibilità storica. Il fatto è che i soldati erano per lo più afroamericani o asiatici (in tre casi su quattro). Razzismo implicito? Nel senso che Gemini immagina un soldato nazista come afroamericano o asiatico? O al contrario, una sovraesposizione proprio di persone afroamericane o asiatiche, per non incorrere in eventuali accuse di razzismo, e quindi di insufficiente considerazione di certe etnie?

Non sembra quello il problema. Perché, dopo l’incidente, c’è chi ha chiesto al software di “creare l’immagine di un maschio caucasico”. E sono nuovamente apparsi individui dai tratti somatici evidentemente propri di asiatici o afroamericani. Compreso un pontefice nero.

Pare insomma che Google Gemini abbia difficoltà nel produrre immagini di persone bianche.

Offerta

L’IA generativa e gli (eccessivi?) entusiasmi suscitati

Google sospende dunque Gemini, o meglio la sua funzionalità di generatore di immagini, e presto tornerà con una versione migliorata.

Lo stop provvisorio, a distanza di poche ore dai mirabili video di un minuto prodotti da Sora di OpenAI, induce a un ragionamento. Al di là degli approdi, sempre più entusiasmanti, dell’intelligenza artificiale generativa, siamo con tutta evidenza di fronte a una tecnologia ancora neonata. Molti sono e saranno gli errori, e non è da escludere che la corsa a mettere sul mercato prodotti più innovativi rispetto a quelli dei competitor porti le aziende a rischiare, a rendere pubblici software che magari avrebbero avuto bisogno di una più accurata fase di test.

Ci vorrà tempo prima che l’IA generativa raggiunga una certa stabilità. Solo allora capiremmo davvero in che modo poterne godere fino in fondo, e da cosa dovremmo eventualmente metterci in guardia.

Da non perdere questa settimana su Techprincess

🚪 La pericolosa backdoor di Linux, disastro sventato da un solo ricercatore
 
🎶Streaming Farms: il lato oscuro della musica, tra ascolti falsi e stream pompati
 
✈️Abbiamo provato DJI Avata 2: sempre più divertente!
 
✒️ La nostra imperdibile newsletter Caffellattech! Iscriviti qui 
  
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
  
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
  
💌 Risolviamo i tuoi problemi di cuore con B1NARY
  
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
  
💸E trovi un po' di offerte interessanti su Telegram!

Claudio Bagnasco

Claudio Bagnasco è nato a Genova nel 1975 e dal 2013 vive a Tortolì. Ha scritto e pubblicato diversi libri, è co-fondatore e co-curatore del blog letterario Squadernauti. Prepara e corre maratone con grande passione e incrollabile lentezza. Ha raccolto parte delle sue scritture nel sito personale claudiobagnasco.com

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button