Site icon Techprincess

Più l’intelligenza è artificiale e più le risposte sono sbagliate: lo conferma OpenAI

Più l’intelligenza è artificiale e più le risposte sono sbagliate: lo conferma OpenAI thumbnail

OpenAI ha rivelato che le sue tecnologie più avanzate di intelligenza artificiale producono risposte sbagliate in un’alta percentuale di casi. Un recente test ha dimostrato che il modello di punta o1-preview fornisce risposte corrette solo nel 42,7% dei casi, una cifra sorprendentemente bassa per un sistema pensato per supportare attività quotidiane sempre più diffuse. Abbiamo chiesto a ChatGPT se questa percentuale fosse corretta, e ha detto “no”, quindi tutto torna (scherziamo). 

Volendo tornare seri, andiamo a capire dov’è il problema.

Quando l’intelligenza artificiale fornisce risposte sbagliate

OpenAI ha sviluppato un benchmark, chiamato SimpleQA, per valutare l’accuratezza dei suoi modelli e di quelli dei competitor. I risultati del test (via Futurism) sono decisamente da braccia cadute al suolo: anche il modello di ultima generazione o1-preview si è fermato a un tasso di successo del 42,7%. Questo dato indica che più della metà delle risposte generate dal sistema sono errate. Risultati ancora più bassi sono stati registrati dai modelli di altre aziende: il Claude-3.5-sonnet di Anthropic, ad esempio, ha ottenuto solo il 28,9% di risposte corrette.

La ricerca evidenzia un aspetto preoccupante: le intelligenze artificiali tendono a essere estremamente sicure delle proprie risposte, anche quando queste sono sbagliate. Tale “eccesso di fiducia” in risposte errate rappresenta un rischio, specialmente in ambiti critici come la sanità e la sicurezza.

Lo scorso anno ho provato a chiedere a ChatGPT di scrivere una bozza di episodio della nostra rubrica chiamata Dentro la Canzone. In particolare gli avevo chiesto di raccontarci la storia e il significato di Disperato Erotico Stomp, brano di Lucio Dalla. La risposta mi ha allarmato: l’AI mi ha informato del fatto che il brano era stato scritto da Domenico Modugno, cosa assolutamente inventata. Informata l’intelligenza artificiale della risposta sbagliata, questa mi ha confermato la sua versione. Ha poi smesso di rispondermi dopo averla insultata, ma questa è un’altra storia. Trovate l’episodio di Dentro la Canzone qui (questa volta scritto da un essere umano in carne e ossa). 

Torniamo a noi. Le risposte sbagliate dell’AI: perchè accade?

Le allucinazioni dell’AI: perchè accade?

La generazione di risposte inesatte da parte dei modelli di linguaggio naturale (LLM, Large Language Models) è un fenomeno noto come allucinazione. Le allucinazioni si verificano quando un modello di Intelligenza  Artificiale produce risposte che non hanno alcun fondamento nella realtà. Questo problema persiste nonostante i continui miglioramenti nelle capacità di calcolo e nei dati utilizzati per addestrare le AI. Questi modelli, infatti, spesso “inventano” informazioni senza alcuna base, portando a risposte ingannevoli o persino pericolose.

OpenAI ha recentemente riscontrato casi concreti di errori critici: un modello utilizzato negli ospedali per trascrivere interazioni con i pazienti ha mostrato frequenti allucinazioni e gravi inesattezze. Insomma: era l’AI che doveva essere ricoverata. Anche nel settore delle forze dell’ordine si stanno diffondendo applicazioni basate sull’Intelligenza Artificiale, con rischi potenziali per l’integrità delle informazioni utilizzate in ambiti delicati come le indagini giudiziarie.

Nonostante l’alta probabilità di generare risposte errate, l’uso delle AI si sta espandendo in molteplici settori. Le persone utilizzano questi sistemi per compiti quotidiani, come la creazione di documenti e la programmazione. Le aziende tecnologiche, infatti, continuano a investire pesantemente nello sviluppo e nell’implementazione di questi modelli. Tuttavia, l’attendibilità delle risposte fornite resta un problema centrale, soprattutto considerando l’integrazione della tecnologia in settori sensibili.

La diffusione di strumenti basati su AI, nonostante i problemi di accuratezza, riflette una fiducia spesso mal riposta da parte degli utenti. Molti tendono ad accettare le risposte generate dalle AI senza un controllo critico, alimentando il rischio di diffusione di informazioni errate. L’approccio critico, quello che resta prerogativa dell’intelligenza umana, resta l’unica arma possibile contro le allucinazioni artificiali.

Echo Dot (5ª generazione, modello 2022) | Altoparlante...
  • SUONO RICCO E AVVOLGENTE: goditi un’esperienza audio migliorata con voci più nitide e bassi più profondi per...
  • MUSICA E PODCAST: ascolta musica, audiolibri e podcast da Amazon Music, Audible, Apple Music, Spotify e molto altro,...
  • FELICE DI AIUTARTI: chiedi ad Alexa le previsioni del tempo, di impostare dei timer, di rispondere alle tue domande o...

Ultimo aggiornamento 2024-10-06 / Link di affiliazione / Immagini da Amazon Product Advertising API

Exit mobile version