fbpx
NewsTech

Più l’intelligenza è artificiale e più le risposte sono sbagliate: lo conferma OpenAI

OpenAI ha rivelato che le sue tecnologie più avanzate di intelligenza artificiale producono risposte sbagliate in un’alta percentuale di casi. Un recente test ha dimostrato che il modello di punta o1-preview fornisce risposte corrette solo nel 42,7% dei casi, una cifra sorprendentemente bassa per un sistema pensato per supportare attività quotidiane sempre più diffuse. Abbiamo chiesto a ChatGPT se questa percentuale fosse corretta, e ha detto “no”, quindi tutto torna (scherziamo). 

Volendo tornare seri, andiamo a capire dov’è il problema.

Quando l’intelligenza artificiale fornisce risposte sbagliate

OpenAI ha sviluppato un benchmark, chiamato SimpleQA, per valutare l’accuratezza dei suoi modelli e di quelli dei competitor. I risultati del test (via Futurism) sono decisamente da braccia cadute al suolo: anche il modello di ultima generazione o1-preview si è fermato a un tasso di successo del 42,7%. Questo dato indica che più della metà delle risposte generate dal sistema sono errate. Risultati ancora più bassi sono stati registrati dai modelli di altre aziende: il Claude-3.5-sonnet di Anthropic, ad esempio, ha ottenuto solo il 28,9% di risposte corrette.

La ricerca evidenzia un aspetto preoccupante: le intelligenze artificiali tendono a essere estremamente sicure delle proprie risposte, anche quando queste sono sbagliate. Tale “eccesso di fiducia” in risposte errate rappresenta un rischio, specialmente in ambiti critici come la sanità e la sicurezza.

Lo scorso anno ho provato a chiedere a ChatGPT di scrivere una bozza di episodio della nostra rubrica chiamata Dentro la Canzone. In particolare gli avevo chiesto di raccontarci la storia e il significato di Disperato Erotico Stomp, brano di Lucio Dalla. La risposta mi ha allarmato: l’AI mi ha informato del fatto che il brano era stato scritto da Domenico Modugno, cosa assolutamente inventata. Informata l’intelligenza artificiale della risposta sbagliata, questa mi ha confermato la sua versione. Ha poi smesso di rispondermi dopo averla insultata, ma questa è un’altra storia. Trovate l’episodio di Dentro la Canzone qui (questa volta scritto da un essere umano in carne e ossa). 

Torniamo a noi. Le risposte sbagliate dell’AI: perchè accade?

Le allucinazioni dell’AI: perchè accade?

La generazione di risposte inesatte da parte dei modelli di linguaggio naturale (LLM, Large Language Models) è un fenomeno noto come allucinazione. Le allucinazioni si verificano quando un modello di Intelligenza  Artificiale produce risposte che non hanno alcun fondamento nella realtà. Questo problema persiste nonostante i continui miglioramenti nelle capacità di calcolo e nei dati utilizzati per addestrare le AI. Questi modelli, infatti, spesso “inventano” informazioni senza alcuna base, portando a risposte ingannevoli o persino pericolose.

OpenAI ha recentemente riscontrato casi concreti di errori critici: un modello utilizzato negli ospedali per trascrivere interazioni con i pazienti ha mostrato frequenti allucinazioni e gravi inesattezze. Insomma: era l’AI che doveva essere ricoverata. Anche nel settore delle forze dell’ordine si stanno diffondendo applicazioni basate sull’Intelligenza Artificiale, con rischi potenziali per l’integrità delle informazioni utilizzate in ambiti delicati come le indagini giudiziarie.

Nonostante l’alta probabilità di generare risposte errate, l’uso delle AI si sta espandendo in molteplici settori. Le persone utilizzano questi sistemi per compiti quotidiani, come la creazione di documenti e la programmazione. Le aziende tecnologiche, infatti, continuano a investire pesantemente nello sviluppo e nell’implementazione di questi modelli. Tuttavia, l’attendibilità delle risposte fornite resta un problema centrale, soprattutto considerando l’integrazione della tecnologia in settori sensibili.

La diffusione di strumenti basati su AI, nonostante i problemi di accuratezza, riflette una fiducia spesso mal riposta da parte degli utenti. Molti tendono ad accettare le risposte generate dalle AI senza un controllo critico, alimentando il rischio di diffusione di informazioni errate. L’approccio critico, quello che resta prerogativa dell’intelligenza umana, resta l’unica arma possibile contro le allucinazioni artificiali.

Echo Dot (5ª generazione, modello 2022) | Altoparlante...
  • SUONO RICCO E AVVOLGENTE: goditi un’esperienza audio migliorata con voci più nitide e bassi più profondi per...
  • MUSICA E PODCAST: ascolta musica, audiolibri e podcast da Amazon Music, Audible, Apple Music, Spotify e molto altro,...
  • FELICE DI AIUTARTI: chiedi ad Alexa le previsioni del tempo, di impostare dei timer, di rispondere alle tue domande o...

Ultimo aggiornamento 2024-10-06 / Link di affiliazione / Immagini da Amazon Product Advertising API

Da non perdere questa settimana su Techprincess

📱 Arm vuole cancellare la licenza a Qualcomm: in bilico il futuro degli smartphone Android
🔫 Call of Duty: Black Ops 6 vietato in Kuwait: la Guerra del Golfo è ancora un tema delicato
🌗 La serra made in Italy per coltivare anche sulla Luna

🏴‍☠️ Stop alla pirateria, stop anche a Google: la Serie A blocca Drive (per sbaglio)
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
💌 Risolviamo i tuoi problemi di cuore con B1NARY
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!

Source
Futurism

Autore

  • Marco Brunasso

    Scrivere è la mia passione, la musica è la mia vita e Liam Gallagher il mio Dio. Per il resto ho 30 anni e sono un musicista, cantante e autore. Qui scrivo principalmente di musica e videogame, ma mi affascina tutto ciò che ha a che fare con la creazione di mondi paralleli. 🌋From Pompei with love.🧡

    Visualizza tutti gli articoli

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button