OpenAI ha svelato l’ultima versione del modello alla base del suo chatbot AI ChatGPT, chiamata GPT-4o (dove “o” sta per “omni“). Questa nuova versione, offerta gratuitamente a tutti gli utenti di ChatGPT, può analizzare le immagini e riconoscere persino le espressioni facciali. Inoltre, ha una “memoria” per ricorda le passate domande e risposte che le avete fatto.
GPT-4o, OpenAI annuncia il nuovo modello AI multimodale e con memoria
Ieri l’attenzione di tutto il mondo tech si è concentrato sugli annunci di OpenAI. Infatti, molti esperti si aspettavano che la società di intelligenza artificiale lanciasse la sua alternativa a Google: un motore di ricerca basato sull’AI. Questa notizia non è arrivata, ma il nuovo modello lanciato rappresenta in ogni caso un passo avanti interessante.
GPT-4o è più veloce dei modelli precedenti, con un ritmo di conversazione simile a quello umano. Sa infatti rispondere con un tempo di reazione minimo di 232 millisecondi, con una media di 320 millisecondi: tempi simili a quelli di una persona che risponde in una normale conversazione.
Inoltre, il nuovo modello AI può leggere e discutere immagini, in modo da poter utilizzare foto e disegni come input. Potete inoltre utilizzarlo per tradurre lingue e anche identificare emozioni dalle espressioni visive. Per quanto riguarda le prestazioni, come riporta HDBlog.it, GPT-4o eguaglia quelle di GPT-4 Turbo su testo in inglese e sul codice informatico. Ma offre al contempo un miglioramento significativo su testo in lingue diverse dall’inglese.
Un modello con memoria
GPT-4o ha anche una sorta di “memoria“, che gli consente di richiamare suggerimenti precedenti. Questa novità, unita ai tempi di reazione più rapidi, permette di avere una conversazione più realisticamente umana con il chatbot, che ricorda quello che avete chiesto e cosa ha risposto.
Durante la demo dal vivo, GPT-4o ha fornito suggerimenti utili su come risolvere un’equazione, analizzato codici informatici, tradotto tra italiano e inglese e interpretato le emozioni in un selfie.
Tuttavia, già la demo ha mostrato qualche errore di identificazione dei volti e altri problemi minori. E una demo solitamente non svela problemi tecnici e “allucinazioni”: per il momento abbiamo visto solo il meglio del nuovo modello. Serviranno test e prove per capire se, oltre a essere più rapido, sarà anche più consistente. OpenAI assicura che, durante la progettazione di GPT-4o, ha usato tecniche di integrazione come il filtraggio dei dati di addestramento e il perfezionamento del comportamento del modello. Ha inoltre condotto test esterni con esperti in vari settori per identificare potenziali rischi. Ma quando lo potremo usare tutti, potrebbero uscire problemi non previsti: come ogni tecnologia, va testata.
OpenAI punta a fare di GPT-4o la base della prossima generazione di assistenti digitali AI, in grado di interagire oltre la voce o il testo e di ricordare le richieste passate.
Le altre novità da OpenAI
Oltre a GPT-4o, OpenAI ha annunciato aggiornamenti all’interfaccia web di ChatGPT, un’app desktop per Mac e l’apertura del GPT Store a tutti gli utenti, consentendo loro di creare e condividere i propri chatbot personalizzati. Oltre ai modelli AI, sembra evidente che la compagnia stia investendo per incentivare l’utilizzo dei chatbot che li utilizzano. Anche se non ha lanciato un motore di ricerca basato sull’AI. Per ora.
- De Santo, Luigi (Autore)
Ultimo aggiornamento 2024-10-06 / Link di affiliazione / Immagini da Amazon Product Advertising API