Site icon Techprincess

Con Ego4D l’intelligenza artificiale di Facebook saprà vedere, ascoltare e ricordare

Con Ego4D l’intelligenza artificiale di Facebook saprà vedere, ascoltare e ricordare thumbnail

Facebook Ego4D

Facebook ha annunciato Ego4D, un progetto di machine learning a lungo termine che consentirà all’intelligenza artificiale di captare l’ambiente circostante partendo da una prospettiva quasi umana. O meglio egocentrica, come traspare dallo stesso nome ufficiale del progetto.

L’intelligenza artificiale del futuro, insomma, vedrà il mondo dalla prospettiva umana, imparando dalla nostra interazione con gli ambienti in cui viviamo e operiamo.

Si tratterebbe di una rivoluzione copernicana. Perché finora la maggior parte dei software che permettono alle macchine di esplorare l’ambiente circostante (ossia la visione artificiale, un modello di mondo reale creato partendo da immagini bidimensionali) traggono informazioni da immagini e video ripresi da una prospettiva in terza persona.

Vediamo in cosa il progetto di Facebook, Ego4D, differirà da questa prospettiva.

Facebook e il progetto Ego4D

L’annuncio di Facebook è di giovedì 14 ottobre: Ego 4D è il progetto di un nuovo modo di intendere l’intelligenza artificiale.

L’ambizione è quella di addestrare gli assistenti e i robot del futuro con una grande serie di dati, ma stavolta adottando la percezione egocentrica.

Come è possibile, in concreto, questa operazione?

Per il progetto Ego4D, Facebook ha raccolto più di 2.200 ore di filmati in prima persona, proprio per istruire l’intelligenza artificiale di prossima generazione.

I video includono, ad esempio, filmati che provengono da occhiali intelligenti, come i Ray-Ban Stories messi in commercio lo scorso settembre proprio da Facebook, o dai visori di realtà virtuale (e anche qui l’azienda di Zuckerberg, proprietaria di Oculus dal 2014, gioca in casa).

Il futuro prossimo: smartglass come smartphone

L’idea del progetto Ego4D nasce dalla convinzione di Facebook che nel futuro prossimo gli smartglass, e tutti i dispositivi per la realtà aumentata e virtuale, saranno diffusi esattamente come oggi lo sono gli smartphone.

L’azienda punta quindi a creare un software di intelligenza artificiale che sappia monitorare il contesto circostante come fanno gli umani.

Un post pubblicato sul blog della società di Menlo Park il giorno stesso dell’annuncio del progetto, giovedì 14 ottobre, chiarisce alcuni dettagli.

Nel post si legge che “l’intelligenza artificiale di nuova generazione dovrà imparare dai video che mostrano il mondo dal punto di vista degli utenti, dal centro esatto dell’azione”. Ma soprattutto vengono lanciate cinque “sfide di riferimento” per il futuro degli assistenti AI. Scopriamole.

Le cinque sfide di Facebook per il futuro dell’AI

La nuova intelligenza artificiale basata sulla percezione egocentrica dovrà riuscire a rispondere alla domande in cinque suggestivi ambiti. Ecco quali:

Il team

Per il progetto Ego4D Facebook ha costituito un consorzio di 13 Università (tra cui quella di Catania) e laboratori in nove Paesi. Le oltre 2.200 ore di video in prima persona hanno coinvolto più di 700 partecipanti.

I dati sono poi stati integrati con ulteriori 400 ore di video in prima persona registrate da Facebook Reality Labs Research, grazie a volontari in azione in ambienti di scena che simulavano la vita reale.

Il set di dati disponibile è venti volte maggiore di qualsiasi altro per ore di filmati.

Offerta
Meta Quest 2 - Visore VR All-In-One - 128 Gb
  • Vivi un'esperienza senza interruzioni, anche nel mezzo di azioni ad alta velocità, con il processore ultrarapido e il...
  • Vivi un'immersione totale con l'audio posizionale 3D, l'hand tracking e il feedback tattile che, insieme, rendono sempre...
  • Esplora un universo in espansione con oltre 250 titoli tra giochi, fitness, attività social/multiplayer e...

Via libera ai ricercatori

Facebook ha dichiarato che il set di dati Ego4D sarà disponibile per i ricercatori a partire da novembre. Kristen Grauman, ricercatrice capo di Facebook, ha detto: “Questa versione iniziale del progetto contiene una serie di dati da elaborare. Catalizzeremo i nostri progressi nella comunità accademica e ciò consentirà ad altri ricercatori di superare insieme a noi nuove sfide”.

Grauman ha poi spiegato la futura utilità del progetto. “Questo set di dati consentirà ai programmatori dei sistemi di intelligenza artificiale di sviluppare aiutanti digitali che siano davvero consapevoli di cosa sta succedendo intorno a loro e di e di cosa devono fare. L’obiettivo è rendere l’apprendimento autonomo in modo che ogni aiutante impari dai suoi dintorni grazie ai dati su cui è stato addestrato”.

Una carta dei diritti per l’AI

Intanto, i consiglieri scientifici della Casa Bianca hanno chiesto che sia redatta una carta dei diritti per l’intelligenza artificiale, in modo che i set di dati raccolti non siano discriminatori e non contribuiscano ad aumentare le diseguaglianze sociali.

Exit mobile version