fbpx
NewsTech

Un nuovo robot del MIT è in grado di identificare oggetti alla vista e al tatto

Un nuovo robot sviluppato dal Computer Science and Artificial Intelligence Laboratory (CSAIL) del MIT sta tentando di riconoscere gli oggetti tramite stimoli visivi e tattili.

Per gli umani è facile prevedere come verrà percepito un oggetto anche solo guardandolo o raccontare come appare un oggetto solo toccandolo, ma questa può essere invece una grande sfida per le macchine. Ora, un nuovo robot sviluppato dal Computer Science and Artificial Intelligence Laboratory (CSAIL) del MIT sta tentando di fare proprio questo.

Il progetto

Il team ha preso un braccio robot KUKA e ha aggiunto un sensore tattile chiamato GelSight, creato dal gruppo di Ted Adelson al CSAIL. Le informazioni raccolte da GelSight sono state quindi inviate a un’IA in modo da poter apprendere la relazione tra informazioni visive e tattili.

Per insegnare all’IA come identificare gli oggetti tramite il tocco, il team ha registrato 12.000 video di 200 oggetti come tessuti, strumenti e oggetti domestici. I video sono stati suddivisi in immagini fisse e l’intelligenza artificiale ha utilizzato questo set di dati per connettere dati tattili e visivi.

Guardando la scena, il nostro modello può immaginare la sensazione di toccare una superficie piatta o un bordo ROBOTtagliente“, dice Yunzhu Li, studente del dottorato CSAIL e autore principale di un nuovo articolo sul sistema. “Passando ciecamente in giro, il nostro modello può predire l’interazione con l’ambiente puramente da sensazioni tattili. Portare insieme questi due sensi potrebbe potenziare il robot e ridurre i dati di cui potremmo aver bisogno per compiti che implicano la manipolazione e la presa di oggetti“.

Il robot

Per ora, il robot può solo identificare oggetti in un ambiente controllato. Il passo successivo è quello di creare un set di dati più ampio in modo che il robot possa lavorare in più postazioni diverse.

“Metodi come questo hanno il potenziale per essere molto utili per la robotica, dove è necessario rispondere a domande come ‘questo oggetto è duro o morbido?’, O ‘se sollevo questa tazza per la sua impugnatura, quanto sarà buona la mia presa?‘”, afferma Andrew Owens, ricercatore post-dottorato presso l’Università della California a Berkeley. “Questo è un problema molto impegnativo, dal momento che i segnali sono molto diversi e questo modello ha dimostrato grandi capacità.”

Via
Engadget
Tags

Roberta Catania

Da sempre grande lettrice di libri e fumetti, amante della tecnologia, del cinema e delle serie TV. Nella vita di tutti i giorni mi divido tra il Diritto, la Psicologia e la Criminologia.Personaggio preferito: Barbara Gordon - Citazione preferita "I promise loyalty. I promise secrecy and I promise courage" - Oracle
Next Article
Close

Adblock Rilevato

Considera di supportarci disabilitando il tuo adblocker