fbpx
NewsTech

Un nuovo robot del MIT è in grado di identificare oggetti alla vista e al tatto

Un nuovo robot sviluppato dal Computer Science and Artificial Intelligence Laboratory (CSAIL) del MIT sta tentando di riconoscere gli oggetti tramite stimoli visivi e tattili.

Per gli umani è facile prevedere come verrà percepito un oggetto anche solo guardandolo o raccontare come appare un oggetto solo toccandolo, ma questa può essere invece una grande sfida per le macchine. Ora, un nuovo robot sviluppato dal Computer Science and Artificial Intelligence Laboratory (CSAIL) del MIT sta tentando di fare proprio questo.

Il progetto

Il team ha preso un braccio robot KUKA e ha aggiunto un sensore tattile chiamato GelSight, creato dal gruppo di Ted Adelson al CSAIL. Le informazioni raccolte da GelSight sono state quindi inviate a un’IA in modo da poter apprendere la relazione tra informazioni visive e tattili.

Per insegnare all’IA come identificare gli oggetti tramite il tocco, il team ha registrato 12.000 video di 200 oggetti come tessuti, strumenti e oggetti domestici. I video sono stati suddivisi in immagini fisse e l’intelligenza artificiale ha utilizzato questo set di dati per connettere dati tattili e visivi.

Guardando la scena, il nostro modello può immaginare la sensazione di toccare una superficie piatta o un bordo tagliente“, dice Yunzhu Li, studente del dottorato CSAIL e autore principale di un nuovo articolo sul sistema. “Passando ciecamente in giro, il nostro modello può predire l’interazione con l’ambiente puramente da sensazioni tattili. Portare insieme questi due sensi potrebbe potenziare il robot e ridurre i dati di cui potremmo aver bisogno per compiti che implicano la manipolazione e la presa di oggetti“.

Il robot

Per ora, il robot può solo identificare oggetti in un ambiente controllato. Il passo successivo è quello di creare un set di dati più ampio in modo che il robot possa lavorare in più postazioni diverse.

“Metodi come questo hanno il potenziale per essere molto utili per la robotica, dove è necessario rispondere a domande come ‘questo oggetto è duro o morbido?’, O ‘se sollevo questa tazza per la sua impugnatura, quanto sarà buona la mia presa?‘”, afferma Andrew Owens, ricercatore post-dottorato presso l’Università della California a Berkeley. “Questo è un problema molto impegnativo, dal momento che i segnali sono molto diversi e questo modello ha dimostrato grandi capacità.”

[amazon_link asins=’B06XW8Z93P,B079QM5GL9,B01IEEVDOK’ template=’ProductCarousel’ store=’gamspri02-21′ marketplace=’IT’ link_id=’4aa68735-293f-438f-ad5a-49b1dd7c7b6a’]

Da non perdere questa settimana su Techprincess

 

🎮 Che impatto avranno le elezioni americane sui videogiochi?
🚘 I gadget più strani delle case automobilistiche
🇨🇳 Un gruppo di ricercatori cinesi ha sviluppato un modello di IA per uso militare basato su Llama di Meta

🔍 ChatGPT si aggiorna e ora naviga sul web
Ma lo sai che abbiamo un sacco di newsletter?
 
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
 
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
 
💸E trovi un po' di offerte interessanti su Telegram!

Via
Engadget

Autore

  • Roberta Catania

    Da sempre grande lettrice di libri e fumetti, amante della tecnologia, del cinema e delle serie TV. Nella vita di tutti i giorni mi divido tra il Diritto, la Psicologia e la Criminologia. Personaggio preferito: Barbara Gordon - Citazione preferita "I promise loyalty. I promise secrecy and I promise courage" - Oracle

    Visualizza tutti gli articoli

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button