fbpx
NewsTech

Intel Labs: il primo modello di AI generativa che crea immagini 3D da un testo

L'intelligenza artificiale di LDM3D potrebbe rivoluzionare diversi settori del mondo digitale, dal gaming al design.

Intel Labs presenta LDM3D, un nuovo modello di AI generativa in grado di creare contenuti visivi 3D realistici da un semplice testo. È il primo modello di diffusione capace di generare una mappatura di profondità e ha il potenziale per rivoluzionare la creazione di contenuti, il metaverso e le esperienze digitali.

Gli Intel Labs presentano Latent Diffusion Model for 3D

Il Latent Diffusion Model for 3D (LDM3D) è l’ultimo modello di AI generativa annunciato da Intel Labs in collaborazione con Blockade Labs. Si tratta di un nuovo modello di diffusione che utilizza l’intelligenza artificiale generativa per creare contenuti visivi 3D realistici. Inoltre, è il primo modello che sfrutta il processo di diffusione per creare immagini 3D a 360° attraverso una mappatura di profondità. Con queste premesse, LDM3D potrebbe rivoluzionare la creazione di molteplici contenuti, le applicazioni del metaverso e le esperienze digitali. Un’invenzione capace di trasformare diversi settori, dall’intrattenimento ai giochi, fino all’architettura e al design.

Utilizza ChatGPT con NordVPN – Fino a 60% di sconto per 2 anni di NordVPN

L’AI generativa mira ad aumentare e migliorare la creatività umana e a risparmiare tempo. Tuttavia, la maggior parte dei modelli di AI generativa oggi disponibili si limita a generare immagini 2D; solo pochissimi sono in grado di generare immagini 3D da istruzioni testuali. A differenza dei modelli esistenti di latent stable diffusion, LDM3D consente di generare un’immagine e una mappa di profondità da un dato messaggio di testo utilizzando quasi lo stesso numero di parametri. Fornisce una profondità relativa più accurata per ogni pixel rispetto ai metodi standard di post-elaborazione per la stima della profondità e consente agli sviluppatori di risparmiare molto tempo nella creazione delle scene.

Vasudev Lal, AI/ML research scientist, Intel Labs.

Le potenzialità di LDM3D nell’AI generativa

Intel si impegna a diffondere l’AI generativa per consentire un accesso sempre maggiore ai vantaggi di questa tecnologia attraverso un ecosistema aperto. Nonostante i notevoli progressi nel settore visti negli ultimi anni, gran parte degli attuali modelli di AI generativa avanzata si limita a generare immagini a due dimensioni. LDM3D si differenzia dai modelli di diffusione esistenti, che generano immagini RGB in 2D da prompt di testo, per la mappatura di profondità. Partendo da una singola indicazione testuale, infatti, riesce a creare immagini 3D, fornendo una profondità relativa più accurata per ogni pixel.

La ricerca di Intel Labs ha il potenziale per rivoluzionare il modo in cui interagiamo con i contenuti digitali, creando nuove possibilità prima inconcepibili. Gli utenti che approcciano a LDM3D possono trasformare la descrizione testuale di una spiaggia tropicale paradisiaca, di un universo fantascientifico o di qualsiasi panorama dettagliato a 360°. Questa capacità consente la creazione di contenuti visivi realistici ed immersivi, rivelandosi un’innovazione assoluta per i settori più svariati. Dall’intrattenimento al gaming, dall’interior design ai render architettonici, fino alle esperienze di realtà virtuale immersiva (VR).

Come funziona il nuovo modello di diffusione di Intel Labs

Per creare immagini 3D a 360°, LDM3D è stato istruito su un dataset che contiene 10.000 campioni del database LAION-400M. Quest’ultimo contiene oltre 400 milioni di immagini e didascalie accoppiate. Per la progettazione di LDM3D il team ha utilizzato il modello di stima a grande profondità Dense Prediction Transformer (DPT) di Intel Labs. Il modello DPT-large è in grado di fornire una profondità relativa estremamente accurata per ogni pixel all’interno di un’immagine.

L’addestramento del modello LDM3D avviene attraverso un supercomputer Intel AI alimentato da processori Intel Xeon e acceleratori AI Intel Habana Gaudi. L’immagine RGB generata e la mappa di profondità vengono combinate per creare contenuti visivi a 360°.

LDM3D: uno sguardo al futuro dell’AI

Il modello LDM3D apre la strada a ulteriori progressi nell’AI generativa multi-vista e nella visione artificiale. Nell’ottica di promuovere ed esplorare l’uso dell’intelligenza artificiale e costruire un ecosistema open source, Intel ha reso LDM3D accessibile tramite HuggingFace. In questo modo i ricercatori e gli sviluppatori nel campo dell’AI potranno contribuire migliorando questo sistema e adattarlo ad applicazioni personalizzate.

La ricerca di Intel Labs è stata presentata alla IEE/CVF Computer Vision and Pattern Recognition Conference (CVPR) dal 18 al 22 giugno.

Da non perdere questa settimana su Techprincess

🍎Nuovi iPad e accessori: cosa aspettarsi dall’evento Apple del 7 maggio
🍿Fallout: tutte le domande irrisolte alle quali la Stagione 2 dovrà rispondere
🛞Come scegliere gli pneumatici estivi per l’estate? I fattori da considerare
🤯Google licenzia 28 dipendenti per proteste contro il progetto Nimbus in Israele
✒️ La nostra imperdibile newsletter Caffellattech! Iscriviti qui 
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
💌 Risolviamo i tuoi problemi di cuore con B1NARY
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button