Intel Labs presenta LDM3D, un nuovo modello di AI generativa in grado di creare contenuti visivi 3D realistici da un semplice testo. È il primo modello di diffusione capace di generare una mappatura di profondità e ha il potenziale per rivoluzionare la creazione di contenuti, il metaverso e le esperienze digitali.
Gli Intel Labs presentano Latent Diffusion Model for 3D
Il Latent Diffusion Model for 3D (LDM3D) è l’ultimo modello di AI generativa annunciato da Intel Labs in collaborazione con Blockade Labs. Si tratta di un nuovo modello di diffusione che utilizza l’intelligenza artificiale generativa per creare contenuti visivi 3D realistici. Inoltre, è il primo modello che sfrutta il processo di diffusione per creare immagini 3D a 360° attraverso una mappatura di profondità. Con queste premesse, LDM3D potrebbe rivoluzionare la creazione di molteplici contenuti, le applicazioni del metaverso e le esperienze digitali. Un’invenzione capace di trasformare diversi settori, dall’intrattenimento ai giochi, fino all’architettura e al design.
Utilizza ChatGPT con NordVPN – Fino a 60% di sconto per 2 anni di NordVPN
L’AI generativa mira ad aumentare e migliorare la creatività umana e a risparmiare tempo. Tuttavia, la maggior parte dei modelli di AI generativa oggi disponibili si limita a generare immagini 2D; solo pochissimi sono in grado di generare immagini 3D da istruzioni testuali. A differenza dei modelli esistenti di latent stable diffusion, LDM3D consente di generare un’immagine e una mappa di profondità da un dato messaggio di testo utilizzando quasi lo stesso numero di parametri. Fornisce una profondità relativa più accurata per ogni pixel rispetto ai metodi standard di post-elaborazione per la stima della profondità e consente agli sviluppatori di risparmiare molto tempo nella creazione delle scene.
Vasudev Lal, AI/ML research scientist, Intel Labs.
Le potenzialità di LDM3D nell’AI generativa
Intel si impegna a diffondere l’AI generativa per consentire un accesso sempre maggiore ai vantaggi di questa tecnologia attraverso un ecosistema aperto. Nonostante i notevoli progressi nel settore visti negli ultimi anni, gran parte degli attuali modelli di AI generativa avanzata si limita a generare immagini a due dimensioni. LDM3D si differenzia dai modelli di diffusione esistenti, che generano immagini RGB in 2D da prompt di testo, per la mappatura di profondità. Partendo da una singola indicazione testuale, infatti, riesce a creare immagini 3D, fornendo una profondità relativa più accurata per ogni pixel.
La ricerca di Intel Labs ha il potenziale per rivoluzionare il modo in cui interagiamo con i contenuti digitali, creando nuove possibilità prima inconcepibili. Gli utenti che approcciano a LDM3D possono trasformare la descrizione testuale di una spiaggia tropicale paradisiaca, di un universo fantascientifico o di qualsiasi panorama dettagliato a 360°. Questa capacità consente la creazione di contenuti visivi realistici ed immersivi, rivelandosi un’innovazione assoluta per i settori più svariati. Dall’intrattenimento al gaming, dall’interior design ai render architettonici, fino alle esperienze di realtà virtuale immersiva (VR).
Come funziona il nuovo modello di diffusione di Intel Labs
Per creare immagini 3D a 360°, LDM3D è stato istruito su un dataset che contiene 10.000 campioni del database LAION-400M. Quest’ultimo contiene oltre 400 milioni di immagini e didascalie accoppiate. Per la progettazione di LDM3D il team ha utilizzato il modello di stima a grande profondità Dense Prediction Transformer (DPT) di Intel Labs. Il modello DPT-large è in grado di fornire una profondità relativa estremamente accurata per ogni pixel all’interno di un’immagine.
L’addestramento del modello LDM3D avviene attraverso un supercomputer Intel AI alimentato da processori Intel Xeon e acceleratori AI Intel Habana Gaudi. L’immagine RGB generata e la mappa di profondità vengono combinate per creare contenuti visivi a 360°.
LDM3D: uno sguardo al futuro dell’AI
Il modello LDM3D apre la strada a ulteriori progressi nell’AI generativa multi-vista e nella visione artificiale. Nell’ottica di promuovere ed esplorare l’uso dell’intelligenza artificiale e costruire un ecosistema open source, Intel ha reso LDM3D accessibile tramite HuggingFace. In questo modo i ricercatori e gli sviluppatori nel campo dell’AI potranno contribuire migliorando questo sistema e adattarlo ad applicazioni personalizzate.
La ricerca di Intel Labs è stata presentata alla IEE/CVF Computer Vision and Pattern Recognition Conference (CVPR) dal 18 al 22 giugno.
- Core da 2100 MHz, 32 core Xe | 512 motori XMX
- Microarchitettura Xe HPG. 16 GB di VRAM GDDR6.
- 17,5 Gb/s Velocità di memoria. Interfaccia di memoria a 256 bit.
Ultimo aggiornamento 2024-10-06 / Link di affiliazione / Immagini da Amazon Product Advertising API
Rimani aggiornato seguendoci su Google News!
Da non perdere questa settimana su Techprincess
🎮 Che impatto avranno le elezioni americane sui videogiochi?
🚘 I gadget più strani delle case automobilistiche
🇨🇳 Un gruppo di ricercatori cinesi ha sviluppato un modello di IA per uso militare basato su Llama di Meta
🔍 ChatGPT si aggiorna e ora naviga sul web
Ma lo sai che abbiamo un sacco di newsletter?
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!