Ancora una volta, l’intelligenza artificiale sviluppata da Nvidia sta mettendo in mostra le sue incredibili abilità. Grazie al GAN (Generative Adversarial Network) che è in grado di rivedere centinaia di migliaia di immagini, e all’ADA (Adaptive Discriminator Augmentation) che permette di trasformare le immagini in modo adattivo e selettivo per loro, l’AI può letteralmente trasformare il reale in…digitale!
Da una foto ad un modello 3D
Nvidia Research ha sviluppato un nuovo motore di deep learning che renderà possibile la creazione di modelli 3D di oggetti da semplici immagini 2D. Tutto questo passa attraverso una nuova applicazione chiamata GANVerse3D sviluppata dall’Nvidia AI Research Lab di Toronto.
Alimentata da migliaia di immagini inserite nel programma, GANVerse3D sarà in grado di “gonfiare l’immagine” per portarla in vita in 3D e persino animarla su un computer in un ambiente virtuale. L’azienda spera di sedurre architetti, creatori di videogiochi, designer o persino storyboarder di film, uno strumento facile da usare, “Anche per coloro che non hanno mai modellato in 3D”, per aggiungere elementi a un rendering, un modello, uno schizzo…”
Per dimostrare la potenza del suo motore grafico, Nvidia ha modellato KITT, la famosa auto della serie K2000. Da una semplice foto, l’auto nera con la striscia LED rossa si è trovata virtualizzata su un computer 3D, in una scena virtuale, con le luci accese o lampeggianti ed effetti di luce sulla carrozzeria.
Una tecnologia in sviluppo
Per raggiungere questo obiettivo, è stato necessario alimentare GANVerse3D con più di 55.000 immagini di veicoli di ogni tipo, “immagini reali”, insiste Juan Gao, ricercatore e autore del progetto. Le foto scattate da diverse angolazioni sono state così integrate, poi sintetizzate utilizzando il GAN di Nvidia. E il processo è iniziato per creare la mesh delle foto 2D e fornire un rendering 3D.
Da un punto di vista pratico, basta inserire una singola foto di un modello affinché il software possa svolgere il suo lavoro e ottenere rapidamente un rendering.
Al momento però il software funziona perfettamente con veicoli, cavalli, edifici, oggetti geometrici fissi e persino volti umani. Per tutto il resto, NVIDIA spiega che non ha elementi sufficienti in termini di movimenti possibili per poter ottenere un risultato soddisfacente. Ma è solo questione di tempo.