Une fois encore, l’intelligence artificielle développée par Nvidia étale ses prouesses technologiques. Formée grâce au GAN (Generative Adversarial Network) qui l’entraîne à coup de passage en revue de centaines de milliers d’images, et à l’ADA (Adaptative Discriminator Augmentation) qui permet de transformer les images de manière adaptative et sélective pour les peaufiner, l’IA peut ainsi compenser l’absence d’une bibliothèque suffisamment importante pour s’enrichir d’informations qu’il faut ensuite mouliner.
Et la dernière exploitation des possibilités de cette IA est assez impressionnante.
Gonfler la photo pour en faire un modèle 3D
Nvidia Research a mis au point un nouveau moteur de deep learning qui va permettre de créer des modélisations 3D d’objets à partir de simples images en 2D. Tout cela passe par une nouvelle application baptisée GANVerse3D et élaborée par le Nvidia AI Research Lab de Toronto.
Alimentée par des milliers d’images ingurgitées au préalable, GANVerse3D va pouvoir « gonfler l’image » pour lui donner vie en 3D et même l’animer sur un ordinateur dans un environnement virtuel.
Nvidia espère séduire les architectes, créateurs de jeu vidéo, concepteurs, ou encore les storyboarders de cinéma, en proposant un outil facile d’usage, « même pour ceux qui n’ont jamais modélisé en 3D », pour ajouter des éléments à un rendu, une maquette, une ébauche…
Pour prouver la force de son moteur, Nvidia a modélisé KITT, la célèbre voiture de la série K2000. À partir d’une simple photo, la voiture noire au bandeau LED rouge s’est retrouvée virtualisée sur un ordinateur en 3D, roulant dans une scène virtuelle, avec les feux allumés ou clignotants et des effets de lumière sur la carrosserie.
Le kit Nvidia Omniverse et les outils Nvidia PhysX ont ensuite prédit une texture avec des matériaux de haute qualité qui pourraient être ceux de KITT pour lui donner un peu plus de réalisme. GANVerse3D se présente ainsi comme une extension d’Omniverse « pour aider les artistes à créer des mondes virtuels plus riches pour développer des jeux, faire de la planification urbaine ou concevoir de nouveaux modèles d’apprentissage », ajoute Jean-François Lafleche, spécialiste du deep learning chez Nvidia.
La firme américaine a ensuite montré combien il était aisé de changer la couleur, la texture et n’importe quel élément du véhicule tout en le faisant évoluer dans son décor.
Faisable avec des objets ou des chevaux, pas encore des personnes
Pour parvenir à cela, il a fallu nourrir GANVerse3D de plus de 55 000 images de véhicules en tous genres, des « images réelles », insiste Juan Gao, chercheur et auteur du projet. Des photos prises avec des angles différents ont ainsi été intégrées, puis synthétisées grâce à la technologie GAN de Nvidia. Et le processus s’est mis en marche pour mailler les photos 2D et donner un rendu 3D. Il suffit ensuite d’injecter une seule photo d’un modèle pour que le logiciel fasse son travail et obtenir un rendu rapidement.
Épaulés par un moteur de rendu neuronal 3D, des développeurs peuvent ensuite contrôler la personnalisation de l’objet, changer l’arrière-plan. Exécuté avec un GPU Nvidia RTX et la plateforme Nvidia Omiverse, récemment annoncée et conçue pour les entreprises qui veulent collaborer en temps réel en 3D, GANVerse3D sera en mesure de recréer le modèle 3D en moins d’une seconde. Le rendu n’est pas aussi précis et peaufiné que l’original, mais le but n’est pas là. Il s’agit d’obtenir un résultat rapidement, à moindres frais, et facile d’utilisation.
La force des chercheurs de Nvidia est d’avoir réussi à améliorer leur modèle GAN, alimenté par des milliers de photos, pour que son IA puisse générer des données afin de créer un objet en 3D à partir d’une simple photo 2D. Pour accélérer le processus et générer rapidement les données, la technologie choisit de proposer un rendu avec une perspective du véhicule à une certaine hauteur et à une distance de caméra définie.
Pour le moment, GANVerse3D fonctionne parfaitement avec des véhicules, des chevaux, des bâtiments, des objets géométriques fixes et même des visages humains. Pour le corps entier, Nvidia explique ne pas avoir assez d’éléments au niveau des mouvements possibles pour pouvoir obtenir un résultat satisfaisant. Mais ce n’est qu’une question de temps.
Retrouvez un résumé du meilleur de l’actu tech tous les matins sur WhatsApp, c’est notre nouveau canal de discussion Frandroid que vous pouvez rejoindre dès maintenant !
TSMC est vraiment bloqué aussi ...
[…] Comment Nvidia transforme une simple image en rendu 3D animé grâce à l’IA Frandroid Lire plus […]
Pour un rendu grâce à plusieurs milliers de photos c'est plutôt pas mal.
Punaise tu es resté dans une grotte où quoi... Il y a une pénurie dans leo de la tech....
Impressionant ! Le futur pour la création de contenu 3D en masse ? Le cinéma ?
C'est quand même bien dégueulasse.
Tout le secteur de la tech est touché par cette pénurie.
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix