Stockage réduit, ray-tracing dopé, rendu neuronal… : voici 6 innovations bluffantes qui arrivent dans les jeux vidéo

Game Developers Conference 2025

 
La Game Developers Conference 2025 nous en a appris un peu plus sur l’évolution à venir des jeux vidéo sur PC et consoles. Et tout cela pourrait se déployer plus vite qu’on ne l’imagine…
GDC 2025 // Source : OtaXou

Imaginez un monde où les jeux vidéo sont plus beaux que jamais, tournent comme un rêve sur votre PC ou console, et occupent bien moins de place sur votre disque dur.

Ce n’est pas de la science-fiction : c’est ce que la Game Developers Conference 2025 à San Francisco nous a dévoilé, et ça pourrait débarquer chez vous plus vite que vous ne le pensez. Oubliez les derniers blockbusters comme Assassin’s Creed Shadows ou Monster Hunter Wilds – ces titres, aussi impressionnants soient-ils, sont déjà “d’hier” face aux innovations présentées par les cerveaux du développement.

Si l’on veut pouvoir observer avant tout le monde la direction dans laquelle le vent souffle dans le secteur du jeu vidéo, il ne faut pas observer les dernières sorties de jeux. Des titres comme Assassin’s Creed Shadows ou Monster Hunter Wilds sont en vérité en développement depuis quelques années au sein de leurs structures, et n’ont donc pas le temps d’intégrer les dernières technologies en date.

Pour aller plus loin
Votre PC est-il prêt pour Assassin’s Creed Shadows ? Voici les specs nécessaires

Non, il faut se tourner du côté des développeurs de jeu vidéo eux-mêmes. Et c’est pourquoi nous nous sommes dirigés vers la Game Developers Conference 2025 à San Francisco. Au programme ? De nombreux panels organisés par les créateurs eux-mêmes pour présenter leurs astuces de développement, leurs dernières trouvailles de game design ou de création, mais aussi… les toutes dernières technologies qui régiront demain le développement du jeu vidéo.

Voici une petite sélection des morceaux les plus marquants que nous avons vu sur ce salon, et qui ne tarderont pas à être intégré à des développements de jeux futurs.

Compression par intelligence artificielle

Vous en avez marre des jeux qui saturent votre carte graphique ou engloutissent 200 Go sur votre SSD ? L’intelligence artificielle arrive à la rescousse avec des technologies de compression révolutionnaires. Chez Nvidia, on a vu une texture de dinosaure en 3D passer de 832 Mo à… 32 Mo, sans sacrifier la qualité – un exploit qui rend les détails bluffants presque indiscernables de la version brute. Intel n’est pas en reste et teste ça sur des ultraportables du quotidien, pendant que Nvidia promet des jeux jusqu’à 4 fois moins lourds sur votre disque. Fini les téléchargements interminables : le futur, c’est léger, rapide, et magnifique.

Comment ça marche ? On vous explique.

À mesure que la définition des jeux augmente, la taille des textures augmente également, faisant que de nombreuses cartes de 8 Go ou moins se retrouvent à suffoquer par manque de place sur des expériences modernes.

La solution la plus simple pour ça est de compresser les textures. Mais les technologies de compression n’ont pas particulièrement évolué ces derniers temps. Du moins… jusqu’à ce que l’IA arrive. Nvidia en a fait grand cas lors de la présentation des RTX 50, mais nous avons pu voir à la GDC 2025 qu’Intel était également de la partie avec sa propre technologie de compression.

Le résultat est impressionnant. Pour un dinosaure modélisé en 3D utilisant une texture de 832 MiB, une méthode traditionnelle de compression comme le BC6 pouvait faire descendre ce poids à 160 MiB, soit 5,2 fois moins. Avec la compression par intelligence artificielle de NVIDIA, cette texture descend à 32 MiB, soit 26 fois moins lourd, avec un temps de rendu de seulement 0,16 milliseconde supplémentaire, soit totalement indolore.

Mais le plus impressionnant lors de cette démonstration n’était finalement pas tant l’existence de cette technologie que le simple fait qu’elle tournait sur un ultraportable Dell Lunar Lake tel que nous testons tous les jours. Et que la texture par rendu IA se distinguait à peine de celle native sans compression, contrairement au BC6 qui provoque bien plus d’artefacts.

Nvidia n’est bien sûr pas en reste sur la question, et a fait sa propre démonstration tout aussi impressionnante de sa « Neural Texture Compression ». Celle-ci permettrait de gagner jusqu’à 8 fois plus de place sur la VRAM lorsqu’utilisée directement en jeu comme le fait Intel.

Cependant, l’équipe verte indique aussi que sa technologie pourrait être utilisée beaucoup plus rapidement pour compresser sur le disque les textures, et ainsi gagner en espace de stockage. Fini les jeux qui pèse 150/200 Go bientôt ? La promesse d’une taille jusqu’à 4 fois plus petite est ici faite, et l’on espère voir cette technologie être adoptée rapidement.

Neural Radiance Caching ou le ray-tracing surboosté

Si l’on veut réaliser un jeu vidéo qui tient à avoir un rendu toujours plus photoréaliste en 2025, il faut nécessairement passer par le ray-tracing. La technologie toujours plus flatteuse pour l’œil est le défi de puissance brute des dernières technologies de cartes graphiques depuis maintenant 4 générations, avec l’équipe Nvidia en tête qui s’enorgueillit toujours plus de son avance sur la question, bien qu’AMD et Intel ne déméritent pas.

Problème ? Le ray-tracing est extrêmement coûteux en termes de performance. Cela est principalement dû à la nécessité de tracer des rayons sur une scène qui imitent ceux du soleil, et viennent donc indiquer au moteur les propriétés de chaque objet présent : leur réflexion, leur ombre, leur luminosité… L’affichage est toujours plus naturel, et les développeurs n’ont plus grâce à celle-ci besoin de sortir des centaines d’heures de travail pour créer un niveau, mais voilà : un rayon qui rebondit à l’infini en temps réel, c’est autant de difficulté à tenir un rendu en temps réel.

Pour pallier ça, le Neural Radiance Caching est né. Et AMD a lui aussi fait sa petite démonstration au sein de la GDC, avec le même principe fondamental déjà vu il y a quelques mois chez Nvidia : une fois un ou deux rebonds de rayon exécutés par la carte graphique, l’intelligence artificielle prend la place du rendu traditionnel pour déterminer la suite et permettre un rendu en ray-tracing à moindre coût.

Moindre à quel point ? On peut ici se tourner vers NVIDIA, qui présentait également sur le salon Half-Life 2 en version RTX Remix (gratuit sur Steam), son logiciel de modding enfin disponible officiellement pour tous.

Activer en temps réel le Neural Radiance Cache lui permettait non seulement d’avoir un rendu toujours plus précis des ombres et lumières d’une scène, mais également de gagner 10 ips de moyenne. Sur un titre comme celui-ci, qui vaut autant comme expérience de jeu que comme vitrine technologie en faveur du ray-tracing poussé à fond, c’est un bond gigantesque qui permettra au path tracing de devenir toujours plus viable sur les années à venir.

Neural Materials ou un niveau de détails jamais vu

Si Intel avait sa propre réponse face à la compression IA des textures, et qu’AMD était aussi aux fourneaux sur le Neural Radiance Caching appliqué au ray-tracing, Nvidia a conservé un avantage face à ses concurrents dans le cadre des technologies IA : les Neural Materials. Il est en effet le seul à avoir développé cette technologie actuellement sur le marché.

Car oui, on peut tout à fait compresser les textures d’un jeu vidéo… mais pourquoi pas les magnifier ? Les sublimer ? Les faire aller encore plus loin ? Dans le cadre de matériaux complexes, qui ont des propriétés physiques changeantes ou extrêmement détaillées comme la porcelaine ou la soie, le jeu vidéo a tendance à simplifier ou « figer » leur rendu pour qu’il soit possible d’exécuter le code en temps réel. Le jeu vidéo est après tout un média interactif.

Mais voilà : ces matériaux complexes existent, notamment pour les VFX de cinéma. Avec Neural Materials, Nvidia veut les mettre à l’œuvre dans le jeu vidéo en utilisant l’IA pour simplifier leur code et le rendre exécutable en temps réel. En somme : les textures récupèrent leurs plus grandes complexités et leurs propriétés physiques subtiles, permettant aux jeux vidéo d’atteindre des niveaux de photoréalisme proche du cinéma.

Neural Rendering, ou rendu avec IA

Vous n’êtes sûrement pas passé à côté : toutes les technologies présentées jusque là font appel à de l’intelligence artificielle appliquée au sein-même des moteurs de jeu. Quelques mois après la présentation des RTX 50 de NVIDIA, qui mise presque intégralement sur cette particularité, comment se fait-il que l’on retrouve ses concurrents prêts avec leurs propres technologies ?

Pour aller plus loin
Neural Shading : une petite révolution du rendu en jeu arrive avec Nvidia et Microsoft

La réponse est simple : les Cooperative Vectors, ou tout simplement l’inclusion du rendu neuronal au sein de DirectX. Pour l’expliquer succinctement, cela veut dire que l’IA appliquée aux moteurs de jeu peut désormais être adoptée massivement par les développeurs pour leurs versions PC, puisque la compatibilité se reposera sur le bon vieux DirectX connu et utilisé de tous. Notez que Vulkan, un équivalent open source, est également compatible.

Mais pourquoi l’IA ? La technologie est vue comme une réponse aux limites physiques et financières rencontrées par les créateurs de carte graphique. En créant de multiples petits modèles d’IA dédiés à une seule tâche, les développeurs peuvent désormais également se reposer sur les cœurs dédiés à ces calculs spécifiques pour réaliser des tâches sans avoir à dépenser le budget de calcul brut des cartes graphiques. De quoi continuer d’optimiser les performances sans ralentir la course à la beauté visuelle.

Pourquoi des petits modèles ? Pour éviter les hallucinations. Le machine learning sous-entend naturellement l’approximation, et plus un modèle est entraîné pour une tâche très spécifique, moins il aura de chance de sortir du cadre qui lui est imposé. Dans le jeu vidéo où le rendu doit être le même de machine en machine, c’est la clé de l’utilisation de l’IA intégré aux moteurs eux-mêmes.

Mais ce qu’il faut bien comprendre en priorité est que toutes ces technologies ne sont que les prémisses d’une nouvelle vague. L’IA a un double avantage : permettre de régler des problèmes sans en connaître la solution, mais aussi faire plus pour le même budget de consommation en watts. Si les technologies type DLSS 4, FSR 4 ou XeSS 2 basées sur l’IA arrivent après le rendu, cette nouvelle version de DirectX permet d’intégrer les calculs au sein du rendu lui-même et débloque donc des capacités qu’il ne tient qu’aux développeurs d’imaginer.

L’IA appliquée au gameplay

L’IA générative n’est d’ailleurs pas en reste à la GDC 2025, même si la grogne des créateurs se fait toujours plus présente. Le développeur David « Rez » Graham y a d’ailleurs animé un panel sur « le coût humain de l’intelligence artificielle », pour rappeler l’importance de l’analyse de trois piliers fondamentaux : la source des données, le but du modèle créé, et les intentions derrière leur créateur.

Car oui, l’IA navigue toujours dans une zone de gris où la technologie elle-même est capable d’énormément de choses positives, mais ses usages les plus médiatisés sont tristement souvent basés sur le vol massif des données des artistes. À juste titre, David « Rez » Graham a profité de la GDC 2025 pour rappeler cette triste réalité tout en rappelant l’importance de mêler les créatifs à la création des modèles, pour que les outils finaux soient bien ceux qui les aideraient à créer plus efficacement plutôt qu’ils ne chercheraient à les remplacer.

Il faut dire qu’appliquée au gameplay, l’intelligence artificielle peut faire mouche. Nvidia présentait à nouveau InZoi, le concurrent coréen des Sims dont l’intégration de Nvidia Ace permet d’offrir à ses personnages de véritables inspirations. Il s’agit-là d’un ajout intéressant dans un simulateur de vie, où la rigidité des modèles traditionnels peut parfois nuire à l’immersion et aux histoires que l’on s’y raconte naturellement.

Mais l’exemple le plus marquant de cette « bonne » utilisation de l’intelligence artificielle était peut-être finalement le jeu vidéo Suck-Up! Ce titre sur navigateur vous permet d’incarner un vampire capable de toutes sortes de déguisement, et qui a pour but ultime d’être invité à rentrer dans les maisons de ses cibles pour s’en repaître. Ici, le développeur a entraîné sa propre intelligence artificielle, ses rares hallucinations sont vues comme charmantes en contexte, et l’IA fait partie intégrante du game design. Gageons que d’autres usages créatifs de cette nouvelle technologie naîtront au fur et à mesure de son adoption.

GPU Work Graphs, ou la libération des cartes graphiques

Au-delà de l’intelligence artificielle appliquée aux jeux vidéo, il y a également un problème fondamental du jeu vidéo sur PC : le processeur. Ou plus précisément, le fait que le processeur ralentit aujourd’hui les opérations de nos cartes graphiques. Ce n’est un secret pour personne : les GPU sont plus puissants qu’on ne l’imagine, mais puisque le CPU dicte une grande partie de ses calculs, il est régulièrement stoppé dans son élan. Car oui : le processeur est le grand manitou d’un ordinateur qui donne ses tâches à tout le monde.

Alors comment régler ce problème ? AMD travaille à cette solution depuis quelques temps maintenant avec les GPU Work Graphs, qui à la GDC 2025 ont montré leur plus grande évolution. Il s’agit ici d’une nouvelle manière d’organiser et de définir les tâches d’une carte graphique en lui conférant une très grande indépendance.

Les tâches voulues sont ainsi organisées en différents nœuds, qui peuvent être réalisés en parallèle, peuvent boucler sur eux-mêmes, et peuvent suivre leur cours sans avoir à passer par la validation du processeur. La synchronisation et le flow des données se fait toujours plus naturellement, en prime d’une meilleure allocation de la mémoire. Les technologies dites de « mesh shaders » intégrées notamment à Nanite sur Unreal Engine 5 ont été d’une grande aide en ce sens, et les Work Graphs sont une réponse toujours plus généralisée face à la même question.

Sur la GDC 2025, de nouveaux exemples d’application des Work Graphs ont été mis en avant, notamment sur l’allocation dynamique de la VRAM ou encore la génération procédurale accélérée par cette nouvelle technique. Au bout, les Work Graphs permettront de faire chanter les cartes graphiques comme jamais et optimiser toujours plus les performances. Les Work Graphs sont d’ores et déjà intégrés à DirectX, et sont accessibles sur Vulkan en test limité. AMD faisait ici appel aux développeurs pour qu’ils puissent définir les usages dont ils ont besoin, de manière à ce que l’équipe rouge optimise toujours plus le procédé.


Envie de retrouver les meilleurs articles de Frandroid sur Google News ? Vous pouvez suivre Frandroid sur Google News en un clic.

Les derniers articles