ExtraSS : Intel mise sur l’extrapolation pour améliorer les performances graphiques

Écrit par Guillaume
Publié le : {{ dayjs(1703869238*1000).local().format("L").toString()}}
Suivez-nous

Intel cherche à emprunter une voie différente de celle d’AMD/NVIDIA pour booster les performances de nos cartes graphiques.

Génération après génération, les processeurs graphiques voient leur puissance de calcul augmenter dans des proportions assez formidables. Pour autant, ces montées en puissance restent insuffisantes alors que les techniques de rendu graphique adoptent des innovations toujours plus lourdes. Ainsi, le ray tracing a connu un large succès auprès des développeurs pour la qualité et la précision du rendu qu’il autorise. En contrepartie, il met à genou même la plus puissante des GeForce RTX 4090. NVIDIA a donc imaginé de nouvelles techniques pour moins solliciter les GPU. C’est DLSS, sa technique dite de super-échantillonnage laquelle a été renforcée pour que l’intelligence artificielle soit davantage mise à contribution. Ainsi, au lieu de seulement « agrandir » une image calculée par le GPU, la technique dite de frame generation demande carrément à L’IA de créer entièrement l’image. Bien sûr, pour que le résultat soit un minimum cohérent, l’IA s’appuie sur tout un tas d’informations, à commencer par l’image précédente et l’image suivante, toutes deux ayant été calculées par le GPU.

Quand Intel compare les différentes techniques de rendu © Intel

Ce procédé fait véritablement des merveilles et les performances graphiques peuvent être doublées ou même triplées ce qui n’a pas manqué de faire réagir le concurrent AMD qui a débarqué quelques mois plus tard avec une technologie assez similaire. Problème, dans un cas comme dans l’autre, on se retrouve avec une latence sensiblement augmentée : pour des jeux « calmes », cela ne pose guère de problème,  mais dans les jeux vidéo multijoueur les plus compétitifs, c’est davantage compliqué. Intel s’est donc mis en tête de prendre une orientation différente. À l’occasion du SIGGRAPH Asia 2023 de Sydney, Intel a présenté sa technologie dite ExtraSS et tout le processus qui en découle. Il n’est plus ici question de se baser sur l’image précédente et l’image suivante pour que l’IA « imagine » une image. Non, l’IA ne se base que sur la précédente. De fait, elle ne doit pas faire avec cette augmentation de la latence puisqu’il n’est plus question d’attendre le rendu de cette image suivante.

Le buffer géométrique vient en soutient de l’XeSS © Intel

En revanche, et Intel le reconnaît bien volontiers, on perd en précision. Pour y remédier, Intel a donc imaginé l’XeSS qui, comme le précise WCCFTech, utilise une technique de déformation avec buffer géométrique afin que la qualité soit préserver autant que possible. Sur le papier, il se pourrait qu’Intel parvienne à compromis intéressant. Il est de toute façon intéressant de voir la société emprunter une voie différente de celle d’AMD/NVIDIA. Pour nous utilisateurs, le plus important sera de juger sur pièces et, que le meilleur gagne !