ExtraSS: Intel полагается на экстраполяцию для повышения производительности графики

Написано Guillaume
Дата публикации : {{ dayjs(1703869238*1000).local().format("L").toString()}}
Следуйте за нами
Эта статья является автоматическим переводом

Компания Intel намерена пойти по другому пути, чем AMD/NVIDIA, в повышении производительности наших видеокарт.

Из поколения в поколение вычислительная мощность графических процессоров возрастает в весьма внушительных пропорциях. Однако этот рост мощности остается недостаточным в то время, когда в технологиях рендеринга графики появляются все более значительные инновации. Например, трассировка лучей пользуется большим успехом у разработчиков благодаря качеству и точности рендеринга, который она обеспечивает. С другой стороны, даже самые мощные GeForce RTX 4090 становятся на колени из-за трассировки лучей, поэтому NVIDIA придумала новые методы, чтобы снизить требования к GPU. Это DLSS, техника суперсэмплинга, которая была усилена, чтобы искусственный интеллект мог быть использован более эффективно. Так, вместо того чтобы просто "увеличивать" изображение, рассчитанное графическим процессором, так называемая техника генерации кадров просит искусственный интеллект создать изображение целиком. Разумеется, чтобы обеспечить максимальную согласованность результатов, ИИ опирается на целый ряд информации, начиная с предыдущего и следующего изображения, которые были рассчитаны графическим процессором.

Когда Intel сравнивает различные методы рендеринга © Intel

Этот процесс действительно творит чудеса, и графическая производительность может быть удвоена или даже утроена, что не преминуло спровоцировать реакцию конкурента AMD, который появился несколько месяцев спустя с довольно похожей технологией. Проблема в том, что в любом случае значительно увеличивается время задержки: для "тихих" игр это не проблема, но для наиболее конкурентных многопользовательских видеоигр все гораздо сложнее. Поэтому Intel взяла курс на другое направление. На выставке SIGGRAPH Asia 2023 в Сиднее Intel представила свою так называемую технологию ExtraSS и весь процесс, лежащий в ее основе. Речь больше не идет о том, чтобы ИИ "представлял" себе изображение на основе предыдущего и следующего изображений. Нет, ИИ основывается исключительно на предыдущем изображении. Фактически, ему не нужно иметь дело с увеличением задержки, потому что больше нет вопроса об ожидании рендеринга следующего изображения.

Геометрический буфер поддерживает XeSS © Intel

С другой стороны, и Intel с готовностью это признает, теряется точность. Чтобы исправить это, Intel придумала XeSS, которая, как отмечает WCCFTech, использует технику деформации с геометрическим буфером для сохранения качества, насколько это возможно. На бумаге Intel вполне может достичь интересного компромисса. В любом случае, интересно видеть, как компания идет по пути, отличному от AMD/NVIDIA. Для нас, пользователей, главное - увидеть все своими глазами, и пусть победит сильнейший!