ExtraSS: A Intel baseia-se na extrapolação para melhorar o desempenho gráfico

Escrito por Guillaume
Data de publicação : {{ dayjs(1703869238*1000).local().format("L").toString()}}
Siga-nos
Este artigo é uma tradução automática

A Intel está a tentar seguir um caminho diferente do da AMD/NVIDIA para aumentar o desempenho das nossas placas gráficas.

Geração após geração, os processadores gráficos viram a sua potência computacional aumentar em proporções formidáveis. No entanto, estes aumentos de potência continuam a ser insuficientes numa altura em que as técnicas de renderização gráfica estão a adotar inovações cada vez mais significativas. O Ray tracing, por exemplo, tem sido um grande sucesso entre os programadores devido à qualidade e precisão da renderização que proporciona. Por outro lado, mesmo as GeForce RTX 4090 mais potentes são afectadas pelo ray tracing, pelo que a NVIDIA criou novas técnicas para exigir menos das GPU. Trata-se do DLSS, a sua técnica de superamostragem, que foi reforçada para que a inteligência artificial possa ser mais utilizada. Assim, em vez de simplesmente "ampliar" uma imagem calculada pela GPU, a chamada técnica de geração de fotogramas pede à IA que crie a imagem na sua totalidade. Naturalmente, para garantir que o resultado é o mais consistente possível, a IA baseia-se numa série de informações, a começar pela imagem anterior e pela imagem seguinte, ambas calculadas pela GPU.

Quando a Intel compara diferentes técnicas de renderização © Intel

Este processo faz realmente maravilhas e o desempenho gráfico pode ser duplicado ou mesmo triplicado, o que não deixou de provocar uma reação da concorrente AMD, que chegou alguns meses mais tarde com uma tecnologia bastante semelhante. O problema é que, em qualquer dos casos, acaba por haver um aumento significativo da latência: para os jogos "calmos", isto não é um problema, mas para os videojogos multijogadores mais competitivos, é mais complicado. Por isso, a Intel decidiu seguir uma direção diferente. Na SIGGRAPH Asia 2023, em Sydney, a Intel apresentou a sua tecnologia denominada ExtraSS e todo o processo que lhe está subjacente. Já não se trata de basear a "imaginação" de uma imagem pela IA nas imagens anteriores e seguintes. Não, a IA baseia-se apenas na imagem anterior. De facto, não tem de lidar com este aumento de latência porque já não se trata de esperar que a imagem seguinte seja renderizada.

A memória intermédia geométrica suporta o XeSS © Intel

Por outro lado, e a Intel admite-o prontamente, há uma perda de precisão. Para remediar esta situação, a Intel criou o XeSS que, como refere o WCCFTech, utiliza uma técnica de deformação com uma memória intermédia geométrica para preservar a qualidade tanto quanto possível. No papel, a Intel pode muito bem chegar a um compromisso interessante. Em todo o caso, é interessante ver a empresa seguir um caminho diferente do da AMD/NVIDIA. Para nós, utilizadores, o mais importante será ver com os nossos próprios olhos, e que ganhe o melhor!