Conexión con DriversCloudCrear una cuenta DriversCloud.comReinicio de la contraseña DriversCloud.comMigración de cuentas
ExtraSS: Intel recurre a la extrapolación para mejorar el rendimiento gráfico
Intel pretende tomar un camino distinto al de AMD/NVIDIA para aumentar el rendimiento de nuestras tarjetas gráficas.
Generación tras generación, los procesadores gráficos han visto aumentar su potencia de cálculo en proporciones bastante formidables. Sin embargo, estos incrementos de potencia siguen siendo insuficientes en un momento en que las técnicas de renderizado de gráficos adoptan innovaciones cada vez más significativas. El trazado de rayos, por ejemplo, ha sido un gran éxito entre los desarrolladores por la calidad y precisión del renderizado que ofrece. Por otro lado, incluso las GeForce RTX 4090 más potentes se ponen de rodillas ante el trazado de rayos, por lo que NVIDIA ha ideado nuevas técnicas para exigir menos a las GPU. Se trata de DLSS, su técnica de supermuestreo, que se ha potenciado para poder sacar más partido a la inteligencia artificial. Así, en lugar de limitarse a "ampliar" una imagen calculada por la GPU, la llamada técnica de generación de fotogramas pide a la IA que cree la imagen en su totalidad. Por supuesto, para garantizar que el resultado sea lo más coherente posible, la IA se basa en toda una serie de información, empezando por la imagen anterior y la siguiente, ambas calculadas por la GPU.
Este proceso realmente hace maravillas, y el rendimiento gráfico puede duplicarse o incluso triplicarse, lo que no ha dejado de provocar la reacción de su competidor AMD, que llegó unos meses más tarde con una tecnología bastante similar. El problema es que, en cualquiera de los dos casos, se acaba produciendo un aumento significativo de la latencia: para los juegos "tranquilos", esto apenas supone un problema, pero para los videojuegos multijugador más competitivos, es más complicado. Por ello, Intel ha puesto sus miras en otra dirección. En el SIGGRAPH Asia 2023 de Sídney, Intel presentó su llamada tecnología ExtraSS y todo el proceso que hay detrás. Ya no se trata de basar la "imaginación" de la IA de una imagen en las imágenes anterior y siguiente. No, la IA se basa únicamente en la imagen anterior. De hecho, no tiene que hacer frente a este aumento de latencia porque ya no se trata de esperar a que se renderice la imagen siguiente.
Por otro lado, e Intel lo admite sin problemas, se pierde precisión. Para remediarlo, Intel ha ideado el XeSS que, como señala WCCFTech, utiliza una técnica de deformación con un búfer geométrico para preservar la calidad en la medida de lo posible. Sobre el papel, Intel podría alcanzar un compromiso interesante. En cualquier caso, es interesante ver que la empresa toma un camino diferente al de AMD/NVIDIA. Para nosotros, los usuarios, lo más importante será comprobarlo por nosotros mismos, ¡y que gane el mejor!