Lista Artículos Lista Editoriales Enlaces Juegos en Línea Noticias Tienda J por Amazon(com)
J de Juegos.com
PC
AYUDA   |   BUSCAR x CLAVE   |   
Buscar con GOOGLE >>>
 
Escríbenos! Galardones. Juegos Recientes.
Preguntas Frecuentes - Galerías - Códigos - Descargas - Enlaces - TOP 10
| ACCIÓN | | AVENTURA | | CARRERAS | | DEPORTES | | ESTRATEGIA | | JUEGOS DE ROL | | SIMULADORES |
ZoomING - Mayo 2009
x Webmaster

Durante estos últimos meses AMD-ATI y Nvidia han mantenido su enfrentamiento constante por ofrecer la tarjeta gráfica más rápida, al menor costo. El departamento ATI siguiendo con calma y cautela lo que obviamente pertenece a un plan de introducción, mercadeo y presentación previamente diseñado y con cierta visión. Nvidia por su lado respondiendo sin que parezca que tuvieron tiempo para pensar las cosas bien, obedeciendo más a una necesidad de reaccionar que continuando con alguna estrategia debidamente preparada (algo que a mi parecer vienen haciendo desde que salió la generación Radeon HD 3000 a finales del 2007, basados en el GPU RV670, que termina como una mejora y extensión de la arquitectura R600 y es además fabricada a 55nm).

La familia HD 3xxx cae como una sorpresa total para el equipo de Nvidia quienes esperaban un desempeño y recibimientos pobres similares a los de la familia 2xxx. El que una arquitectura retocada que utiliza un nuevo método de fabricación acabe ganándoles la mano debió ser, y aún es, difícil de tragar. Lo negativo del caso es que todo apunta a que el equipo verde no sólo no estaba preparado para una situación tal, sino que ni siquiera tienen, ni tuvieron, planes de contingencia aunque sea en teoría para enfrentar algo similar.

Creo que ya lo apunte en otros artículos y de seguro ya suena algo redundante pero vale la pena volver a recalcarlo. El último par de años la estrategia de mercado manejada por Nvidia ha sido muy confusa, por un lado metiéndose en extrañas querellas con sus fabricantes y socios más conocidos (al punto que muchos ahora han dejado la exclusividad y ofrecen productos de ATI), por otro realizando cambio tras cambio de nombre de sus diferentes productos, para finalmente meterse con PhysX (antes de Ageia) con el fin de ofrecer algo nuevo y diferente a SLI o CUDA.

El tema de PhysX es de lo más extraño y sospechoso. Lo presentan como que sólo las tarjetas de Nvidia compatibles (las más modernas) podrán aprovecharlo, después se hace público que un aficionado con cierto conocimiento y retoques logra que ejecute sin problemas en tarjetas ATI. Después vienen con que están dispuestos a hacerlo disponible para ATI pero si llegan a un acuerdo respecto a pago de regalías por licencia de uso. Con esto último no es de extrañar que el equipo rojo, a través de AMD, directamente diga que 'no piensan menterse en simulación de sistemas de física por GPU hasta que valga la pena' (aparte que ya están con Intel y Havok para optimizar su uso en CPU, lo que sería un salto a posteriori pasarlo a GPU).

Dependiendo como manejen el tema PhysX y CUDA en el afamado GPU GT300 que tendría que salir a fin de año Nvidia podría ponerse sola ante la espada y la pared. Por un lado tenemos que DirectX 11 ofrece, u ofrecería, algunas funciones y libertades a los programadores que les permitirían, al menos hasta donde entendi los textos y artículos, desarrollar equivalentes a ciertas operaciones CUDA sin por ello restringirse a un único fabricante. En esta misma línea, los citados 'equivalentes' podrían incluir aceleración de funciones utilizadas en el procesamiento de sistemas de simulación de física (que, entre otras cosas, es en lo que estarían trabajando Microsoft, Intel y quizá AMD con la excelente base ofrecida por Havok --ahora de Intel--).

En otras palabras, si por alguna extraña razón el equipo verde decide incluir en su nueva arquitectura capacidad explícitamente enfocada a la aceleración de funciones PhysX y CUDA podrían: uno, causar gran cantidad de dolores de cabeza a la industría de los videojuegos (a menos que todos decidan mandarlos a la m). Dos, ofrecer extras que no tiene sentido aprovechar. Tres, cobrar por extras que sólo sus muy fieles 'socios' llegarían a utilizar. Cuatro, alejarse de la actual visión hacía hardware generalizado. Y, cinco, darse el proberbial tiro en el pie, que muy bien podría rebotarles a la cabeza.

Un tema que no hay que dejar de lado en todo esto es que más allá de sus cambios de nombre, inclusión de más cores (nodos) en versiones 'high end' de sus GPU, Nvidia se salto la compatibilidad con DirectX 10.1 con el pretexto de que las mejoras y optimizaciones no valen la pena y prefieren enfocarse en el DirectX 11. Pero, señores, dudo que veamos productos compatibles con DX 11 antes de finales del 2010 cuando no el 2011 o 2012.

Recientemente salió una nota que sería posible 'patchear' un engine DirectX 10/10.1 para que aproveche de algunas características del DirectX 11, sin embargo, esto no quiere decir, al menos no creo, que se pueda convertir a un engine DX 10/10.1 en DX 11 sólo por un arreglo. Quizá se pueda obtener optimizaciones, mejoras en rendimiento y/o presentación visual aprovechando algunas funciones del DX 11 que operan mejor que en su predecesor pero esto no quiere decir que un producto DirectX 10/10.1 se transforme en uno DirectX 11, para estos últimos habrá que esperar bastante. Lo que si puedo aceptar es que proyectos que recién entran en su fase de desarrollo y han sido pensados para DX 10 puedan hacer el cambio a DX 11 sin grandes revuelos. Claro que con esto último permanece el pequeño gran detalle de que la base instalada de Windows Vista en relación a la de Windows XP es todavía muy baja para que valga la pena dejar de lado al DirectX 9.0c por completo, y todavía no hay nada dicho sobre los problemas que pueden presentarse por tener un engine --híbrido-- compatible con DX 9.0c y DX 11.

Además, ni siquiera hoy existe una aceptación real, total y significativa del DirectX 10/10.1, por lo que aún subsisten gran cantidad de factores que deberán ser tomados en cuenta para saber si llegado el momento habrá un salto del DirectX 9.0c al DirectX 11, o la industría en general primero tiene que culminar con la transición debida por la versión intermedia. Esto último sólo implica que habría que agregar un par de años a la línea de tiempo antes de que veamos productos de atractivo masivo que utilizan y aprovechan la nueva versión del API de Microsoft.

El punto de los dos párrafos anteriores es que omitir compatibilidad con DirectX 10.1 podría costarle a Nvidia mucho a muy corto plazo. De hecho, personalmente no entiendo la necesidad de la parte hardware de la industría por pasar a DirectX 11 cuando las bases sobre las cuales trabaja el DirectX 10/10.1 son en su gran mayoría aún compatibles con DirectX 9.0c y ni siquiera existe, que se sepa, un engine nativo a la décima versión del DirectX que aproveche de manera tangible de su extensa lista de mejoras y extensiones. En otras palabras, cuando el más de los usuarios todavía está en la entrada del almuerzo, ATI y Nvidia nos quieren ofrecer (hasta directamente servir) el postre; con gran parte de los desarrolladores apenas terminando su sopa.

De toda esta discusión vale además extraer un otro punto clave. La evolución de las afamadas tarjetas gráficas ya no lo es tal, al menos no desde la aparición de los GPU RV770 y GT200 (de ATI y Nvidia respectivamente), ahora estamos entrando en el área de los circuitos (controladoers, API y afines) de computo paralelo masivo. Su origen puede ser una evolución que parte de la necesidad de procesar grandes volúmenes de información gráfica, pero su destino es servir para cualquier tarea que pueda aprovechar del paralelismo extremo que poseen sus arquitecturas. Se trate de aceleración gráfica, se trate de Ray Tracing, se trate de IA, de simulación de sistemas de física, de predicción del clima, de decodificación del génoma humano, del análisis de ondas sonoras del espacio, procesamiento de imágenes médicas, o análisis de proteínas.

El siguiente paso en esta evolución, que por debajo incluye compatibilidad con DirectX 11, es ofrecer arquitecturas en hardware más abiertas, más estándar y más capaces para trabajar en el área del computo paralelo masivo. Ofrecer extensiones, o una base, enfocada por sobretodo en el renderizado (y aceleración gráfica 3D) puede ser buena idea en este momento, pero el plan tiene que incluir ir más allá y convertirse prácticamente en una arquitectura multipropósito que puede o no funcionar como una tarjeta de extensión de funciones y/o (más adelante) un coprocesador.

Lo que sea que haga Nvidia este año, y como le resulte, es crítico para su sobreviviencia no a futuro, pero a futuro inmediato (próximo año o tres años a lo mucho). No hay que olvidar que ATI da todas las señales de saber dónde están, dónde quieren estar y cómo llegar ahí. Nvidia pareciera que no, y para ellos el tiempo se está haciendo corto porque muy pronto entra en escena Intel con Larrabee (finales del año en curso o primer semestre 2010), y por todo lo que se sabe esta arquitectura podría ser un salto tanto en el tema aceleración de renderizado 3D, como Ray Tracing, como el aspecto multipropósito de hardware diseñado para computo paralelo masivo. Salto que, si va como lo planearon, pondría a ATI en una posición cercana o contigua, pero la imagen de donde queda(ría) Nvidia no está nada clara.

Referencias

  • More Nvidia renaming blues, the inquirer[.net], marzo 3 2009. Leído en 'atomic maximum power computing' (atomicmpc.com.au).
( - de -) SIGUIENTE >>
Sobre J de Juegos | Información Copyright | Contacto [ 28/Mayo/2009 ]