NVIDIA prepara aún más GPU Hopper AI para el mercado chino para evitar las restricciones de EE. UU.

NVIDIA prepara aún más GPU Hopper AI para el mercado chino para evitar las restricciones de EE. UU.

NVIDIA no parece estar renunciando a su enorme potencial de mercado de IA en el mercado chino, ya que, según se informa, la compañía está fabricando aún más GPU Hopper que eluden las restricciones de EE. UU .

NVIDIA H20, L20 y L2 son las nuevas GPU de IA disponibles para los mercados chinos

Según el último informe de Dylan Patel de Semianalysis , parece que NVIDIA tiene planes de lanzar al menos tres nuevas GPU AI para el mercado chino, que incluyen H20 SXM, PCIe L20 y PCIe L2. Todos estos chips se basan en la arquitectura Hopper GPU y contarán con un rendimiento teórico máximo de 296 TFLOP.

Las especificaciones exactas de estas configuraciones de GPU de estos chips aún no se conocen, pero el Hopper H20 SMX presenta capacidades de memoria de 96 GB que funcionan a hasta 4,0 Tb/s, potencia de cálculo de 296 TFLOP y utiliza el chip GH100 con una densidad de rendimiento de 2,9. TFLOP/muerte versus 19,4 del H100. El H100 SXM es 6,68 veces más rápido que el H20 SXM según la tabla enumerada, pero esos son FLOP Tensor Core FP16 y no FLOP INT8 o FP8.

Fuente de la imagen: Semianálisis

La NVIDIA L20 viene con 48 GB de memoria y un máximo de 239 TFLOP de rendimiento informático, mientras que la L2 está configurada con 24 GB de memoria y un máximo de 193 TFLOP de potencia informática. Las GPU vienen en factores de forma PCIe, lo que las convierte en una solución viable para servidores y estaciones de trabajo de oficina. Estas son configuraciones mucho más reducidas que las que los clientes chinos obtenían antes con el H800 y el A800 , pero parece que la pila de software de NVIDIA para IA y HPC es demasiado valiosa como para renunciar a algunos de estos clientes y estará dispuesto a aceptar las especificaciones reducidas para tener acceso a estas arquitecturas Hopper modernas.

Además, si bien se reducen desde un punto de vista informático tradicional, el informe afirma que en la inferencia LLM, el H20 SXM en realidad será más rápido que el H100, ya que comparte similitudes con el H200 del próximo año . Esto sugeriría que al menos una parte de la GPU no está tan reducida en comparación con el resto del chip.

NVIDIA aún no ha anunciado oficialmente estos chips, pero probablemente lo mantendrán en secreto y actualizarán silenciosamente a sus socios sobre los planes en lugar de convertirlo en un anuncio de producto de IA en toda regla. Las recientes restricciones impuestas por el gobierno de Estados Unidos a China han llevado a los chinos a buscar alternativas a la IA ( enumeradas aquí ).

NVIDIA conoce el potencial que tienen algunas de estas empresas competidoras e intentará respaldar a su base de clientes chinos tanto como sea posible mientras cumple con las regulaciones estadounidenses. La compañía también tiene una demanda masiva de IA en todo el mundo y, a pesar de una reciente cancelación de pedidos por valor de 5 mil millones de dólares, el equipo ecológico simplemente reasignará su suministro a otra parte para que los clientes que anteriormente tuvieron que esperar más de un año para tener acceso a la IA. en GPU ahora pueden hacerse con el oro de la IA de NVIDIA desde el principio.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *