Microsoft Azure se convierte en el primer hiperescalador que incorpora el sistema Blackwell de NVIDIA con GB200

Microsoft Azure se convierte en el primer hiperescalador que incorpora el sistema Blackwell de NVIDIA con GB200

En marzo, NVIDIA presentó su innovadora plataforma Blackwell, que cuenta con una notable reducción de hasta 25 veces en el costo y el consumo de energía en comparación con su modelo anterior para entrenar modelos de lenguaje de gran tamaño. Hay mucha expectación entre los principales proveedores de servicios en la nube y las empresas de inteligencia artificial más importantes, como Amazon Web Services, Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla y xAI, que se espera que integren Blackwell en sus operaciones tras su lanzamiento.

Sin embargo, el lanzamiento de la plataforma Blackwell se ha visto retrasado hasta tres meses debido a un problema de diseño. Recientemente, Microsoft anunció en X que ya ha comenzado a recibir los chips Blackwell GB200 de NVIDIA y que actualmente está optimizando sus servidores para utilizarlos al máximo. Esta optimización aprovecha la tecnología avanzada de redes Infiniband de NVIDIA y los innovadores sistemas de refrigeración líquida de circuito cerrado.

Microsoft Azure es la primera plataforma en la nube que implementa la arquitectura Blackwell de @nvidia con servidores de IA basados ​​en GB200. Estamos mejorando el rendimiento en todos los niveles para respaldar los modelos de IA líderes en el mundo, utilizando redes Infiniband y refrigeración líquida de circuito cerrado de vanguardia. Descubra más en MS Ignite. pic.twitter.com/K1dKbwS2Ew

— Microsoft Azure (@Azure) 8 de octubre de 2024

Además, el CEO de Microsoft, Satya Nadella, también compartió una actualización sobre la implementación de GB200:

Nuestra colaboración duradera con NVIDIA y la innovación constante están marcando el ritmo de la industria y potenciando las cargas de trabajo de IA más complejas. https://t.co/qaEoSv8dm5

– Satya Nadella (@satyanadella) 8 de octubre de 2024

Además, NVIDIA ha entregado recientemente una de las versiones de ingeniería iniciales del DGX B200 al equipo OpenAI:

Echa un vistazo a lo que acaba de llegar a nuestra oficina. Gracias, @nvidia , por enviarnos una de las primeras unidades de ingeniería del DGX B200. pic.twitter.com/vy8bWUEwUi

– OpenAI (@OpenAI) 8 de octubre de 2024

Dado el gran interés de varios clientes potenciales por la plataforma Blackwell de NVIDIA, tiene sentido que Microsoft y OpenAI estén entre los primeros en recibir estos chips. A diferencia de otros grandes proveedores de la nube como Google y AWS, que tienen sus propias infraestructuras de entrenamiento de IA (Google con Tensor Processing Units y AWS desarrollando chips personalizados), Microsoft y OpenAI dependen por completo de la tecnología de NVIDIA, lo que los posiciona como algunos de los clientes más importantes de NVIDIA.

Se espera que Microsoft brinde más detalles sobre el lanzamiento del GB200 de NVIDIA durante su conferencia Ignite programada para noviembre.

Leer más

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *