Máquinas virtuales A3 ahora en vista previa privada en Google Cloud, con tecnología de GPU NVIDIA H100

Máquinas virtuales A3 ahora en vista previa privada en Google Cloud, con tecnología de GPU NVIDIA H100

En su evento I/O centrado en IA, Google anunció que los clientes de Google Cloud podrían comenzar a usar máquinas virtuales A3 con GPU NVIDIA H100 en una vista previa privada. El gigante de las búsquedas dijo que sus nuevos A3VM eran un «paso adelante» para los clientes que desarrollan modelos avanzados de aprendizaje automático.

Las características clave de las máquinas virtuales (VM) GPU A3 son las siguientes:

  • 8 GPU H100 que utilizan la arquitectura Hopper de NVIDIA y ofrecen un rendimiento de cómputo tres veces mayor
  • Ancho de banda biseccional de 3,6 TB/s entre las 8 GPU de A3 a través de NVIDIA NVSwitch y NVLink 4.0
  • Procesadores escalables Intel Xeon de cuarta generación de última generación
  • 2 TB de memoria host a través de DIMM DDR5 de 4800 MHz
  • Ancho de banda de red 10 veces mayor impulsado por nuestras IPU habilitadas para hardware, pila de comunicación GPU entre servidores especializada y optimizaciones NCCL

Con estas máquinas virtuales, las empresas que necesitan entrenar modelos ML complejos pueden hacerlo mucho más rápido. Se construyen teniendo en cuenta modelos de IA exigentes que son responsables de la IA generativa actual .

“Las máquinas virtuales A3 de Google Cloud, con tecnología de GPU NVIDIA H100 de próxima generación, acelerarán el entrenamiento y el servicio de aplicaciones de IA generativa”, dijo Ian Buck, vicepresidente de computación de hiperescala y alto rendimiento de NVIDIA. “Inmediatamente después de las instancias G2 lanzadas recientemente por Google Cloud, estamos orgullosos de continuar nuestro trabajo con Google Cloud para ayudar a transformar empresas de todo el mundo con una infraestructura de inteligencia artificial especialmente diseñada”.

Según Google, sus nuevas supercomputadoras A3 pueden proporcionar hasta 26 exaFlops de rendimiento de IA y es la primera instancia de GPU que utiliza IPU de 200 Gbps diseñadas a medida con transferencias de datos de GPU a GPU que pueden pasar por alto el host de la CPU. Esto permite diez veces más ancho de banda de red, acelerando las cosas.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *