Blackwell ofrece el máximo rendimiento en el entrenamiento de MLPerf

Al completar todas las pruebas de MLPerf, Blackwell aumenta el rendimiento del entrenamiento para aplicaciones basadas en IA  


 


Las aplicaciones de IA generativa que utilizan texto, código informático, cadenas de proteínas, resúmenes, vídeos e incluso gráficos 3D necesitan aceleración computacional a escala de centros de datos para entrenar con eficiencia los grandes modelos lingüísticos que las alimentan.  
 

En las pruebas de rendimiento MLPerf Training 4.1, la plataforma NVIDIA Blackwell obtuvo resultados impresionantes en las cargas de trabajo de todas las pruebas y hasta 2,2 veces más rendimiento por GPU en las pruebas LLM, incluidas Llama 2 70B y GPT-3 175B.  
 

Además, los envíos de la plataforma NVIDIA Hopper siguieron manteniendo récords de escala en todos los benchmarks, incluido un envío con 11.616 GPU Hopper en el benchmark GPT-3 175B.  
 

A pasos agigantados con Blackwell  
 

La primera propuesta de formación de Blackwell para el consorcio MLCommons -que crea pruebas estandarizadas, imparciales y rigurosamente revisadas por pares para los participantes del sector- pone de relieve cómo la arquitectura está avanzando en el rendimiento de la formación de IA generativa.  
 

Por ejemplo, la arquitectura incluye nuevos núcleos que hacen un uso más eficiente de los Tensor Cores. Los núcleos son operaciones matemáticas optimizadas creadas para fines específicos, como las multiplicaciones de matrices, que son el núcleo de muchos algoritmos de aprendizaje profundo.  
 

El mayor rendimiento computacional por GPU de Blackwell y su memoria de alto ancho de banda, significativamente más grande y rápida, le permiten ejecutar el benchmark GPT-3 175B en menos GPU y, al mismo tiempo, obtener un excelente rendimiento por GPU.  
 

Aprovechando el mayor ancho de banda de la memoria HBM3e, sólo se ejecutaron 64 GPU Blackwell en el benchmark GPT-3 LLM sin comprometer el rendimiento por GPU. La misma prueba con Hopper requería 256 GPU para alcanzar el mismo rendimiento.  
 

Los resultados de entrenamiento obtenidos con Blackwell son la continuación de los obtenidos anteriormente con MLPerf Inference 4.1, en los que Blackwell proporcionó hasta 4 veces más rendimiento de inferencia LLM en comparación con la generación Hopper. Aprovechando la precisión FP4 de la arquitectura Blackwell, junto con el sistema de cuantificación QUASAR de NVIDIA, la presentación reveló un potente rendimiento al tiempo que cumplía los requisitos de precisión de la prueba.  
 

Optimización incesante  
 

Las plataformas NVIDIA se someten a un continuo desarrollo de software, acumulando rendimiento y mejoras en las capacidades de entrenamiento e inferencia para una amplia variedad de marcos de trabajo, modelos y aplicaciones.  
 

En esta ronda de presentaciones de entrenamiento de MLPerf, Hopper mostró una mejora de 1,3 veces en el rendimiento de entrenamiento por GPT-3 175B por GPU desde la introducción del benchmark.  
 

NVIDIA también ha presentado resultados a gran escala en la prueba GPT-3 175B utilizando 11.616 GPU Hopper conectadas mediante NVIDIA NVLink y NVSwitch, comunicación de alto ancho de banda entre GPU y GPU, y la red NVIDIA Quantum-2 InfiniBand.  
 

Las GPU NVIDIA Hopper han triplicado con creces su escala y rendimiento en la prueba GPT-3 175B desde el año pasado. Además, NVIDIA ha incrementado su rendimiento a la misma escala presentada en la ronda anterior hasta en un 26% en el benchmark de ajuste LoRA Llama 2 70B.  
 

El trabajo continuo de NVIDIA en la optimización de sus plataformas de cálculo acelerado permite obtener mejoras continuas en los resultados de las pruebas MLPerf, lo que incrementa el rendimiento del software en contenedores, pone a disposición de partners y clientes más potencia de cálculo en las plataformas existentes y proporciona más rentabilidad a su inversión en la plataforma.  
 

“Este resultado reafirma el compromiso de NVIDIA de ofrecer una plataforma de computación acelerada y de alto rendimiento que satisfaga con precisión diversas demandas. Nuestro trabajo permite a clientes y partners aprovechar al máximo toda la tecnología disponible en nuestra plataforma. Nos entusiasma impulsar este mercado proporcionando soluciones cada vez más modernas y eficientes”, subraya Marcio Aguiar, director de la división Enterprise de NVIDIA para Latinoamérica. 
 

Asociaciones  
 

Los socios de NVIDIA, entre los que se incluyen fabricantes de sistemas y proveedores de servicios en la nube como ASUSTek, Azure, Cisco, Dell, Fujitsu, Giga Computing, Lambda Labs, Lenovo, Oracle Cloud, Quanta Cloud Technology y Supermicro, también presentaron resultados impresionantes para MLPerf en esta última ronda.  

 

NVIDIA, miembro fundador de MLCommons, considera vital el papel que desempeñan las pruebas de rendimiento estándar y las mejores prácticas de evaluación comparativa en la computación de IA. Con el acceso a comparaciones de plataformas de IA y HPC revisadas por expertos, las empresas pueden mantenerse al día de las últimas innovaciones en computación de IA y acceder a datos cruciales que pueden ayudar a orientar importantes decisiones de inversión en plataformas. 
 


Acerca de NVIDIA 

Desde su fundación en 1993, NVIDIA (NASDAQ: NVDA) ha sido pionera en el campo de la aceleración computacional. La invención de la GPU por parte de la compañía en 1999 estimuló el crecimiento del mercado de juegos para PC, redefinió los gráficos por ordenador, inauguró la era de la IA moderna y ha contribuido a la digitalización industrial en todos los mercados. En la actualidad, NVIDIA es una empresa de infraestructuras informáticas completas con soluciones a escala de centro de datos que están revolucionando la industria. Para saber más: Link


Ver también:  

Facebook: NVIDIALatinoamérica 

Twitter: NVIDIALatinoamérica 

Instagram: NVIDIALatam 

YouTube: NVIDIA Latinoamérica 

LinkedIn: NVIDIALatinoamérica 

 

Informações para a imprensa:

Sing Comunicação de Resultados

nvidia@singcomunica.com.br

13/11/2024


Também encontrado em:


A Sing utiliza cookies e outras tecnologias semelhantes para melhorar a sua experiência, de acordo com a nossa política de privacidade e, ao continuar navegando, você concorda com estas condições.