NVIDIA H200 NVL es ideal para los servidores diseñados en rack que desean consumo de energía menor y enfriamiento por aire. Asimismo, ofrece una inferencia hasta 1.7 veces más rápida para grandes modelos de lenguaje (LLM) y una velocidad hasta 1.3 veces mayor en aplicaciones de procesamiento de alto desempeño
Desde su presentación, la arquitectura de NVIDIA Hopper ha revolucionado el panorama del procesamiento de alto desempeño (HPC, por sus siglas en inglés), así como de la inteligencia artificial, ayudando así a empresas, investigadores y desarrolladores a superar los retos más complejos con un mayor desempeño y eficiencia energética.
A lo largo de la conferencia Supercomputing 2024, NVIDIA anunció el lanzamiento de la NVIDIA H200 NVL PCIe GPU — la más reciente en unirse a su familia de productos. La H200 NVL es ideal para empresas que buscan que sus centros de datos tengan un diseño de rack con ventilación por aire y un menor consumo energético sin perder la flexibilidad de configuraciones para entregar un mejor desempeño para cada IA y HPC, sin importar su tamaño.
De acuerdo a una encuesta reciente, alrededor del 70% de las empresas usa un diseño de rack con un consumo igual o menor a 20kW y usan sistemas de aire para enfriar los sistemas. Esto hace que las PCIe y las GPU tengan un papel esencial, ya que proporcionan una implementación de nodos granular ya sea utilizando una, dos, cuatro o hasta ocho GPUs, lo cual le permite a los centros de datos implementar más potencial de procesamiento en espacios más pequeños. De este modo, las compañías pueden utilizar sus racks y seleccionar el número de GPUs que se acomoden mejor a sus necesidades.
Las empresas pueden usar la H200 NVL para acelerar las aplicaciones de IA y HPC al mismo tiempo que reducen el consumo de energía. Con un incremento de memoria de 1.5 veces mayor en comparación con la NVIDIA H100 NVL y un ancho de banda 1.2 veces más grande, las compañías pueden usar la nueva Hopper para ajustar LLMs en cuestión de horas para entregar un rendimiento 1.7 veces mayor. Por su parte, el rendimiento de las cargas de trabajo HPC se puede incrementar 1.3 veces en comparación con la H100 NVL y hasta 2.5 veces sobre la arquitectura Ampere de NVIDIA.
Para complementar el poder de la H200 NVL contamos con la tecnología NVIDIA NVLink. La última generación de NVLink permite una comunicación entre GPUs 7 veces más rápida que PCIes de quinta generación, entregado así un desempeño superior que puede cumplir con las necesidades de HPCs, LLMs y fine-tuning.
La NVIDIA H200 NVL viene de la mano con un poderoso software y herramientas que les permiten a las empresas acelerar sus aplicaciones de IA y HPC. Incluye una suscripción de 5 años a NVIDIA AI Enterprise, un software basado en la nube para el desarrollo e implementación de IA de producción. NVIDIA AI Enterprise permite a las compañías acceder a los microservicios de NVIDIA NIM para una implementación segura y confiable de modelos de IA de alto desempeño.
“Con la GPU NVIDIA H200 NVL, las organizaciones podrán acelerar aún más sus cargas de trabajo de IA y HPC, con mejor eficiencia energética y menor consumo de energía. Nos entusiasma ofrecer otra tecnología de vanguardia que será positiva para el mercado”, destaca Marcio Aguiar, director de la división Enterprise de NVIDIA para América Latina.
Las empresas que ya se sumaron al poder de la H200 NVL
Con la H200 NVL, NVIDIA provee a las empresas con una plataforma completa para desarrollar e implementar sus cargas de trabajo de IA y HPCs.
Los usuarios de esta nueva generación de GPU están comenzando a ver un impacto significativo para diversos casos de implementación de IA y HPCs a través de múltiples industrias como agentes visuales generados por Inteligencia Artificial y chatbots para el servicio al cliente, algoritmos de cambio para el sector financiero, escaneo de imágenes médicas para un mejor análisis y detección de anomalías en la industria de la salud, reconocimiento de patrones para la manufactura e incluso mapeo sísmico para organizaciones federales.
Dropbox está aprovechando la computación acelerada de NVIDIA para sus servicios e infraestructura.
“Dropbox maneja grandes cantidades de contenido, lo que requiere capacidades avanzadas de IA y aprendizaje automático”, señala Ali Zafar, vicepresidente de infraestructura de Dropbox. “Estamos explorando la NVL H200 para mejorar continuamente nuestros servicios y añadir más valor a nuestros clientes.”
La Universidad de Nuevo México, por ejemplo, ha estado utilizando el procesamiento acelerado de NVIDIA para varias investigaciones y usos académicos.
“Como universidad pública de investigación, nuestro compromiso con la IA permite que la institución esté a la vanguardia de todos avances científicos y tecnológicos”, afirma el profesor Patrick Bridges, director del Centro de Computación Avanzada para la Investigación de la UNM. “A medida que hacemos la transición hacia las H200 NVL, podremos acelerar una gran variedad de aplicaciones, incluidas iniciativas de ciencia de datos, investigación bioinformática y genómica, simulaciones de física y astronomía, modelado climático y más”.
H200 NVL contará un amplio ecosistema a través de diversas plataformas
Se espera que Dell Technologies, Hewlett Packard Enterprise, Lenovo y Supermicro ofrezcan una amplia gama de configuraciones compatibles con H200 NVL.
Además, H200 NVL estará disponible en las plataformas de Aivres, ASRock Rack, GIGABYTE, Inventec, MSI, Pegatron, QCT, Wistron y Wiwynn.
Algunos sistemas se basan en la arquitectura modular NVIDIA MGX, que permite a los fabricantes de computadoras construir de manera rápida y rentable una amplia gama de diseños de infraestructura de centros de datos.
Las plataformas con H200 NVL estarán disponibles a través de los socios globales de sistemas de NVIDIA a partir de diciembre. Para complementar la disponibilidad de los principales socios, NVIDIA también está desarrollando una Arquitectura de Referencia Empresarial para sistemas H200 NVL.
La arquitectura de referencia incorporará la experiencia y los principios de diseño de NVIDIA, de modo que los socios y clientes puedan diseñar e implementar una infraestructura de IA de alto rendimiento a escala basada en la H200 NVL. Esto incluye recomendaciones de hardware y software, con orientación detallada sobre configuraciones óptimas de servidores, clústeres y redes. La capacidad de red está optimizada para obtener el máximo rendimiento con la plataforma Ethernet NVIDIA Spectrum-X.
Las novedades de NVIDIA se exhibirán en la sala de exposiciones de la SC24, que se llevará a cabo en el Georgia World Congress Center del 17 al 22 de noviembre. Para obtener más información, vea la conferencia que darán Jensen Huang, fundador y director ejecutivo de NVIDIA, e Ian Buck, vicepresidente de hiperescala y HPC de NVIDIA, el 18 de noviembre a las 10:30 a. m. (hora del Pacífico).
Consulte el aviso sobre la información del producto de software.
Acerca de NVIDIA
Desde su fundación en 1993, NVIDIA (NASDAQ: NVDA) ha sido pionera en el campo de la aceleración computacional. La invención de la GPU por parte de la compañía en 1999 estimuló el crecimiento del mercado de juegos para PC, redefinió los gráficos por ordenador, inauguró la era de la IA moderna y ha contribuido a la digitalización industrial en todos los mercados. En la actualidad, NVIDIA es una empresa de infraestructuras informáticas completas con soluciones a escala de centro de datos que están revolucionando la industria. Para saber más: Link.
Ver también:
Facebook: NVIDIALatinoamérica
Twitter: NVIDIALatinoamérica
Instagram: NVIDIALatam
YouTube: NVIDIA Latinoamérica
LinkedIn: NVIDIALatinoamérica
Informações para a imprensa:
Sing Comunicação de Resultados
18/11/2024