*Marcio Aguiar
A medida que asistimos a los avances de la inteligencia artificial (IA), sabemos que crece la demanda de capacidad de procesamiento. El volumen de datos que se comparte es impresionante. Según International Data Corporation (IDC), una gran cantidad de los datos generados en todo el mundo (el 60%) procede de las empresas, a través de transacciones de ventas, interacciones con clientes, supervisión de equipos, etc. Según la consultora, para 2025 se espera que la cantidad de datos generados en todo el mundo alcance los 175 zettabytes. En este escenario, la eficiencia energética y la sostenibilidad son factores cruciales que deben tener en cuenta las grandes corporaciones a la hora de aplicar las nuevas tecnologías.
El tráfico de datos en la nube requiere una gran cantidad de electricidad para alimentar los servidores, los sistemas de refrigeración y otras infraestructuras de los centros de datos, encargados de almacenar, procesar y distribuir la información a gran escala.
Según la consultora Arizton, se espera que el mercado de centros de datos crezca un 8,26% en el país entre 2022 y 2028 y actualmente representa el 50% de las inversiones en el sector en América Latina. Se espera que el mercado de centros de datos sostenibles pase de 891 millones de dólares a 1.650 millones de dólares en 2028.
Los retos a los que se enfrentan las empresas hoy en día son notables, especialmente en lo que respecta a la eficiencia energética. Con la creciente demanda de capacidad informática para seguir el ritmo de un mundo cada vez más digitalizado, vemos centros de datos sobrecargados de CPU (Unidades Centrales de Procesamiento) que proporcionan un procesamiento relativamente limitado en comparación con el consumo de energía necesario.
Las DPU (Unidades de Procesamiento de Datos), que se utilizan para la transferencia de datos en la infraestructura del centro de datos, en funciones de seguridad o virtualización, se perfilan como una solución prometedora para hacer un uso significativo de los recursos y seguir el ritmo de las demandas actuales, ya que tienen una capacidad de procesamiento mucho mayor para cargas de trabajo específicas. Es importante destacar que una de las ventajas significativas de las DPU es que pueden conectarse tanto a la CPU como a la GPU, integrando los sistemas existentes en lugar de substituirlos. Además, proporcionan una infraestructura robusta y acelerada para cualquier carga de trabajo, desde la nube hasta el centro de datos. Las DPU pueden reducir el consumo de energía en un 30%, ahorrando a los grandes centros de datos hasta 56 millones de dólares.
En informática general, las CPU son como el cerebro del ordenador. Se encargan de ejecutar el sistema operativo. Dependiendo del modelo, tienen un número limitado de núcleos de procesamiento que están optimizados para gestionar tareas que deben realizarse en un orden específico.
En cambio, las GPU (Unidades de Procesamiento Gráfico), con sus miles de núcleos de procesamiento, pueden procesar grandes volúmenes de datos simultáneamente. Al estar paralelizadas, son ideales para cargas de trabajo que pueden dividirse en partes independientes, ya que gestionan varias tareas al mismo tiempo. Mientras que la CPU está diseñada para realizar una amplia gama de tareas, la GPU es muy eficiente en la ejecución de trabajos que implican grandes volúmenes de datos que pueden procesarse en paralelo, optimizando el tiempo. Por eso las GPU son esenciales cuando se trata de aplicaciones de inteligencia artificial.
En términos de energía, las DPU son altamente eficientes y consumen menos energía que las CPU tradicionales para realizar la misma tarea. Con una mayor eficiencia en el uso del software, es posible reducir la necesidad de comprar más servidores para hacer frente al volumen de trabajo, lo que se traduce en un ahorro de recursos financieros, energía y espacio físico.
Por supuesto, además de adoptar DPU, existe la posibilidad de aplicar otras medidas para maximizar la eficiente en los centros de datos. Por ejemplo, optimizar la infraestructura informática para garantizar que los recursos que se utilizan de forma eficientes, sin despilfarros. También existe la opción de implantas sistemas de supervisión y gestión para identificar y corregir problemas de consumo excesivo.
La aplicación de estas y otras medidas son pasos fundamentales para garantizar un futuro sostenible para las empresas y el planeta en su conjunto. Mediante la adopción de tecnologías innovadoras, no solo reducimos el impacto medioambiental, sino que también mejoramos la eficiencia operativa con soluciones más eficaces para las organizaciones. Como empresa pionera en tecnología de IA, estamos entusiasmados y comprometidos con formar parte de esta transformación.
*Marcio Aguiar, director de la división Enterprise de NVIDIA para Latinoamérica.
Acerca de NVIDIA
Desde su fundación en 1993, NVIDIA (NASDAQ: NVDA) ha sido pionera en el campo de la aceleración computacional. La invención de la GPU por parte de la compañía en 1999 estimuló el crecimiento del mercado de juegos para PC, redefinió los gráficos por ordenador, inauguró la era de la IA moderna y ha contribuido a la digitalización industrial en todos los mercados. En la actualidad, NVIDIA es una empresa de infraestructuras informáticas completas con soluciones a escala de centro de datos que están revolucionando la industria. Para saber más: Link.
Ver también:
Facebook: NVIDIA Latinoamérica
Twitter: NVIDIA Latinoamérica
Instagram: NVIDIA Latam
YouTube: NVIDIA Latinoamérica
LinkedIn: NVIDIA Latinoamérica
Informações para a imprensa:
Sing Comunicação de Resultados
02/07/2024