HPE acelera el entrenamiento de IA con solución de NVIDIA
HPE y NVIDIA presentan una solución de entrenamiento de IA previamente configurada y probada con software IA/ML, supercomputación y más
HPE anunció hoy una solución de supercomputación para IA generativa diseñada para que las empresas grandes, las instituciones de investigación y las organizaciones gubernamentales aceleren el entrenamiento y optimización de los modelos de inteligencia artificial (IA) que utilizan conjuntos de datos privados.
La solución consiste en un paquete de software que permite a los clientes entrenar y perfeccionar los modelos y desarrollar aplicaciones de IA. La solución también incluye supercomputadoras con enfriamiento líquido, computación acelerada, interconexión, almacenamiento y servicios para ayudar a las organizaciones a liberar más rápido el valor de la IA.
“Las compañías y los centros de investigación líderes del mundo están entrenando y perfeccionando los modelos de IA para impulsar la innovación y el descubrimiento en la investigación, pero, para hacerlo de manera eficaz y eficiente, necesitan soluciones diseñadas específicamente para ello”, dijo Justin Hotard, vicepresidente ejecutivo y director general de HPC, IA y Laboratorios en Hewlett Packard Enterprise. “Para soportar la IA generativa, las organizaciones necesitan utilizar soluciones que sean sostenibles y proporcionen el rendimiento y la escala dedicada de una supercomputadora para soportar el entrenamiento de modelos de IA. Nos complace ampliar nuestra alianza con NVIDIA para ofrecer una solución nativa de IA lista para usarse que ayudará a nuestros clientes a acelerar considerablemente el entrenamiento y resultados de los modelos de IA”.
Las herramientas de software para desarrollar aplicaciones de IA, personalizar los modelos previamente desarrollados, crear y modificar código, son componentes clave de esta solución de supercomputación para la IA generativa. El software está integrado con la tecnología de supercomputación HPE Cray, que está basada en la misma arquitectura que se utiliza en la supercomputadora más rápida del mundo, e incorpora el Superchip NVIDIA GH200 Grace Hopper.
Juntos, esta solución ofrece la escala y rendimiento sin precedentes que se requiere para las grandes cargas de trabajo de IA, tales como el entrenamiento de modelos de lenguaje de gran tamaño (LLM) y de modelos de recomendaciones de deep learning (DLRM). Al utilizar el entorno de desarrollo de aprendizaje automático de HPE en este sistema, el modelo de código abierto Llama 2 con 70,000 millones de parámetros se optimizó en menos de 3 minutos, lo que se traduce directamente en un tiempo más rápido de obtención de valor para los clientes. Las avanzadas capacidades de supercomputación de HPE, soportadas por la tecnología de NVIDIA, duplican o triplican el rendimiento del sistema.
“La IA generativa está transformando todos los proyectos industriales y científicos”, dijo Ian Buck, vicepresidente de Hiperescala y HPC en NVIDIA. “La colaboración de NVIDIA con HPE en esta solución de simulación y entrenamiento de IA, impulsada por los Superchips NVIDIA GH200 Grace Hopper, proporcionará a los clientes el rendimiento necesario para lograr innovaciones en sus iniciativas de IA generativa”.
Una solución de IA potente e integrada
La solución de supercomputación para IA generativa es una oferta nativa de IA específicamente diseñada que incluye las siguientes tecnologías y servicios integrales:
- Software de aceleración IA/ML – Un paquete de tres herramientas de software que ayudarán a los clientes a entrenar y optimizar los modelos de IA y desarrollar aplicaciones de IA por sí mismos.
- El entorno de desarrollo de aprendizaje automático de HP es una plataforma de aprendizaje automático (ML) que permite a los clientes desarrollar e implementar más rápido los modelos de IA gracias a que se integra en las estructuras de ML más populares y simplifica la preparación de los datos.
- NVIDIA AI Enterprise acelera el desarrollo de IA innovadora con seguridad, estabilidad, manejabilidad y soporte. Ofrece estructuras extensas, modelos previamente entrenados y herramientas que optimizan el desarrollo e implementación de IA de producción.
- El entorno de programación HPE Cray proporciona a los programadores una serie completa de herramientas para desarrollar, portar, depurar y perfeccionar el código.
- Diseñada para escalar – Basada en el sistema de exascale HPE Cray EX2500 y con Superchips NVIDIA GH200 Grace Hopper líderes en la industria, la solución puede escalar hasta miles de unidades de procesamiento gráfico (GPU), con la habilidad de dedicar la capacidad total de nodos para soportar una sola carga de trabajo de IA y, de esa forma, acelerar el tiempo de obtención de valor. El sistema es el primero en incorporar la configuración de cuádruple nodo del Superchip GH200.
- Una red para IA en tiempo real – HPE Slingshot Interconnect ofrece una red abierta y de alto rendimiento basada en Ethernet diseñada para soportar las cargas de trabajo de exascale. Basada en la tecnología HPE Cray, esta interconexión adaptable impulsa el rendimiento de todo el sistema, ya que permite una red sumamente rápida.
- Simplicidad lista para usarse – La solución está complementada por HPE Complete Care Services, que ofrece especialistas globales para instalación, configuración y soporte de ciclo de vida para simplificar la adopción de IA.
El futuro de la supercomputación y la IA será más sostenible
Se estima que en el año 2028 el crecimiento de las cargas de trabajo de IA requerirá unos 20 gigavatios de energía dentro de los centros de datos. Los clientes precisarán soluciones que brinden un nuevo nivel de eficiencia energética para minimizar el impacto en su huella de carbono.
La eficiencia energética es un aspecto central de las iniciativas informáticas de HPE, que ofrecen soluciones con capacidades de enfriamiento líquido que generan una mejora de rendimiento de hasta el 20% por kilovatio respecto a las soluciones con enfriamiento por aire y consumen el 15% menos de energía.
En la actualidad, HPE provee la mayoría de las 10 supercomputadoras más eficientes del mundo, las cuales utilizan el mismo enfriamiento líquido directo (DLC) que la solución de supercomputación para IA generativa para enfriar los sistemas de manera eficiente y reducir el consumo energético de las aplicaciones con uso informático intensivo.
HPE se encuentra en una posición única para ayudar a las organizaciones a liberar la tecnología informática más potente para cumplir sus objetivos de IA y reducir su consumo energético.
Disponibilidad
La solución de supercomputación para IA generativa estará disponible en diciembre a través de HPE en más de 30 países.