AMD presenta su visión para un ecosistema abierto de IA

AMD impulsa todo el espectro de la IA, reuniendo GPUs, CPUs, redes y software abierto líderes para ofrecer flexibilidad y rendimiento incomparables
AMD presentó su visión completa para una plataforma de IA totalmente integrada y anunció una innovadora infraestructura abierta y escalable para inteligencia artificial, diseñada sobre estándares de la industria, durante su evento Advancing AI 2025.
AMD y sus socios destacaron:
- Cómo están construyendo el ecosistema abierto de IA con los nuevos aceleradores AMD Instinct™ Serie MI350.
- El continuo crecimiento del ecosistema AMD ROCm™.
- Los potentes diseños abiertos de AMD a escala de rack y su roadmap que promete un rendimiento líder en IA más allá de 2027.
“AMD está impulsando la innovación en IA a un ritmo sin precedentes, como lo demuestra el lanzamiento de nuestros aceleradores Instinct Serie MI350, los avances en nuestras soluciones de próxima generación ‘Helios’ a escala de rack y el creciente impulso de nuestra pila de software abierto ROCm”, dijo la Dra. Lisa Su, presidenta y CEO. “Estamos entrando en la próxima fase de la IA, impulsada por estándares abiertos, innovación compartida y el liderazgo cada vez mayor en un amplio ecosistema de socios de hardware y software que están colaborando para definir el futuro de la IA”.
AMD ofrece soluciones líderes para acelerar un ecosistema abierto de IA
AMD anunció un amplio portafolio de hardware, software y soluciones para impulsar todo el espectro de la IA:
- AMD presentó los GPUs Instinct Serie MI350, estableciendo un nuevo estándar en rendimiento, eficiencia y escalabilidad para la IA generativa y la computación de alto rendimiento. La Serie MI350, que incluye los modelos Instinct MI350X y MI355X, ofrece un aumento[1] de 4x en capacidad de cómputo de IA en comparación con la generación anterior y un salto generacional de 35x en inferencia, abriendo camino a soluciones transformadoras de IA en diversas industrias. Además, el MI355X proporciona importantes mejoras en relación costo-rendimiento, generando hasta un 40% más de tokens por dólar en comparación con soluciones competidoras. Más detalles
- AMD demostró su infraestructura de IA a escala de rack de extremo a extremo, ya implementada con los aceleradores Instinct Serie MI350, procesadores AMD EPYC™ de 5ª generación y las NICs Pensando™ Pollara en despliegues de hiperescala como Oracle Cloud Infrastructure (OCI). Esta solución estará disponible en la segunda mitad de 2025.
- AMD también presentó un adelanto de su próxima generación de racks de IA, denominada «Helios». Este estará construido con los GPUs de próxima generación Instinct Serie MI400, que se espera ofrezcan hasta 10x más rendimiento en la ejecución de inferencias en modelos Mixture of Experts en comparación con la generación anterior. Además, incluirá los procesadores AMD EPYC «Venice» basados en la arquitectura «Zen 6» y las NICs AMD Pensando «Vulcano». Más detalles
- La última versión de la pila de software de IA de código abierto de AMD, ROCm 7, ha sido diseñada para satisfacer las crecientes demandas de la IA generativa y las cargas de trabajo de computación de alto rendimiento, al mismo tiempo que mejora significativamente la experiencia de los desarrolladores en todos los aspectos. ROCm 7 incluye soporte mejorado para marcos estándar de la industria, compatibilidad ampliada con hardware y nuevas herramientas de desarrollo, controladores, APIs y bibliotecas destinadas a acelerar el desarrollo y la implementación de IA.
- Instinct Serie MI350 superó el objetivo de AMD a cinco años de mejorar la eficiencia energética en el entrenamiento de IA y los nodos de computación de alto rendimiento en 30x, logrando finalmente una mejora de 38x. Además, AMD presentó un nuevo objetivo para 2030: aumentar 20x la eficiencia energética a escala de rack tomando como referencia el año base 2024. Esto permitirá que un modelo típico de IA, que hoy requiere más de 275 racks para ser entrenado, pueda hacerlo en menos de un solo rack completamente utilizado para 2030, utilizando un 95% menos de electricidad
- AMD también anunció la amplia disponibilidad de AMD Developer Cloud para las comunidades globales de desarrolladores y de código abierto. Diseñada específicamente para el desarrollo rápido y de alto rendimiento en IA, esta plataforma ofrecerá a los usuarios acceso a un entorno en la nube completamente gestionado, con herramientas y flexibilidad para iniciar proyectos de IA y escalarlos sin límites. Con ROCm 7 y Developer Cloud, la compañía está eliminando barreras y ampliando el acceso a la computación de próxima generación. Colaboraciones estratégicas con líderes como Hugging Face, OpenAI y Grok están demostrando el poder de soluciones abiertas y co-desarrolladas.
Ecosistema de socios líderes destaca los avances en IA impulsados por AMD
Actualmente, siete de las 10 principales empresas de desarrollo de modelos y compañías de IA están ejecutando cargas de trabajo de producción en aceleradores Instinct. Entre estas empresas se encuentran Meta, OpenAI, Microsoft y xAI, quienes se unieron a AMD y otros socios en el evento Advancing AI para discutir cómo están colaborando con AMD en soluciones de IA para entrenar los modelos de IA más avanzados de la actualidad, potenciar la inferencia a gran escala y acelerar la exploración y el desarrollo de IA:
- Meta detalló cómo el Instinct MI300X está ampliamente implementado para la inferencia de Llama 3 y Llama 4. Meta expresó su entusiasmo por el MI350, destacando su capacidad de cómputo, rendimiento por TCO (costo total de propiedad) y memoria de próxima generación. Meta continúa colaborando estrechamente con AMD en roadmaps de IA, incluyendo planes para la plataforma Instinct Serie MI400.
- El CEO de OpenAI, Sam Altman, habló sobre la importancia de optimizar de manera integral el hardware, el software y los algoritmos, así como de la estrecha colaboración de OpenAI con AMD en infraestructura de IA, con investigaciones y modelos GPT en producción sobre Azure utilizando MI300X, además de una colaboración profunda en el diseño de las plataformas de la Serie MI400.
- Oracle Cloud Infrastructure (OCI) se encuentra entre los primeros líderes de la industria en adoptar la infraestructura abierta de IA a escala de rack de AMD con GPUs Instinct MI355X. OCI aprovecha los CPUs y GPUs de para ofrecer un rendimiento equilibrado y escalable en clústeres de IA, y anunció que ofrecerá clústeres de IA a escala zetta acelerados por los últimos procesadores Instinct, con hasta 131,072 GPUs MI355X, permitiendo a los clientes construir, entrenar e inferir IA a gran escala.
- HUMAIN habló sobre su acuerdo histórico con AMD para construir una infraestructura de IA abierta, escalable, resiliente y rentable, aprovechando todo el espectro de plataformas de cómputo que solo la compañía puede proporcionar.
- Microsoft anunció que el Instinct MI300X ahora está impulsando modelos tanto propietarios como de código abierto en producción en Azure.
- Cohere compartió que sus modelos Command, de alto rendimiento y escalables, están implementados en el Instinct MI300X, proporcionando inferencia de LLM de nivel empresarial con alto rendimiento, eficiencia y privacidad de datos.
- Red Hat describió cómo su colaboración ampliada con AMD permite entornos de IA listos para producción, con GPUs Instinct en Red Hat OpenShift AI, ofreciendo procesamiento de IA potente y eficiente en entornos híbridos de nube.
- Astera Labs destacó cómo el ecosistema abierto UALink acelera la innovación y ofrece mayor valor a los clientes, además de compartir planes para ofrecer un portafolio integral de productos UALink para respaldar la infraestructura de IA de próxima generación.
- Marvell se unió a AMD para resaltar su colaboración como parte del Consorcio UALink, desarrollando una interconexión abierta que brinda la máxima flexibilidad para la infraestructura de IA.