Así son los equipos con los que AMD quiere competir con Nvidia en inteligencia artificial

Compartir:

Durante un evento en Silicon Valley, la presidenta y directora ejecutiva de AMD, Lisa Su, una de las mujeres más poderosas en la industria, tomó el escenario para mostrar el presente, el futuro y evolución de la infraestructura de la inteligencia artificial de la compañía, inclusive con la presencia del creador de Open AI y ChatGPT, Sam Altman acompañándola en el escenario.

Pero además de las presencias y la mirada a un futuro con la IA a la cabeza de todos los procesos, AMD mostró los equipos que le darán vida y aún más poder a la inteligencia artificial generativa que vamos a usar casi todos los días en el futuro cercano, sus nuevos GPU para servidores Instinct MI350 series.

Estas nuevas GPU agrupables de hasta 128 por rack (MI350X y MI355X), y que funcionan, por ejemplo, con los modelos más conocidos como Llama o Deepseek R1, según AMD, podrán ofrecer más de cuatro veces de avance entre generaciones y hasta un 35x de mejora en inferencias, es decir, en la velocidad en la una IA entrenada puede aplicar sus conocimientos.

También sumado a esto llegó ROCm 7.0, la plataforma de software de código abierto de AMD, con mejoras de más de 4x en inferencia y 3x en entrenamiento respecto del ROCm anterior. Estas GPU pueden ofrecer capacidades de memoria de 288GB HBM3E y un ancho de banda de hasta 8TB/s.

Lisa Su, la CEO de AMD, presenta los nuevos equipos para servidores de IA de la compañía

“Con performance de última generación, ancho de banda masivo y una estructura abierta y flexible, vamos a acompañar en la expansión y emprendimientos de los innovadores a lo largo de toda la industria para ir más rápido, escalar inteligentemente y construir lo que se viene. MI355x otorga un 40% más de tokens por dólar que Nvidia B200” dijo Lisa Su: “El mundo de la IA no está desacelerando, y nosotros tampoco.”

Dentro de estas presentaciones, también se anunció la eventual llegada de MI400 para 2026, la evolución de las GPU para IA, que se podrán agrupar miles de chips dentro de la estructura full server rack “Helios” para IA: “Por primera vez vamos a tener un sistema totalmente unificado”, declaró Su.

Esto, junto a la potencia de los CPU EPYC de quinta generación “Turin” posiblemente las CPU más potentes del planeta, y la Ultra Ethernet Pollara 400, son evoluciones que esperan que continúe con la tendencia que presentó la empresa norteamericana durante el evento: “siete de cada 10 de las empresas más grandes en esta industria eligen AMD”, claramente para batallar frente a las tecnologías Blackwell de Nvidia.

Quién también dijo presente fue Sam Altman, creador y CEO de Open AI, la dueña de ChatGPT. Junto a Lisa Su Altman confesó qué pensó cuando ella le contó la potencia de las próximas MI400: “Cuando me contaste las specs, pensé que no había manera de llegar a esos números, era algo loquísimo. Va a ser una locura”.

Lisa Su, la CEO de AMD, junto a Sam Altman, CEO de OpenAI

Altman habló de la evolución de la IA y el cambio en el uso tanto de las empresas como las personas: “Al principio era algo divertido, ahora es algo que la gente ve como útil. Texto, creación de imágenes, razonamiento, todo esto con una adopción realmente rapidísima, una explosión en el último año”, confesó el CEO de Open AI, a lo que agregó: “para estos modelos de razonamiento necesitamos toneladas de CPU y de cómputo. Nuestra infraestructura creció de manera tremenda. Creo que casi toda la potencia generada por la Tierra va a pasar a alimentar los cómputos de la IA en un futuro”, comentó entre irónico y fáctico el creador de ChatGPT, a lo que agregó: “¿Qué se viene en el futuro? Un progreso de la “era GPT”… si vas muy poco para atrás, la gente pensaba que era imposible que una IA trabaje para vos. Para 2030 vamos a tener la capacidad de tener sistemas que harán cosas increíbles, complejas, científicas, cosas inimaginables antes. Pero para esto vamos a necesitar sistemas gigantes y seguir con el crecimiento escalable con una curva que no para de crecer”.

Como comentamos previamente, la llegada de ROCm 7 fue uno de los momentos más celebrados durante el live stream de AMD por los desarrolladores, junto con el anuncio de la AMD Developer Cloud, ahora disponible de manera global para los desarrolladores y la comunidad open-source.

Este ecosistema será totalmente adaptable y dará acceso a GPUs AMD Instinct MI300X en forma remota sin la necesidad de invertir en hardware ni en una configuración específica para desarrollar proyectos, por ejemplo, con IA generativa. Será totalmente adaptable y escalable, y solo será necesario loguearse con Github o una dirección de e-mail.

Una vez dentro, se podrá seleccionar qué sistemas utilizar de los más populares ya preinstalados para minimizar los tiempos de configuración, y aprovechar la flexibilidad de trabajo con opciones escalables como 1x MI300X GPU (192 GB GPU de memoria) o lo grande, 8x MI300X GPUs (1536 GB GPU de memoria).

Además de presentar un roadmap con actualizaciones de GPU para 2025 y lo que se viene en 2026, AMD también habló del futuro de los procesadores EPYC y nuevas generaciones de GPU para 2027, con el foco puesto en el crecimiento y la escalabilidad de cara a 2027 con las CPU “Verano” y las Instinct MI500, pero para conocerlos en profundidad, tendremos que esperar al evento Advancing AI del año que viene.


También puede interesarte

Adiós a la hipótesis del ciberataque

La vulnerabilidad de la red de generación de electricidad y la falta de previsión de algunos CEOs fueron...

IA al servicio de la democracia: el caso de éxito de Data Voices

En un mundo cada vez más polarizado, donde las redes sociales se han convertido en campos...