Lisa Su muestra un chip ADM Instinct M1300 mientras pronuncia un discurso de apertura en CES 2023 en The Venetian Las Vegas el 4 de enero de 2023 en Las Vegas, Nevada.
David Becker | imágenes falsas
MetaOpenAI y microsoft dijo en un AMD evento para inversores el miércoles utilizarán el chip AI más nuevo de AMD, el Instinct MI300X. Es la señal más importante hasta ahora de que las empresas de tecnología están buscando alternativas a los costosos procesadores gráficos Nvidia, que han sido esenciales para crear e implementar programas de inteligencia artificial como ChatGPT de OpenAI.
Si el último chip de alta gama de AMD es lo suficientemente bueno para las empresas de tecnología y proveedores de servicios en la nube que crean y ofrecen modelos de IA cuando comience a distribuirse a principios del próximo año, podría reducir los costos de desarrollo de modelos de IA y ejercer presión competitiva sobre las crecientes ventas de chips de IA de Nvidia. crecimiento.
“Todo el interés está en los grandes hardware y las grandes GPU para la nube”, dijo el miércoles la directora ejecutiva de AMD, Lisa Su.
AMD dice que el MI300X se basa en una nueva arquitectura, lo que a menudo conduce a importantes mejoras de rendimiento. Su característica más distintiva es que tiene 192 GB de un tipo de memoria de vanguardia y alto rendimiento conocida como HBM3, que transfiere datos más rápido y puede adaptarse a modelos de IA más grandes.
En un evento para analistas el miércoles, la directora ejecutiva Lisa Su comparó directamente su Instinct MI300X y los sistemas construidos con él con la principal GPU AI de Nvidia, la H100.
“Lo que hace este rendimiento es que se traduce directamente en una mejor experiencia de usuario”, afirmó Su. “Cuando le preguntas algo a un modelo, te gustaría que te respondiera más rápido, especialmente cuando las respuestas se vuelven más complicadas”.
La principal pregunta que enfrenta AMD es si las empresas que han estado construyendo sobre Nvidia invertirán tiempo y dinero para agregar otro proveedor de GPU. “Se necesita trabajo para adoptar AMD”, dijo Su.
AMD dijo el miércoles a inversores y socios que había mejorado su paquete de software llamado ROCm para competir con el software CUDA estándar de la industria de Nvidia, abordando una deficiencia clave que había sido una de las principales razones por las que los desarrolladores de IA prefieren actualmente Nvidia.
El precio también será importante: AMD no reveló el precio del MI300X el miércoles, pero el de Nvidia puede costar alrededor de $40,000 por un chip, y Su dijo a los periodistas que el chip de AMD tendría que costar menos para comprar y operar que Nvidia para poder convencer. clientes para comprarlo.
¿Quién dice que serán el MI300X?
Acelerador AMD MI300X para inteligencia artificial.
El miércoles, AMD dijo que ya había inscrito a algunas de las empresas más ávidas de GPU para utilizar el chip. Meta y Microsoft fueron los dos mayores compradores de GPU Nvidia H100 en 2023, según un informe reciente de la firma de investigación Omidia.
Meta dijo que utilizará las GPU Instinct MI300X para cargas de trabajo de inferencia de IA, como procesar pegatinas de IA, editar imágenes y operar su asistente. El CTO de Microsoft, Kevin Scott, dijo que ofrecería acceso a los chips MI300X a través de su servicio web Azure. OráculoLa nube también utilizará los chips.
OpenAI dijo que admitiría GPU AMD en uno de sus productos de software llamado Triton, que no es un modelo de lenguaje tan grande como GPT, pero se utiliza en la investigación de IA para acceder a las funciones del chip.
AMD aún no pronostica ventas masivas para el chip, solo proyecta alrededor de $ 2 mil millones en ingresos totales de GPU para centros de datos en 2024. Nvidia informó más de $ 14 mil millones en ventas de centros de datos solo en el trimestre más reciente, aunque esa métrica incluye otros chips además GPU.
Sin embargo, AMD dice que el mercado total de GPU de IA podría ascender a 400 mil millones de dólares en los próximos cuatro años, duplicando la proyección anterior de la compañía, lo que muestra cuán altas se han vuelto las expectativas y cuán codiciados se han vuelto los chips de IA de alta gama, y por qué la compañía ahora se está enfocando en atención de los inversores en la línea de productos. Su también sugirió a los periodistas que AMD no cree que necesite vencer a Nvidia para tener un buen desempeño en el mercado.
“Creo que está claro que Nvidia tiene que ser la gran mayoría en este momento”, dijo Su a los periodistas, refiriéndose al mercado de chips de IA. “Creemos que podrían ser más de 400 mil millones de dólares en 2027. Y podríamos obtener una buena parte de eso”.