El devenir del mercado de la IA a lo largo del año 2024 que acabamos de dejar atrás, ha dejado como herencia un momento muy dulce para NVIDIA, que se ha erigido como la gran dominadora en la carrera por la infraestructura de la IA, con más de dos millones de unidades de sus GPUs de la serie Hopper enviadas a grandes clientes, según cifras de Omdia. Sin embargo, y a su sombra, AMD no deja de crecer, especialmente por la adopción de sus aceleradores Instinct MI300 entre usuarios de ámbitos relacionados con el uso y la explotación de modelos de lenguaje grandes.
Este año pasado, Microsoft adquirió aproximadamente 581.000 GPUs, la mayor cifra entre los proveedores de la nube, y una de cada seis unidades llevaba el sello de AMD. En el caso de Meta, Omdia destaca que dicho cliente absorbió una cantidad superior a la de otros usuarios, con 173.000 unidades de AMD frente a 224.000 de NVIDIA. Por su parte, Oracle incorporó aceleradores AMD en el 23% de sus 163.000 envíos totales. A pesar de estas cifras, la cuota total de AMD en el mercado global de GPUs sigue siendo más modesta en comparación con la de NVIDIA, pero el mercado se encuentra en pleno crecimiento, y seguirá así a lo largo de los próximos meses, por lo que hay negocio y crecimiento para todos los jugadores sin perjudicarse entre ellos.
Las estimaciones de Omdia calculan en 327.000 los envíos de la serie MI300X sumando cuatro clientes: Microsoft, Meta, Oracle y el centro de datos de GPU TensorWave. Este ritmo de adopción se considera significativo teniendo en cuenta que las Instinct MI300 llevan apenas un año en el mercado y proceden de la experiencia de AMD en el entorno HPC, donde sus GPUs fueron utilizadas en infraestructuras de gran escala como el superordenador Frontier del Oak Ridge National Laboratory.
Expansión y demanda de hardware personalizado
Mientras AMD recorta distancias, muchos hiperescalares y proveedores de la nube apuestan por su propia tecnología. Meta ha enviado más de 1,5 millones de aceleradores MTIA en 2024, y Amazon realizó pedidos de 900.000 chips Inferentia durante el mismo periodo. Estos semiconductores se dirigen principalmente a aplicaciones de aprendizaje automático con funciones de recomendación y tareas de inferencia.
A la par, Google invirtió en torno a un millón de TPU v5e y 480.000 TPU v5p, utilizadas en desarrollos de lenguaje como sus modelos Gemini y Gemma. Otros proyectos, como los bit barns que manejan grandes granjas de GPUs, también señalan una tendencia a diversificar el suministro. Además, Amazon cuenta con sus Trainium, que sumaron aproximadamente 366.000 unidades en 2024, y Microsoft habría adquirido unas 198.000 unidades de sus aceleradores MAIA enfocados a entrenamiento e inferencia.
Perspectivas del mercado
El sector se ha centrado durante años en la capacidad de NVIDIA para ofrecer un alto rendimiento, pero la competencia de AMD, Intel y los grandes actores de la nube, aumenta de forma gradual. Desde la visión de Omdia, una vez que la cuota supera cierto umbral, resulta complicado continuar creciendo, lo que puede empujar a NVIDIA a expandir el mercado total, en lugar de centrarse en ganar más participación.
La llegada de servicios como NIMs (Inference Microservices) refleja esa estrategia, ya que facilita el consumo de modelos de IA a través de contenedores flexibles. Mientras tanto, Nvidia sigue enfocada en el hardware con iniciativas como la nueva familia Blackwell, que promete notables mejoras en rendimiento y ancho de banda de memoria.
Aunque AMD mantiene un enfoque en capacidades como la ampliación de la memoria y busca fidelizar clientes relevantes, no se vislumbra un cambio drástico en la posición de liderazgo de NVIDIA, por lo menos no a corto plazo.