Tendo alcançado US$ 14,5 bilhões em vendas de hardware de datacenter no terceiro trimestre do ano fiscal de 2024, a Nvidia claramente vendeu uma grande quantidade de suas GPUs H100 para inteligência artificial (IA) e computação de alto desempenho (HPC). Omdia diz que a Nvidia vendeu quase meio milhão de GPUs A100 e H100, e a demanda por esses produtos é tão alta que o prazo de entrega dos servidores baseados em H100 é de 36 a 52 semanas.
A Omdia, uma empresa de monitoramento de mercado, acredita que Meta e Microsoft são os maiores compradores das GPUs H100 da Nvidia. Eles adquiriram até 150 mil GPUs H100 cada, consideravelmente mais do que o número de processadores H100 adquiridos pelo Google, Amazon, Oracle e Tencent (50 mil cada). Vale ressaltar que a maioria das GPUs de servidores são fornecidas para provedores de serviços de nuvem em hiperescala. OEMs de servidores (Dell, Lenovo, HPE) ainda não conseguem obter GPUs de IA e HPC suficientes para atender seus pedidos de servidores, afirma Omdia.
A empresa de análise acredita que as vendas das GPUs de computação H100 e A100 da Nvidia ultrapassarão meio milhão de unidades no quarto trimestre de 2023. Enquanto isso, a demanda por H100 e A100 é tão forte que o prazo de entrega dos servidores GPU é de até 52 semanas. Enquanto isso, Omdia afirma que as remessas de servidores para 2023 apresentam tendência entre -17% e -20% ano após ano, enquanto a receita de servidores para 2023 apresenta tendência entre +6% e +8% ano após ano.
Enquanto isso, deve-se notar que praticamente todas as empresas que compram GPUs H100 da Nvidia em grandes quantidades também estão desenvolvendo silício personalizado para IA, HPC e cargas de trabalho de vídeo. Como resultado, suas compras de hardware Nvidia provavelmente diminuirão com o tempo, à medida que transitam para seus próprios chips.
Enquanto isso, olhando para 2027, o valor do mercado de servidores é estimado em impressionantes US$ 195,6 bilhões. Esta trajetória de crescimento é alimentada pela mudança para servidores adaptados para aplicações específicas com uma gama diversificada de coprocessadores. Os exemplos incluem os servidores da Amazon dedicados à inferência de IA, que possuem 16 coprocessadores Inferentia 2, e os servidores de transcodificação de vídeo do Google, equipados com 20 VCUs personalizados. A Meta também seguiu o exemplo com servidores equipados com 12 processadores personalizados para processamento de vídeo. Esta inclinação para configurações de servidor personalizadas e otimizadas para aplicativos está definida para se tornar a norma à medida que a relação custo-benefício da construção de processadores especializados for alcançada, com mídia e IA sendo os atuais líderes e outros setores como gerenciamento de banco de dados e serviços web deverão se juntar ao movimento.