Para manter o fornecimento constante de seus produtos, a Nvidia garantiu o fornecimento de memória HBM3 e pré-compra a capacidade de wafer e de empacotamento da TSMC. De acordo com a publicação coreana Chosun Business, a empresa comprou antecipadamente mais de US$ 1,3 bilhão em memória HBM3 da Micron e SK Hynix.
Para seus próximos lançamentos de 2024 de AI e GPU HPC, a Nvidia está lançando dois produtos com memória HBM3E: a GPU H200 AI e HPC com 141 GB de HBM3E e a plataforma GH200 com uma CPU Grace e uma GPU H200 equipada com 141 GB de memória HBM3E. Com a demanda por esses dispositivos, comprar com antecedência faz muito sentido para a Nvidia.
Além disso, os pagamentos antecipados feitos pela Nvidia à Micron e SK Hynix variaram entre 700 bilhões a 1 trilhão de won coreanos (cerca de US$ 540 a US$ 770 milhões), visando garantir um fornecimento constante de memória HBM3E para seus futuros produtos.
Com a demanda crescente no mercado de hardware de IA em 2024, a Nvidia busca fortalecer sua posição, garantindo um fornecimento constante de memória para seus produtos. Resta saber se os fornecedores como Micron, SK Hynix e Samsung terão capacidade suficiente para atender à demanda não apenas da Nvidia, mas também de outros desenvolvedores de soluções de IA e HPC.