A Nvidia, que ganhou mais de US$ 10 bilhões em um trimestre com suas GPUs de computação voltadas para datacenters, planeja pelo menos triplicar a produção desses produtos em 2024, de acordo com o Tempos Financeiros, que cita fontes com conhecimento do assunto. A mudança é muito ambiciosa e se a Nvidia conseguir realizá-la e a demanda por seus A100, H100 e outras CPUs de computação para aplicativos de inteligência artificial (IA) e computação de alto desempenho (HPC) permanecer forte, isso pode significar uma receita incrível para a empresa .
A demanda pela GPU de computação H100, carro-chefe da Nvidia, é tão alta que eles estarão esgotados até 2024, relata o FT. A empresa pretende aumentar a produção de seus processadores GH100 em pelo menos três vezes, afirma o site de negócios citando três pessoas familiarizadas com os planos da Nvidia. As remessas projetadas do H100 para 2024 variam entre 1,5 milhão e 2 milhões, marcando um aumento significativo em relação às 500.000 unidades previstas para este ano.
Como a estrutura CUDA da Nvidia é tão bem adaptada para cargas de trabalho de IA e HPC, existem centenas de aplicativos que funcionam apenas nas GPUs de computação da Nvidia. Embora tanto a Amazon Web Services quanto o Google tenham seus próprios processadores de IA personalizados para treinamento de IA e cargas de trabalho de inferência, eles precisam comprar cargas de GPUs de computação da Nvidia, pois seus clientes desejam executar seus aplicativos nelas.
Mas aumentar a oferta de GPUs de computação Nvidia H100, plataforma de supercomputação GH200 Grace Hopper e produtos baseados nelas não será fácil. O GH100 da Nvidia é um processador complexo e bastante difícil de fabricar. Para triplicar sua produção, ela precisa se livrar de vários gargalos.
Em primeiro lugar, a GPU de computação GH100 é uma enorme peça de silício com tamanho de 814 mm^2, por isso é muito difícil de fabricar em grandes volumes. Embora os rendimentos do produto provavelmente sejam razoavelmente altos agora, a Nvidia ainda precisa garantir um grande fornecimento de wafer 4N da TSMC para triplicar a produção de seus produtos baseados em GH100.
Em segundo lugar, o GH100 depende da memória HBM2E ou HBM3 e usa o pacote CoWoS da TSMC, então a Nvidia também precisa garantir o fornecimento nesta frente. No momento, a TSMC está lutando para atender à demanda por embalagens CoWoS.
Em terceiro lugar, como os dispositivos baseados em H100 usam memória HBM2E, HBM3 ou HBM3E, a Nvidia terá que obter pacotes de memória HBM suficientes de empresas como Micron, Samsung e SK Hynix.
Em quarto lugar, as placas de computação H100 ou módulos SXM da Nvidia precisam ser instalados em algum lugar, então a Nvidia precisará garantir que seus parceiros também tripliquem a produção de seus servidores de IA, o que é outra preocupação.