O boom da IA generativa está impulsionando as vendas de servidores usados para inteligência artificial (IA) e computação de alto desempenho (HPC), e dezenas de empresas se beneficiarão disso. Mas uma empresa provavelmente se beneficiará mais do que outras. Estima-se que a Nvidia venda mais de meio milhão de suas GPUs de computação H100 de ponta no valor de dezenas de bilhões de dólares em 2023, relatórios Financial Times.
A Nvidia deve enviar cerca de 550.000 de suas mais recentes GPUs de computação H100 em todo o mundo em 2023, com a maioria indo para empresas de tecnologia americanas, de acordo com vários especialistas ligados à Nvidia e TSMC que falaram com o Financial Times. A Nvidia optou por não fazer comentários sobre o assunto, o que é compreensível considerando as regras da FTC.
Embora não saibamos a combinação precisa de GPUs vendidas, cada placa de suplemento de GPU de computação Nvidia H100 80GB HBM2E (14.592 núcleos CUDA, 26 FP64 TFLOPS, 1.513 FP16 TFLOPS) é vendida por cerca de $ 30.000 nos EUA No entanto, esta não é a peça baseada na arquitetura Hopper de maior desempenho da empresa. Na verdade, este é o mais barato, pelo menos por enquanto. Enquanto isso, na China, um desses cartões pode custar até US$ 70.000.
As ofertas com tecnologia H100 de ponta da Nvidia incluem o H100 SXM 80GB HBM3 (16.896 núcleos CUDA, 34 FP64 TFLOPS, 1.979 FP16 TFLOPS) e o Solução de cartão duplo H100 NVL 188GB HBM3. Essas peças são vendidas diretamente para fabricantes de servidores como Foxconn e Quanta, ou são fornecidas dentro de servidores que a Nvidia vende diretamente. Além disso, a Nvidia está prestes a lançar sua plataforma GH200 Grace Hopper, que consiste em seu processador Grace de 72 núcleos e uma GPU de computação H100 de 80 GB HBM3E.
A Nvidia não publica os preços de seus produtos H100 SXM, H100 NVL e GH200 Grace Hopper, pois eles dependem do volume e do relacionamento comercial entre a Nvidia e um determinado cliente. Enquanto isso, mesmo que a Nvidia venda cada um dos produtos baseados em H100 por US$ 30.000, isso ainda representaria US$ 16,5 bilhões este ano apenas nas GPUs de computação de última geração. Mas a empresa não vende apenas GPUs de computação da série H100.
Existem empresas que ainda usam GPUs de computação A100 da geração anterior da Nvidia para impulsionar suas implantações existentes sem fazer alterações em seu software e hardware. Existem também os modelos A800 e H800 específicos da China.
Embora não possamos fazer estimativas precisas sobre onde os ganhos da Nvidia com a venda de GPUs de computação chegarão, nem o número preciso de GPUs de computação que a empresa venderá este ano, podemos fazer algumas suposições. O negócio de datacenter da Nvidia gerou US$ 4,284 bilhões no T1 FY2024 (terminado em 30 de abril). Dado o frenesi contínuo da IA, parece que as vendas das GPUs de computação da Nvidia foram maiores no segundo trimestre do ano fiscal de 2024, que terminou no final de julho. Em outras palavras, o ano fiscal completo de 2023 deve ser recorde para a unidade de datacenter da Nvidia.
É digno de nota que a TSMC, parceira da Nvidia, mal consegue atender à demanda por GPUs de computação no momento, já que todas usam embalagens CoWoS e a fundição está lutando para aumentar a capacidade desse método de embalagem de chips. Com inúmeras empresas procurando comprar dezenas de milhares de GPUs de computação para fins de IA, é provável que a oferta não corresponda à demanda por algum tempo.