A postagem recente nas redes sociais do escritor sênior de Barron Tae Kim estima que a Nvidia está obtendo até 1.000% de lucro para cada acelerador de GPU H100 que vende. Em termos de dólares, isso significa que o preço de rua da Nvidia de cerca de US$ 25.000 a US$ 30.000 para cada um desses aceleradores de computação de alto desempenho (HPC) (para a versão PCIe mais barata) cobre mais do que o custo estimado de US$ 3.320 por chip e periférico (incluído). placa) componentes. Como os surfistas lhe dirão, não há nada como surfar uma onda sem nenhuma outra prancha à vista.
Kim cita o custo estimado de US$ 3.320 para cada chip H100 como proveniente de uma empresa de consultoria financeira. Raymond James. No entanto, não está claro o quão profunda é essa análise de custo: se for uma questão de custo de fabricação puro (média do preço por wafer e outros componentes levando em consideração os rendimentos), ainda há uma margem de despesa significativa para a Nvidia cobrir com cada das suas vendas.
O desenvolvimento de produtos leva tempo e recursos; e considerando os engenheiros e outros participantes no ciclo de vida de desenvolvimento de um produto como o H100, os custos de P&D da Nvidia também devem ser levados em consideração antes que um custo médio final de desenvolvimento de produto possa ser alcançado. De acordo com a Glassdoor, o salário médio da Nvidia para um engenheiro de hardware eletrônico fica em torno de US$ 202.000 por ano. E isso é para um único engenheiro – é provável que o desenvolvimento de chips como o H100 exija milhares de horas de vários trabalhadores especializados. Tudo isso também deve ser levado em consideração.
Mesmo assim, não se pode negar que há vantagens em ser a empresa-propaganda para cargas de trabalho de aceleração de IA. Ao que tudo indica, as GPUs da Nvidia estão saindo das prateleiras sem nem mesmo se familiarizar com os racks em que estão empilhadas. Este artigo em particular parece ser o playground definitivo para qualquer um que esteja tentando entender exatamente o que significa a logística por trás do boom da IA HPC. O que isso realmente significa, no entanto, é que parece que os pedidos de produtos de aceleração de IA da Nvidia estão já vendido através até 2024. E com as expectativas de que o mercado de aceleradores de IA valha cerca de US$ 150 bilhões até 2027, aparentemente não há mais nada no futuro além do verde.
E, claro, esse boom é melhor para alguns do que para outros: devido ao crescente interesse em servidores AI em comparação com as instalações HPC mais tradicionais, os fabricantes de DDR5 tiveram que revisar suas expectativas sobre o quanto os novos produtos de memória penetrarão no mercado. Agora, espera-se que a adoção do DDR5 apenas atingiu a paridade com DDR4 até 3T 2024.
A empresa está colhendo os benefícios de ter construído sua infraestrutura e pilha de produtos com base em suas ferramentas e aposta na IA como a próxima grande novidade.
Mas os orçamentos em todos os lugares tendem a ter limites, e também há a questão do custo de oportunidade: investir na aceleração da IA em seus preços atuais fechará as portas de alguns jogadores para investimentos em outros espaços ou limitará os riscos que eles podem correr em buscas menos seguras. locais de pesquisa e desenvolvimento.
Quando tudo estiver dito e feito, os resultados da Nvidia, impulsionados por suas vendas de chips de IA, agora podem cobrir quantidades inúteis de jaquetas de couro. Pelo menos dessa perspectiva, o CEO da Nvidia, Jensen Huang, deve estar sorrindo para a esquerda e para a direita.