Após rumores de que o governo dos EUA pode proibir as vendas de GPUs de computação de ponta para a China, o preço dos chips A800 da Nvidia no mercado chinês aumentou consideravelmente. O preço saltou 20% em apenas duas semanas, de acordo com um relatório da DigiTimes.
O preço padrão da GPU de computação A800 da Nvidia no fator de forma PCIecard era de cerca de CNY90.000 (US$ 12.400) por unidade há apenas duas semanas. No momento, o preço está se aproximando de CNY110.000 (US$ 15.000) por unidade, o que representa um aumento de 20%.
A questão dos preços inflacionados dos chips, juntamente com a escassez premente de poder computacional na China, chamaram a atenção na Conferência Mundial de Inteligência Artificial 2023. A aquisição de chips de IA de ponta por meio de rotas oficiais na China tornou-se cada vez mais difícil. E, como resultado, as empresas de tecnologia chinesas que precisam de poder de computação recorreram à utilização de serviços de computação em nuvem fornecidos por empresas como Amazon AWS e Microsoft Azure. Esses serviços são normalmente usados para grandes tarefas de treinamento de modelo de linguagem, com data centers situados em Cingapura ou na China.
Chen Pei, vice-presidente da Vibranium Consulting, afirmou que o aluguel de poder computacional de GPU em nuvem é notavelmente mais caro do que construir clusters de computação de GPU próprios, com preços para grandes provedores de nuvem oscilando em torno de US$ 2 a US$ 3 por hora por GPU. Ecoando isso, Sun Jin, da CloudWalk Technology, uma empresa chinesa de IA e visão computacional, revelou que as empresas chinesas muitas vezes não têm outra opção a não ser arcar com os altos custos do aluguel de poder de computação em nuvem. Isso ocorre apesar desses custos serem 50-100% maiores do que estabelecer seus próprios datacenters.
No entanto, a capacidade dos fornecedores chineses de continuar usando serviços de computação em nuvem baseados nos EUA, como AWS e Azure, no futuro é incerta, pois isso dependerá das medidas regulatórias tomadas pelo governo dos EUA, que podem envolver a necessidade de licenças ou mesmo uma proibição total.
A indústria de computação da China enfrenta vários desafios significativos, incluindo o processo demorado de construção de clusters de computação de IA, dificuldades na aquisição de chips de IA de ponta do exterior e escassez de chips de IA produzidos internamente, como o BR104 e o BR100 da Biren. À luz das limitações potenciais no acesso ao poder de computação em nuvem da Europa e dos EUA, há uma expectativa crescente de que os fabricantes chineses de semicondutores se concentrem apenas em refinar seus processos de fabricação de chips e fazer progressos progressivos na inovação de software.
Linha 0 – Célula 0 | BR104 de dois | Nvidia A800 | Nvidia A100 | Nvidia H100 |
Fator de forma | Cartão FHFL | Cartão FHFL (?) | SXM4 | SXM5 |
Contagem de transistores | ? | 54,2 bilhões | 54,2 bilhões | 80 bilhões |
Nó | N7 | N7 | N7 | 4N |
Poder | 300W | ? | 400W | 700W |
FP32 TFLOPS | 128 | 13.7 (?) | 19.5 | 60 |
TF32+ TFLOPS | 256 | ? | ? | ? |
TF32 TFLOPS | ? | 109/218* (?) | 156/312* | 500/1000* |
FP16 TFLOPS | ? | 56 (?) | 78 | 120 |
Tensor FP16 TFLOPS | ? | 218/437* | 312/624* | 1000/2000* |
BF16 TFLOPS | 512 | 27 | 39 | 120 |
Tensor BF16 TFLOPS | ? | 218/437* | 312/624* | 1000/2000* |
INT8 | 1024 | ? | ? | ? |
Tensor INT8 TFLOPS | ? | 437/874* | 624/1248* | 2000/4000* |