Novos superchips da Nvidia prometem avanços na computação de IA
A Nvidia anunciou a linha de produtos H200 e GH200 na Supercomputing 23 esta manhã. Esses são os chips mais poderosos que a Nvidia já criou, baseados na arquitetura Hopper H100 existente, mas adicionando mais memória e mais computação. Eles foram criados para alimentar a futura geração de supercomputadores de IA, com mais de 200 exaflops de computação de IA programados para ficarem online em 2024. Vamos nos aprofundar nos detalhes.
GPU H200
A GPU H200 é talvez a verdadeira estrela do show. A Nvidia não forneceu uma análise detalhada de todas as especificações, mas o ponto principal parece ser um aumento significativo na capacidade de memória e largura de banda por GPU.
O H200 atualizado possui um total de 141 GB de memória HBM3e, rodando a 4,8 Gbps, para uma largura de banda total efetiva de 4,8 TB/s por GPU. Isso é uma grande melhoria em relação ao H100 original, que tinha 80 GB de HBM3 e 3,35 TB/s de largura de banda.
O desempenho bruto da computação não parece ter mudado muito, mas para certas cargas de trabalho específicas, o H200 oferece um desempenho significativamente maior em comparação ao H100.
Superchip GH200
Naturalmente, este não é apenas um anúncio da GPU H200 atualizada. Há também um novo GH200 em desenvolvimento, que combina a GPU H200 com a CPU Grace. Cada “superchip” GH200 conterá 624 GB de memória combinada.
O GH200 será compatível com os sistemas H100 DGX existentes, e a Nvidia espera que esses novos superchips alimentem mais de 200 exaflops de desempenho computacional de IA nos próximos anos.