Nvidia disse que seu superchip Grace Hopper GH200 com sua própria CPU baseada em Arm e GPU baseada em Hopper para inteligência artificial (IA) e computação de alto desempenho (HPC) alimenta Júpiter, o primeiro supercomputador ExaFLOPS da Europa hospedado nas instalações de Forschungszentrum Jülich na Alemanha. A máquina pode ser usada tanto para simulações quanto para cargas de trabalho de IA, o que a diferencia da grande maioria dos supercomputadores instalados atualmente. Além disso, a Nvidia disse que seu GH200 alimenta 40 supercomputadores em todo o mundo e seu desempenho combinado é de cerca de 200 ExaFLOPS ‘AI’.
O supercomputador Júpiter é alimentado por quase 24.000 chips GH200 com 2,3 TB de memória HBM3E no total, interconectados usando rede Quantum-2 InfiniBand e resfriado usando a tecnologia de refrigeração líquida BullSequana XH3000 da Eviden. A máquina oferece 1 ExaFLOPS de desempenho FP64 para simulações, incluindo modelagem climática e meteorológica, ciência de materiais, descoberta de medicamentos, engenharia industrial e computação quântica. Além disso, a máquina pode fornecer impressionantes 90 ExaFLOPS de desempenho de IA para treinamento de grandes modelos de linguagem e cargas de trabalho semelhantes. Tudo isso será alimentado por soluções de software da Nvidia como Earth-2, BioNeMo, Clara, cuQuantum, Modulus e Omniverse.
Cada nó dentro do supercomputador Júpiter é uma potência por si só, com 288 núcleos Arm Neoverse e quatro GPU H200 para cargas de trabalho de IA e HPC e é capaz de atingir notáveis 16 PetaFLOPS de desempenho de IA. Os superchips GH200 são interconectados usando a conexão NVLink da Nvidia, embora a Nvidia não tenha divulgado a largura de banda total desta interconexão.
“No coração de Júpiter está a plataforma de computação acelerada da NVIDIA, tornando-a um sistema inovador que revolucionará a pesquisa científica”, disse Thomas Lippert, diretor do Centro de Supercomputação Jülich. “Jupiter combina IA em exascale e HPC em exascale com o melhor ecossistema de software de IA do mundo para impulsionar o treinamento de modelos fundamentais a novos patamares.”
Embora Júpiter seja um sistema notável – no final das contas, esta é a primeira máquina ExaFLOPS da Europa – não é o único supercomputador baseado no GH200. A Universidade de Bristol, em particular, está construindo um supercomputador com mais de 5.000 GH200 com 141GB HBM3E, com o objetivo de ser o mais poderoso do Reino Unido. O Grace Hopper GH 200 da Nvidia será usado em mais de 40 supercomputadores em todo o mundo construídos por empresas como Dell, HPE e Lenovo. O desempenho combinado desses sistemas será de cerca de 200 AI ExaFLOPS.
A HPE, por exemplo, usará o superchip Grace Hopper GH200 da Nvidia em seus supercomputadores HPE Cray EX2500. Essas máquinas podem ser ampliadas massivamente, usando milhares de chips GH200, o que significa um treinamento de modelo de IA mais rápido e eficiente.
O GH200 da Nvidia também estará disponível na ASRock Rack, Asus, Gigabyte e Ingrasys até o final do ano. A Nvidia também planeja oferecer acesso gratuito ao GH200 por meio de seu programa LaunchPad, disponibilizando esta poderosa tecnologia para mais pessoas.