Acordando para Sharon Zhou, executivo-chefe da Laminis
A AMD começou a enviar suas GPUs Instinct MI300X para aplicações de inteligência artificial (IA) e computação de alto desempenho (HPC). Como o nome ‘LamniAI’ indica, a empresa está preparada para usar aceleradores Instinct MI300X da AMD para executar grandes modelos de linguagem (LLMs) para empresas.
Embora a AMD já esteja enviando seus produtos da série Instinct MI300 para seus clientes de supercomputadores há algum tempo e espera que a série se torne seu produto mais rápido, com vendas de US$ 1 bilhão na história, parece que a AMD também iniciou remessas de suas GPUs Instinct MI300X. A LaminiAI já faz parceria com a AMD há algum tempo, então certamente tem acesso prioritário ao hardware da empresa. Ainda assim, este é um marco importante para a AMD, pois é a primeira vez que aprendemos sobre remessas em volume do MI300X. Na verdade, a postagem indicava que LaminiAI obteve várias máquinas baseadas no Instinct MI300X com oito aceleradores cada (8 vias). (Crédito da imagem: Sharon Zhou, CEO da Lamini AI)
“O primeiro AMD MI300X em produção”, escreveu Zhou. “Como o pão recém-assado, 8x MI300X está online. Se você estiver construindo em LLMs abertos e estiver bloqueado na computação, me avise. Todos deveriam ter acesso a esta tecnologia de assistente chamada LLMs. Ou seja, o próximo lote de LaminiAI Os pods LLM estão aqui.” Uma captura de tela publicada por Zhou mostra que um AMD Instinct MI300X de 8 vias está em operação. Enquanto isso, o consumo de energia listado na captura de tela do sistema indica que as GPUs provavelmente estão ociosas para a foto – elas certamente não estão executando cargas de trabalho de computação exigentes. (Crédito da imagem: Sharon Zhou, CEO da Lamini AI)
O Instinct MI300X da AMD é irmão do Instinct MI300A da empresa, a primeira unidade de processamento acelerado de nível de data center do setor com núcleos de CPU x86 de uso geral e processadores de computação altamente paralelos baseados em CDNA 3 para cargas de trabalho de IA e HPC. Ao contrário do Instinct MI300A, o Instinct MI300X não possui núcleos de CPU x86, mas possui mais chips CDNA 3 (para 304 unidades de computação no total, o que é significativamente maior que 228 CUs no MI300A) e, portanto, oferece maior desempenho de computação. Enquanto isso, um Instinct MI300X carrega 192 GB de memória HBM3 (com largura de banda máxima de 5,3 TB/s). Imagem 1 de 2 (Crédito da imagem: AMD) (Crédito da imagem: AMD)
Com base nos números de desempenho demonstrados pela AMD, o Instinct MI300X supera o H100 80GB da Nvidia, que já está disponível e é massivamente implantado por hiperscaladores como Google, Meta (Facebook) e Microsoft. O Instinct MI300X provavelmente também é um concorrente formidável da GPU H200 de 141 GB da Nvidia, que ainda não chegou ao mercado. De acordo com relatórios anteriores, a Meta e a Microsoft estão adquirindo os produtos da série Instinct MI300 da AMD em grandes volumes. Mais uma vez, a LaminiAI é a primeira empresa a confirmar o uso de aceleradores Instinct MI300X na produção.