Atualizar 2023-12-06T18:45:51.125Z (Crédito da imagem: AMD)
Aqui estão algumas das especificações da nova plataforma Instinct MI300X da AMD. O sistema consiste em oito aceleradores MI300X em um sistema. Ele suporta rede de 400 GbE e possui monstruosos 1,5 TB de capacidade total HBM3.
2023-12-06T18:43:30.129Z (Crédito da imagem: AMD)
A conversa voltou-se para diferentes formas de IA e possíveis atualizações evolutivas no futuro.
2023-12-06T18:34:02.781Z (Crédito da imagem: AMD)
Peng agora está conversando com líderes da Databricks, Essential AI e Lamini.
2023-12-06T18:31:47.781Z (Crédito da imagem: AMD)
As GPUs AMD, incluindo o MI300, serão suportadas na distribuição padrão Triton a partir da versão 3.0.
2023-12-06T18:31:05.087Z (Crédito da imagem: AMD)
A AMD continua a trabalhar com líderes da indústria como Hugging Face e PyTorch para expandir o ecossistema de código aberto.
2023-12-06T18:29:19.621Z (Crédito da imagem: AMD)
O ROCm fornece uma melhoria de até 2,6X no vLLM, entre outras otimizações que totalizam uma melhoria de 8X no MI300X em comparação com o ROCm 5 no MI250X (esta não é uma boa comparação).
2023-12-06T18:27:56.519Z (Crédito da imagem: AMD)
O ROCm 6 de próxima geração da AMD será lançado ainda este mês. O suporte para GPUs Radeon continua, mas também possui novas otimizações para MI300.
2023-12-06T18:26:49.594Z (Crédito da imagem: AMD)
Peng falou sobre as vantagens do ecossistema ROCm aberto, em oposição à abordagem proprietária da Nvidia.
2023-12-06T18:25:14.348Z (Crédito da imagem: AMD)
O CTO da AMD, Victor Peng, subiu ao palco para falar sobre os últimos avanços no ROCM, o concorrente de código aberto da AMD para o CUDA da Nvidia.
2023-12-06T18:19:30.617Z (Crédito da imagem: AMD)
Lisa Su exibiu a plataforma AMD Instinct MI300X.
2023-12-06T18:17:17.561Z (Crédito da imagem: AMD)
A Microsoft terá instâncias coud MI300X disponíveis em versão prévia hoje.
2023-12-06T18:16:41.080Z (Crédito da imagem: AMD)
Enquanto eles discutem os detalhes, aqui estão alguns detalhes sobre o MI300.
2023-12-06T18:15:36.797Z (Crédito da imagem: AMD)
O CTO da Microsoft, Kevin Scott, subiu ao palco para conversar com Lisa Su sobre os desafios de construir uma infraestrutura de IA.
2023-12-06T18:14:05.889Z (Crédito da imagem: AMD)
O MI300 oferece paridade de desempenho em treinamento com a Nvidia, mas apresenta as maiores vantagens em inferência. A AMD destaca uma vantagem de 1,6X na inferência.
2023-12-06T18:12:29.505Z (Crédito da imagem: AMD)
A escalabilidade é extremamente importante – o desempenho precisa aumentar linearmente à medida que mais GPUs são empregadas. Aqui a AMD mostra que combina o sistema H100 HGX de oito GPUs da Nvidia com uma plataforma AMD de oito GPUs.
2023-12-06T18:10:49.570Z (Crédito da imagem: AMD)
A AMD afirma ter desempenho até 1,3 vezes maior do que as GPUs H100 da Nvidia em determinadas cargas de trabalho. O slide acima descreve as vantagens de desempenho reivindicadas.
2023-12-06T18:09:44.092Z (Crédito da imagem: AMD)
O Instinct MI300 é um design revolucionário – a APU do data center combina um total de 13 chips, muitos deles empilhados em 3D, para criar um chip com vinte e quatro núcleos de CPU Zen 4 fundidos com um mecanismo gráfico CDNA 3 e 8 pilhas do HBM3. No geral, o chip pesa 146 bilhões de transistores, tornando-o o maior chip que a AMD colocou em produção.
2023-12-06T18:09:31.823Z (Crédito da imagem: AMD)
O MI300 possui 150 bilhões de transistores. 128 canais de HBM3, Infinity Fabric de quarta geração e oito chips de GPU CDNA 3.
2023-12-06T18:07:56.095Z (Crédito da imagem: AMD)
Lisa Su disse que a disponibilidade de hardware GPU é a maior barreira, e agora a empresa está ajudando a resolver isso com o lançamento de seus aceleradores Instinct MI300. A nova arquitetura CDNA 3 oferece enormes ganhos de desempenho em vários aspectos.
2023-12-06T18:06:11.580Z (Crédito da imagem: AMD)
A AMD está atualmente focada em derrubar as barreiras à adoção de IA e em cooperar com seus parceiros para desenvolver novas soluções.
2023-12-06T18:04:37.678Z (Crédito da imagem: AMD)
A IA generativa exigirá investimentos significativos para atender às necessidades de cargas de trabalho de treinamento e inferência. Há um ano, a AMD previu um TAM de US$ 150 bilhões para cargas de trabalho de IA até 2027. Agora, a AMD revisou essa estimativa para US$ 400 bilhões em 2027.
2023-12-06T18:02:50.599Z
A CEO da AMD, Lisa Su, subiu ao palco. Ela abriu a apresentação relembrando o lançamento do ChatGPT há apenas um ano e o impacto explosivo que teve no mundo.
2023-12-06T17:59:59.643Z
A AMD começou a exibir suas advertências na tela, então o show está prestes a começar.