As primeiras iniciativas de IA da Microsoft trouxeram chips personalizados. No Microsoft Ignite, a conferência da empresa para desenvolvedores parceiros, a Microsoft anunciou dois chips personalizados projetados em seu laboratório de silício em Redmon, Washington: o Acelerador Azure Maia 100 AI e a CPU Azure Cobalt 100. Ambos os chips estão sendo produzidos no “nó de processo mais recente” da TSMC, disse a Microsoft.
Esses chips aparecerão “no início do próximo ano” nos data centers da Microsoft, que começarão executando o Copilot da Microsoft, o Azure OpenAI e outros serviços. Quando questionado sobre quantos chips estarão disponíveis, um porta-voz disse apenas que a Microsoft está nas “primeiras fases de implantação” com “servidores iniciais” online em seus data centers. A empresa ainda oferecerá serviços aos clientes que utilizam chips de parceiros como Nvidia e AMD.
A Microsoft não está divulgando muitos detalhes de especificações, tornando difícil comparar as novas ofertas com as opções da Nvidia e AMD.
Quando questionada sobre mais detalhes, a Microsoft disse Ferragens do Tom que o Maia 100 é fabricado em um processo de 5 nanômetros e possui 105 bilhões de transistores, “tornando-o um dos maiores chips que podem ser fabricados com a tecnologia atual”.
“Os servidores da Maia são projetados com um protocolo de rede totalmente personalizado baseado em Ethernet com largura de banda agregada de 4,8 terabits por acelerador para permitir melhor dimensionamento e desempenho de carga de trabalho ponta a ponta”, acrescentou a Microsoft.
O que sabemos é que o Maia 100 AI Accelerator – uma GPU – foi projetado para modelos de linguagens grandes. A Microsoft diz que a OpenAI “forneceu feedback” sobre os designs do Maia 100.
“Ficamos entusiasmados quando a Microsoft compartilhou pela primeira vez seus projetos para o chip Maia e trabalhamos juntos para refiná-lo e testá-lo com nossos modelos”, afirmou Sam Altman, CEO da OpenAI, na postagem do blog da Microsoft. agace, agora otimizado para silício com Maia, abre caminho para treinar modelos mais capazes e tornar esses modelos mais baratos para nossos clientes.”
Brian Harry, técnico da Microsoft que lidera a equipe Maia, disse que o Maia 100 foi feito especificamente para a infraestrutura existente da Microsoft e que pode “produzir enormes ganhos em desempenho e eficiência”.