Tesla, Inc., a empresa de energia limpa que trata de mais coisas do que apenas alguns dos carros elétricos mais desejados do mundo, está aparentemente procurando melhorar sua infraestrutura de datacenter. De acordo com um novo Anúncio de emprego no site corporativo da Tesla (descoberto por Elektrek), a empresa está procurando contratar um “Gerente de Programa de Engenharia Sênior, Data Centers”. Essa contratação geralmente é um bom passo para qualquer empresa que planeja operar datacenters construídos em silício personalizado ou proprietário – talvez a Tesla esteja procurando construir um dojo para seus aceleradores Dojo AI?
A posição é baseada em Austin, Texas, onde a empresa possui várias instalações focadas em fabricação e P&D. No entanto, isso não significa que seus efeitos só terão efeito em Austin – especialmente considerando os relatórios de que a Tesla assumiu o controle de alguns datacenters do X (anteriormente Twitter) em Sacramento. Também não está claro se a Tesla está apenas sendo hiperbólica em relação a como esses datacenters serão “os primeiros de seu tipo”. Existem várias maneiras de ajustar essa definição que não envolve tanto trabalho de engenharia quanto seria de esperar.
A Tesla anunciou originalmente seu Dojo D1 (parece que o nome do produto mudou para Dojo V1) em 2021, mesmo quando prometeu aumentar a quantidade de poder de processamento disponível para a empresa treinar seus sistemas de IA autônomos. Na época, esses Dojo ASICs (Application-Specific Integrated-Circuit) deveriam transportar até 50 bilhões de transistores cada, fornecendo cerca de 362 TeraFLOPs de potência por chip personalizado.
Melhoria exponencial chegando ao FSD Beta assim que o Dojo estiver funcionando. pic.twitter.com/iDddgQ0Lzl21 de junho de 2023
Não está claro se a Tesla brincou com o design nesse meio tempo (embora digamos que é provável). O que não está claro, no entanto, é que Elon Musk esclareceu que o navio de primeira geração não incluirá processamento geral de IA e, em vez disso, se concentrará em acelerar o “treinamento em vídeo” para os sistemas de visão computacional da empresa. De acordo com Musk, o V2 do Dojo abordará essas limitações e, eventualmente, se tornará um processador de IA geral completo, não muito diferente do A100, H100, da NVIDIA, e seu sistema de supercomputação DGX GH200.
A Tesla já comprou vários aceleradores de GPU da Nvidia. A empresa já se gabava disso mesmo quando implantou “apenas” 7.360 aceleradores A110. Mas esse número já aumentou; a empresa pretende ter até 100 ExaFLOPs disponíveis até outubro de 2024 (já contando com a implantação de seu supercomputador Dojo).
A Tesla projetando e encomendando seus próprios ASICs personalizados e aceleradores de IA de uso geral devem dar à empresa maior controle sobre os conjuntos de recursos e reduzir o custo total de propriedade (TCO) de seus datacenters. Mas, novamente, todas as empresas que projetam silício atualmente tiram mel do mesmo pote da marca TSMC; e há apenas tanta capacidade para ir ao redor.
Portanto, embora a Tesla provavelmente desfrute de vários benefícios ao projetar e integrar seus próprios sistemas de computação de alto desempenho (HPC), é improvável que Elon Musk encontre menos motivos para reclamar que “todos e seus cachorros” estão comprando GPUs. Existem tantos wafers para distribuir entre o quadro de clientes da TSMC, e a maioria também adoraria permanecer na vanguarda da fabricação.