Apesar de defender a suspensão do treinamento em IA em todo o setor, Elon Musk deu início a um grande projeto de inteligência artificial no Twitter. A empresa já comprou aproximadamente 10.000 GPUs e recrutou talentos de IA da DeepMind para o projeto que envolve um modelo de linguagem grande (LLM), relata Business Insider.
Uma fonte familiarizada com o assunto afirmou que o projeto de IA de Musk ainda está em sua fase inicial. No entanto, a aquisição de uma quantidade significativa de poder computacional adicional sugere sua dedicação ao avanço do projeto, conforme outro indivíduo. Enquanto isso, o objetivo exato da IA generativa não é claro, mas os aplicativos potenciais incluem melhorar a funcionalidade de pesquisa ou gerar conteúdo de publicidade direcionado.
Neste ponto, não se sabe qual hardware exato foi adquirido pelo Twitter. No entanto, o Twitter supostamente gastou dezenas de milhões de dólares nessas GPUs de computação, apesar dos problemas financeiros contínuos do Twitter, que Musk descreve como uma ‘situação financeira instável’. Espera-se que essas GPUs sejam implantadas em um dos dois data centers restantes do Twitter, sendo Atlanta o destino mais provável. Curiosamente, Musk fechou o principal datacenter do Twitter em Sacramento no final de dezembro, o que obviamente reduziu os recursos de computação da empresa.
Além de comprar hardware de GPU para seu projeto de IA generativa, o Twitter está contratando engenheiros adicionais. No início deste ano, a empresa recrutou Igor Babuschkin e Manuel Kroiss, engenheiros da pesquisa de IA DeepMind, uma subsidiária da Alphabet. Musk tem procurado ativamente talentos na indústria de IA para competir com o ChatGPT da OpenAI desde pelo menos fevereiro.
A OpenAI usou as GPUs A100 da Nvidia para treinar seu bot ChatGPT e continua a usar essas máquinas para executá-lo. Até agora, a Nvidia lançou o sucessor do A100, suas GPUs de computação H100 que são várias vezes mais rápidas com a mesma potência. O Twitter provavelmente usará o Hopper H100 da Nvidia ou hardware semelhante para seu projeto de IA, embora estejamos especulando aqui. Considerando que a empresa ainda não determinou para que seu projeto de IA será usado, é difícil estimar quantas GPUs Hopper ela pode precisar.
Quando grandes empresas como o Twitter compram hardware, eles compram a preços especiais à medida que adquirem milhares de unidades. Enquanto isso, quando compradas separadamente de varejistas como a CDW, as placas H100 da Nvidia podem custar mais de US$ 10.000 por unidade, o que dá uma ideia de quanto a empresa pode ter gasto em hardware para sua iniciativa de IA.