Elon Musk confirmou que suas empresas Tesla e Twitter estavam comprando toneladas de GPUs quando solicitado a confirmar se ele estava desenvolvendo as proezas de computação do Twitter para desenvolver um projeto de inteligência artificial generativa. Enquanto isso, o Financial Times relatórios (abre em nova aba) que o empreendimento de IA de Musk será uma entidade separada de suas outras empresas, mas pode usar o conteúdo do Twitter para treinamento.
O projeto de IA de Elon Musk, que ele começou a explorar no início deste ano, é supostamente separado de suas outras empresas, mas poderia usar o conteúdo do Twitter como dados para treinar seu modelo de linguagem e explorar os recursos de computação da Tesla, de acordo com Financial Times. Isso contradiz um pouco o relatório anterior, que afirmava que o projeto de IA faria parte do Twitter.
Para construir o novo projeto, Musk está recrutando engenheiros das principais empresas de IA, incluindo a DeepMind, e já trouxe Igor Babuschkin da DeepMind e aproximadamente meia dúzia de outros especialistas em IA.
Musk também está negociando com vários investidores da SpaceX e da Tesla sobre a possibilidade de financiar seu mais recente empreendimento de IA, de acordo com um indivíduo com conhecimento em primeira mão sobre as negociações, o que pode confirmar que o projeto não deve fazer parte do Twitter.
Em uma entrevista recente no Twitter Spaces, Musk foi questionado sobre um relatório alegando que o Twitter havia adquirido aproximadamente 10.000 GPUs de computação da Nvidia. Musk reconheceu isso afirmando que todos, incluindo Tesla e Twitter, estão comprando GPUs para computação e IA atualmente. Isso é verdade, pois tanto a Microsoft quanto a Oracle adquiriram dezenas de milhares de GPUs A100 e H100 da Nvidia nos últimos trimestres para seus serviços de IA e nuvem.
“Parece que todos e seus cachorros estão comprando GPUs neste momento”, disse Musk. “Twitter e Tesla certamente estão comprando GPUs.”
As mais recentes GPUs H100 da Nvidia para IA e computação de alto desempenho (HPC) são bastante caras. A CDW vende a placa PCIe H100 da Nvidia com 80 GB de memória HBM2e por até $ 30.603 por unidade. No Ebay, essas coisas são vendidas por mais de $ 40.000 por unidade, se alguém quiser esse produto rapidamente.
Recentemente a Nvidia lançou seu ainda mais poderoso produto H100 NVL que liga duas placas H100 PCIe com 96 GB de memória HBM3 em cada uma para uma solução definitiva de 188 GB de GPU dupla projetada especificamente para treinamento de modelos de linguagem grandes. Este produto certamente custará bem acima de $ 30.000 por unidade, embora não esteja claro a que preço a Nvidia vende essas unidades para clientes que compram dezenas de milhares de placas para seus projetos LLM.
Enquanto isso, a posição exata da equipe de IA no império corporativo de Musk permanece obscura. O renomado empresário estabeleceu uma empresa chamada X.AI em 9 de março, informou o Financial Times citando registros comerciais de Nevada. Enquanto isso, ele recentemente mudou o nome do Twitter nos registros da empresa para X Corp., o que pode ser parte de sua trama para construir um ‘aplicativo para tudo’ sob a marca ‘X’. Musk é atualmente o único diretor da X.AI, enquanto Jared Birchall, que por acaso administra a fortuna de Musk, está listado como seu secretário.
O rápido progresso do ChatGPT da OpenAI, cofundado por Elon Musk em 2015, mas com o qual não está mais envolvido, supostamente o inspirou a explorar a ideia de uma empresa rival. Enquanto isso, espera-se que este novo empreendimento de IA seja uma entidade separada de suas outras empresas, possivelmente para garantir que este novo projeto não seja limitado pelas estruturas da Tesla ou do Twitter.