O que você precisa saber
- O ChatGPT exigirá até 30.000 GPUs NVIDIA para operar, de acordo com um relatório da empresa de pesquisa TrendForce.
- Esses cálculos são baseados no poder de processamento do A100 da NVIDIA, que custa entre US$ 10.000 e US$ 15.000.
- Não está claro se os jogadores serão afetados por tantas GPUs dedicadas à execução do ChatGPT.
O ChatGPT invadiu o cenário tecnológico perto do final de 2022. Em janeiro deste ano, a ferramenta teria 100 milhões de usuários mensais. Só receberia mais usuários no mês seguinte, quando a Microsoft anunciou uma nova versão do Bing com tecnologia ChatGPT. Com a tecnologia recebendo tanto interesse e uso no mundo real, não é surpreendente que as empresas lucrem com a popularidade do ChatGPT.
De acordo com empresa de pesquisa TrendForcea NVIDIA pode gerar até US$ 300 milhões em receita graças ao ChatGPT (via Ferragens do Tom). Esse número é baseado na análise da TrendForce de que o ChatGPT precisa de 30.000 GPUs NVIDIA A100 para operar. O número exato que a NVIDIA pretende fazer dependerá de quantas placas gráficas a OpenAI precisa e se a NVIDIA der um desconto à empresa de IA por ter um pedido tão grande.
O ChatGPT usa um tipo diferente de GPU do que as pessoas colocam em seus PCs para jogos. Uma NVIDIA A100 custa entre US$ 10.000 e US$ 15.000 e destina-se a lidar com a demanda que o ChatGPT coloca nos sistemas. Portanto, pode parecer que os jogadores não seriam afetados por um número tão grande de GPUs A100 sendo usadas para operar o ChatGPT, mas esse não é o caso.
A escassez global de chips foi causada pela escassez de chips, não de placas gráficas inteiras. Por causa disso, vimos situações estranhas, como montadoras e fabricantes de placas gráficas de computador competindo pelos mesmos componentes. Obviamente, a maioria dos carros não possui GPUs para jogos, sendo a Tesla a exceção, mas os chips são usados na fabricação, computação e em muitos outros setores.
Se a NVIDIA priorizar a colocação de componentes na placa de vídeo destinada a executar o ChatGPT, isso pode afetar a disponibilidade de outras GPUs.
Outro fator em tudo isso é a parceria recentemente estendida da Microsoft e da OpenAI (abre em nova aba). Embora o ChatGPT possa exigir poder de processamento equivalente a 30.000 GPUs NVIDIA A100, esse poder pode vir na forma dos próprios sistemas Azure da Microsoft. Se for esse o caso, o número de GPUs físicas necessárias para executar o ChatGPT seria drasticamente diferente.