Quando soubemos pela primeira vez que o chefe da OpenAI, Sam Altman, estava procurando construir um empreendimento de chips, ficamos impressionados, mas consideramos isso como mais um caso padrão de uma empresa que adota silício personalizado em vez de usar processadores prontos para uso. No entanto, suas reuniões relatadas com potenciais investidores para arrecadar entre US$ 5 e US$ 7 trilhões para construir uma rede de fábricas para chips de IA são extremas, dado que toda a indústria mundial de semicondutores é estimada em cerca de US$ 1 trilhão por ano. Jensen Huang, da Nvidia, não acredita que seja necessário muito investimento para construir uma cadeia de fornecimento alternativa de semicondutores apenas para IA. Em vez disso, a indústria precisa continuar com suas inovações na arquitetura de GPU para continuar melhorando o desempenho – na verdade, Huang afirma que a Nvidia já aumentou o desempenho da IA 1 milhão de vezes nos últimos dez anos.
“Se você simplesmente assumir que os computadores nunca ficam mais rápidos, você pode chegar à conclusão [that] precisamos de 14 planetas diferentes e três galáxias diferentes e mais quatro Sóis para alimentar tudo isto”, disse Jensen Huang no Cúpula Mundial do Governo.
Investir trilhões de dólares para construir chips suficientes para data centers de IA pode certamente resolver o problema da escassez no decorrer dos próximos três a cinco anos. No entanto, o chefe da Nvidia acredita que criar uma indústria alternativa de fornecimento de semicondutores apenas para IA pode não ser exatamente a melhor ideia, já que, em algum momento, pode levar a um excesso de oferta de chips e a uma grande crise económica. A escassez de processadores de IA acabará por ser resolvida, em parte através de inovações arquitetónicas, e as empresas que pretendam utilizar a IA nas suas instalações não precisarão de construir um centro de dados de milhares de milhões de dólares.
“Lembre-se de que o desempenho da arquitetura vai melhorar ao mesmo tempo, então você não pode presumir apenas que comprará mais computadores”, disse Huang. “Você também deve presumir que os computadores ficarão mais rápidos e, portanto, a quantidade total necessária não será tão grande.”
Na verdade, as GPUs da Nvidia evoluem muito rapidamente quando se trata de IA e desempenho de computação de alto desempenho (HPC). O desempenho computacional de meia precisão da GPU de datacenter V100 da Nvidia foi de apenas 125 TFLOPS em 2018, mas o moderno H200 da Nvidia oferece 1.979 FP16 TFLOPS.
“Uma das maiores contribuições, e agradeço muito por você ter mencionado isso, é a taxa de inovação”, disse Huang. “Uma das maiores contribuições que fizemos foi o avanço da computação e o avanço da IA em um milhão de vezes nos últimos dez anos, e portanto, seja qual for a demanda que você acha que irá alimentar o mundo, você deve considerar o fato de que [computers] também farão isso um milhão de vezes mais rápido [in the next ten years].”