O que você precisa saber
- Uma nova pesquisa destaca que o ChatGPT usa 17 mil vezes mais eletricidade do que uma residência média nos EUA consome.
- O cientista de dados por detrás do estudo afirma que o setor da IA poderá consumir entre 85 e 134 terawatts-hora anualmente até 2027, o que se traduz em meio por cento do consumo global de eletricidade.
- ChatGPT usa uma garrafa de água para resfriamento por consulta e US$ 700.000 diários para suas operações.
Um novo relatório indica que o ChatGPT consome até 17.000 vezes mais eletricidade do que a média doméstica dos EUA usa diariamente (via O Nova-iorquino). Elon Musk indicou recentemente que estamos à beira da maior revolução tecnológica com a IA, mas não haverá eletricidade suficiente até 2025 para alimentar estes avanços.
Colocando isso em perspectiva, The New Yorker indica que uma família média nos EUA consome até 29 quilowatts-hora diariamente. Isso significa essencialmente 493.000 quilowatts-hora diários. Com o crescimento exponencial, os avanços e a rápida adoção da IA generativa em todo o mundo, as coisas podem ir de mal a pior.
De acordo com um artigo de pesquisa publicado pelo cientista de dados do Banco Nacional Holandês, Alex de Vries, se em algum momento o Google decidir integrar IA em todas as pesquisas, isso acabaria por levar a um aumento na quantidade de eletricidade que a tecnologia consome, elevando-a para aproximadamente 29 bilhões de quilowatts-hora por ano. O cientista de dados indica que isso está muito além da quantidade de eletricidade consumida pela maioria dos países, incluindo o Quênia, a Guatemala e a Croácia.
Enquanto falava com Insider de negócios, de Vries indicou:
“A IA consome muita energia. Cada um desses servidores de IA já pode consumir tanta energia quanto mais de uma dúzia de residências no Reino Unido juntas. Portanto, os números aumentam muito rapidamente.”
Segundo as estimativas de Per de Vries (se todos os fatores forem mantidos constantes), em 2027 o setor da IA poderá potencialmente atingir um ponto em que consumirá entre 85 e 134 terawatts-hora anualmente. Enquanto falava com A beira, o cientista de dados acrescentou que:
“Você está falando sobre o consumo de eletricidade da IA ser potencialmente meio por cento do consumo global de eletricidade até 2027. Acho que é um número bastante significativo.”
As preocupações vão muito além do consumo de energia
ChatGPT é sem dúvida um dos melhores chatbots com tecnologia de IA do momento. Um relatório recente revelou que o assistente de IA domina a participação no mercado móvel, mesmo depois que a Microsoft lançou o Copilot AI para usuários de iOS e Android com acesso gratuito ao modelo GPT-4 da OpenAI e à tecnologia de geração de imagem DALL-E 3.
O chatbot alcançou feitos incríveis, incluindo o desenvolvimento de software em menos de 7 minutos, a geração de chaves gratuitas do Windows e o desvio de informações de acesso pago. Embora impressionantes, tudo isso tem um custo exorbitante.
A OpenAI usa até US$ 700.000 diariamente para manter o ChatGPT funcionando, o que poderia ser uma possível explicação para os relatórios que se aproximam no ano, indicando que o fabricante do ChatGPT está à beira da falência. Isso ocorre em meio a relatos de que o chatbot está perdendo precisão e aparentemente ficando mais burro.
No ano passado, uma nova pesquisa mostrou que o Microsoft Copilot e o ChatGPT poderiam consumir o suficiente para abastecer um pequeno país durante um ano até 2027. Isto se soma ao custo exorbitante da alta demanda por água para resfriamento, já que o chatbot consome uma garrafa de água para resfriamento por consulta.