ChatGPT pode não gastar tanta energia quanto imaginávamos; entenda
Em uma pesquisa conduzida pela Epoch AI, cientistas descobriram que uma pesquisa banal no ChatGPT gasta cerca de 0,3 kWh, o que é bem menos do que estimativas anteriores
O ChatGPT, modelo de inteligência artificial (IA) da OpenAI, pode não consumir tanta energia quanto as primeiras notícias presumiam, é o que conclui um novo estudo recente conduzido pela Epoch AI, um instituto de pesquisa de IA.
Uma estatística citada com frequência é de que ele requer cerca de 3 kWh de energia para responder um comando, isso é 10 vezes mais do que a mesma pesquisa no Google. Mas a Epoch AI acredita que esse número é superestimado e se propôs a analisar o real gasto da ferramenta.
Como funcionou a pesquisa? A Epoch AI usou o modelo padrão mais recente da OpenAI, o ChatGPT 4o, como referência e descobriu que ele consumiu por volta de 0,3 kWh por consulta. Isso é menos do que muitos aparelhos domésticos.
"O uso de energia realmente não é um grande problema em comparação com o uso de aparelhos normais ou aquecedores e um ar condicionado domésticos, ou mesmo [o consumo] ao dirigir um carro" disse Joshua You, analista de dados da Epoch que conduziu a análise, ao site especializado TechCrunch.
You diz que consultas do ChatGPT com "entrada longa" - aquelas com arquivos grandes anexados -, por exemplo, devem gastar mais eletricidade. Então, o analista espera que o consumo de energia base do ChatGPT aumente com o tempo.
"A IA vai ficar mais avançada, treinar essa IA provavelmente exigirá muito mais energia, e essa futura IA pode ser usada com bem mais intensidade, lidar com mais tarefas, e mais tarefas complexas, do que como as pessoas usam o ChatGPT hoje", diz You.
Embora avanços notáveis de eficiência tenham sido registrados nos últimos meses, a escala a qual a IA pode atingir deve impulsionar uma expansão de infraestrutura que consumirá enormes quantidades de energia, afirma o levantamento.
Uma estimativa da Rand indica que nos próximos dois anos, os centros de dados de IA devem precisar de quase toda a carga energética gasta pela Califórnia em 2022. Até 2030, treinar um modelo de fronteira tecnológica pode demandar uma produção de energia equivalente à de oito reatores nucleares (8GW), prevê o relatório da Rand.
Outro fator que deve impulsionar a demanda por energia é o crescente investimento das empresas nos modelos que focam em raciocínio, que em tese são mais capazes em termos de execução de tarefas, além de exigirem mais computação para rodar. "Modelos de raciocínio vão cada vez mais assumir tarefas que modelos mais antigos não podem, e gerar mais [dados] para fazê-lo, e ambos exigem mais data centers", diz You.
A OpenAI começou a lançar modelos de raciocínio mais eficientes em termos de energia, como o o3-mini. Mas é improvável, ao menos agora, que os ganhos de eficiência compensem o aumento das demandas de energia do processo de "pensamento" dos modelos de raciocínio e do crescente uso de IA no mundo.
Para quem se preocupa com o quanto consome durante o uso de IA, You sugere o uso com parcimônia. "Você poderia tentar usar modelos de IA menores, como o GPT-4o mini", diz. "E usá-los com moderação de uma maneira que requer processar ou gerar toneladas de dados"
