Saiba quanta energia é gasta pelo ChatGPT para responder cada pergunta
O ChatGPT utiliza modelos generativos que produzem respostas com base em padrões aprendidos a partir de uma quantidade massiva de dados
atualizado
Compartilhar notícia

A inteligência artificial tem sido cada vez mais incorporada ao nosso dia a dia. Entre os modelos mais populares está o ChatGPT, ferramenta desenvolvida pela OpenAI, que responde a perguntas, escreve textos e até cria poemas. O que muitos não consideram, no entanto, é o custo ambiental dessas interações.
A cada pergunta enviada, uma rede complexa de servidores é acionada — e o processamento necessário para gerar uma resposta envolve consumo de energia elétrica, geração de calor e, em muitos casos, uso de água para resfriamento.
O que está por trás de uma interação?
Diferente de uma simples pesquisa no Google, que busca resultados já disponíveis na internet, o ChatGPT utiliza modelos generativos que produzem respostas com base em padrões aprendidos a partir de uma quantidade massiva de dados. Esse tipo de processamento é muito mais exigente em termos computacionais.
“Interações mais complexas com modelos generativos como o ChatGPT podem demandar algo entre 0,1 e 1 watt-hora por pergunta”, diz Frank Ned Santa Cruz de Oliveira, professor do Departamento de Ciência da Computação da Universidade de Brasília (UnB).
Para efeito de comparação, carregar um celular do zero até 100% gasta, em média, 3 watt-hora. Ou seja, uma única pergunta ao ChatGPT pode chegar a consumir até um terço disso — dependendo da complexidade da interação.
Um estudo da plataforma BestBrokers, publicado em 2024, estimou que o chatbot consome cerca de 453,6 milhões de quilowatts-hora (kWh) por ano para responder às perguntas dos seus 200 milhões de usuários ativos semanais.
IA generativa consome mais energia que buscas comuns
Estimar o gasto energético de ferramentas como o ChatGPT não é uma tarefa simples. Segundo André Hochuli, professor da Pontifícia Universidade Católica do Paraná (PUC-PR), o consumo varia de acordo com uma série de fatores, como o tamanho e a arquitetura do modelo, o tipo de tarefa realizada e a infraestrutura usada para executá-lo. “Não é um cálculo direto. São muitos parâmetros envolvidos que influenciam esse número”, afirma.
Ainda assim, comparações com outras tecnologias ajudam a dar uma noção do impacto. “Uma busca no Google, dependendo da complexidade, consome cerca de 0,0003 kWh. Já o ChatGPT pode gastar de 0,1 a 1 kWh a cada 100 a mil interações, dependendo do modelo usado e da tarefa. Ou seja, uma simples pergunta a uma IA pode ser dezenas de vezes mais cara energeticamente do que uma busca tradicional”, explica o professor Hochuli.
Para efeito de comparação, uma lâmpada LED de 10 watts acesa por uma hora consome cerca de 0,1 kWh — valor semelhante ao necessário para realizar algumas interações com modelos generativos. Isso significa que, enquanto uma busca no Google pode equivaler ao consumo de energia de uma lâmpada acesa por menos de um minuto, uma conversa com IA pode representar até uma hora de uso.
O motivo está na própria forma de funcionamento dessas ferramentas. Diferente de buscadores, que apenas localizam informações já existentes, modelos como o ChatGPT geram respostas a partir de bilhões de parâmetros, que são processados por servidores potentes equipados com placas gráficas de alto desempenho. Esse tipo de operação exige um uso intensivo de energia.
Refrigeração e uso de água
Não é apenas a eletricidade que preocupa. O calor gerado pelo funcionamento ininterrupto desses servidores exige sistemas de refrigeração potentes. Em muitos casos, os sistemas dependem de grandes volumes de água potável, um recurso cada vez mais escasso.
“Esse volume de processamento gera uma quantidade de calor imensa. Para manter a estabilidade dos equipamentos, é preciso refrigerá-los constantemente. E, infelizmente, muitos data centers usam água potável nesse processo. Esse é um dos principais impactos ambientais atuais”, explica Oliveira.
Por isso, grandes empresas de tecnologia têm procurado instalar seus data centers em regiões frias, como partes do norte da Europa, onde o clima contribui naturalmente para o resfriamento.
No Brasil, o governo tem buscado atrair esse tipo de empreendimento, mas o clima tropical, aliado ao uso majoritário de energia proveniente de hidrelétricas, levanta questionamentos sobre a sustentabilidade da estratégia.
Menos energia, mais eficiência
Apesar dos altos custos, há caminhos para tornar a IA generativa mais sustentável. Um deles é o uso de fontes de energia renováveis, como solar e eólica, para abastecer os data centers. Outra frente é o aprimoramento dos próprios modelos de linguagem, tornando-os mais leves e eficientes.
“A eficiência energética de um modelo está diretamente relacionada à forma como ele foi construído. Modelos mais elegantes, do ponto de vista computacional, resolvem o mesmo problema com menos processamento”, afirma Oliveira.
Hochuli reforça que há um movimento global para reduzir o tamanho dos modelos, torná-los mais especializados e, assim, menos exigentes. “Algumas tarefas não precisam de um modelo enorme como o GPT-4. Projetos menores e mais rápidos já dariam conta do recado com muito menos gasto energético”, aponta.
Ainda assim, os especialistas destacam que não se trata apenas de otimizar o ChatGPT ou ferramentas similares. É toda a infraestrutura da computação que precisa ser repensada.
“A IA generativa não é uma vilã isolada na pegada de carbono. Ela opera sobre uma base que envolve hardware, armazenamento, algoritmos e energia. Todos esses elementos precisam ser levados em conta quando falamos de sustentabilidade digital”, finaliza Oliveira.
Siga a editoria de Saúde e Ciência no Instagram e no Canal do Whatsapp e fique por dentro de tudo sobre o assunto!