Getty Images
Acessibilidade
Uma das principais preocupações da mídia de tecnologia, dos desenvolvedores e do público em geral é o quanto a inteligência artificial consome energia.
Isso faz sentido por vários motivos. Um deles é que a IA, por natureza, é automatizada. Ela não é apenas escalável — ela se expande sozinha, constantemente, podendo operar o tempo todo, em qualquer lugar. Isso exige muita energia. Depois, vemos as provas concretas: a enorme demanda por data centers, o movimento sem precedentes em direção à energia nuclear nos Estados Unidos, moradores de Memphis protestando contra o projeto Colossus, da xAI, por uso excessivo de água e eletricidade e a lista continua.
Mas, à medida que novos modelos foram lançados ao longo de 2025 — e foram muitos —, surgiram nuances que tornam essa discussão ainda mais urgente.
IA multimodal e energia
Você deve se lembrar das discussões sobre estudos que indicavam que uma série de perguntas respondidas por um modelo como o ChatGPT correspondia ao consumo de uma garrafa de água ou a uma quantidade significativa de eletricidade.
Pois bem, agora temos a geração de vídeo — pixels e quadros em uma imensa massa de dados, todos processados por sistemas altamente intensivos em energia.
Um artigo de Katelyn Chedraoui, no CNET, detalha o assunto e revela, por exemplo, que o consumo de energia de uma ferramenta como o Sora, que gera vídeos com IA, é 2.000 vezes maior do que o de texto. É difícil não usar um ponto de exclamação aqui. Mas os números falam por si.
Fica claro, à luz dessas avaliações, que precisamos desesperadamente de uma estratégia energética para a IA.
“Uma lâmpada de LED comum e eficiente consome entre 8 e 10 watts”, escreve Chedraoui. “Televisores LCD podem consumir entre 50 e 200 watts, com tecnologias mais novas, como as OLED, ajudando na eficiência. Por exemplo, a TV Samsung S95F de 65 polegadas — escolhida pela CNET como a de melhor qualidade de imagem de 2025 — consome em média 146 W, segundo a Samsung. Criar um único vídeo com IA seria equivalente a deixar essa TV ligada por 37 minutos.”
É muita energia — especialmente se considerarmos que cada instância de um modelo de vídeo generativo pode estar produzindo conteúdo continuamente, todos os dias.
O dilema energético
Em um painel recente sobre IA realizado em Stanford, um grupo de profissionais experientes do setor energético discutiu os problemas e possíveis soluções.
“Estamos vendo um aumento gigantesco na demanda de energia dos data centers”, disse Nico Enriquez, da Future Ventures, dando início à conversa (vale mencionar: também sou afiliado à Future Ventures). “As big techs estão gastando centenas de bilhões de dólares na construção de data centers, e o principal limitador é o acesso à energia. Elas estão apostando coletivamente que conseguirão expandir sua capacidade de computação e vencer a corrida tecnológica, mas as projeções sobre o futuro da energia ainda são incertas.”
“O que eu sei com certeza é: a humanidade precisa de mais eletricidade. Ponto final”, afirmou Paige Crahan, gerente-geral da Tapestry, iniciativa da Google voltada à modernização da rede elétrica. “Vamos usá-la de muitas formas e ajudar nossas comunidades de diversas maneiras.”
Crahan citou um relatório da Agência Internacional de Energia Atômica (IAEA) de 2023, que aponta para a crescente necessidade global de energia.
Mitesh Agrawal, CEO da Positron, concordou que o desafio é real e propôs duas frentes de ação: construir o máximo possível e aumentar a eficiência do uso de cada watt.
“Para cada watt que consumimos, é importante que aumentemos a quantidade de watts que produzimos — por qualquer meio possível”, afirmou.
O painelista Nelson Abramson, CEO da Verrus, destacou que inovações existentes permitiram ampliar nosso horizonte energético conforme as demandas crescem exponencialmente. Ele citou, por exemplo, a iluminação por LED, que chamou de “um motor de eficiência energética subestimado”.
“Isso nos deu uma margem de 20 anos”, disse ele, antes de levantar uma questão:
“Como conciliar o fato de que o consumo de energia e a rede elétrica precisam ser geridos de forma diferente — em horários e épocas distintos — com a necessidade dos clientes de operar continuamente ao longo do ano?”
Preocupações geopolíticas
Em relação ao esforço global, Crahan observou que há um certo grau de coordenação e de incentivos compartilhados.
“Esse é um desafio mundial, então estamos todos juntos nisso”, disse. “Há uma boa troca e transferência de aprendizados.”
Relatando as iniciativas internacionais de pesquisa energética da Google, ela destacou a importância de analisar diferentes biomas, observar tendências regionais e promover colaborações transfronteiriças.
“O lado positivo é que nem todos os países precisam descobrir essas soluções sozinhos”, acrescentou. “Podemos realmente compartilhar esses aprendizados quando aplicamos e executamos esses algoritmos.”
Agrawal também comentou sobre a importância da análise de hardware.
“As GPUs da NVIDIA e AMD, os TPUs da Google — são peças de silício brilhantes, muito eficazes para diferentes tipos de aplicações”, disse. “E acho que, como em quase tudo na vida, conseguimos identificar os usos mais eficientes para cada tipo de tecnologia.”
Abramson apresentou uma visão voltada à governança e à otimização da rede elétrica.
“Ao combinar flexibilidade e interatividade da rede com nossos dados, conseguimos aumentar a taxa de utilização das concessionárias ao longo do ano, quando a rede não está sobrecarregada”, explicou, mencionando custos de capital (capex) e operacionais (opex).
“Os operadores consideram todos os custos de construção e operação — das linhas e subestações às usinas —, somam os custos fixos e variáveis, e dividem pelo total de energia vendida. Isso define o valor por quilowatt-hora, com uma margem de lucro garantida. É basicamente assim que o sistema funciona.”
“Nós poderíamos reduzir os custos da eletricidade”, concluiu Enriquez, resumindo os principais pontos do debate. “Os preços não precisam inevitavelmente subir se projetarmos o sistema da forma correta. Esse é o sonho: uma rede elétrica mais eficiente, data centers mais flexíveis, chips mais econômicos. Os data centers podem consumir energia, sim — mas também podem pagar por ela. E, no fim das contas, poderíamos reduzir nossas contas de luz.”