O Google reduziu em 97% o consumo de eletricidade do Gemini para responder a um pedido, com avanços em eficiência de software e hardware, segundo relatório inédito divulgado pela empresa nesta quinta-feira (21).
O estudo analisou os gastos de consumo de energia entre maio de 2024 e o mesmo mês neste ano. No mesmo período, o processamento de dados se multiplicou 49 vezes, de acordo com dados apresentados por Sundar Pichai em evento para programadores —subiu de 9,7 trilhões mensais de tokens (pequenos fragmentos de texto que a IA processa no lugar das palavras completas) para 480 trilhões por mês.
Em apresentação para investidores em julho, Pichai disse que o valor já subiu para 980 trilhões.
De acordo com o diretor do Centro de Excelência em Inteligência Artificial (Ceia) da UFG (Universidade Federal de Goiás), Anderson Gomes, o principal esforço da ciência da computação neste momento está em reduzir o custo de inferência —o processamento de dados do modelo para gerar uma resposta ao comando do usuário. Um dos maiores gastos é com eletricidade.
A redução dos preços é essencial para permitir a ampla adoção de inteligência artificial, diz Gomes.
De acordo com o balanço do Google, havia em julho mais de 85 mil negócios usando o Gemini para empresas, incluindo a gigante do luxo LVMH e a Salesforce. O uso empresarial cresceu 35 vezes em um ano, disse Pichai.
O relatório de sustentabilidade da empresa mostra que o consumo de eletricidade do Google segue tendência de alta desde 2011.
Segundo a big tech, o gasto de energia de um pedido em texto mediano para o Gemini ficou em 0,24 Wh, o que equivale ao consumo de eletricidade de assistir à televisão por nove segundos. Em uma sequência de valores ordenados de forma crescente, a mediana é o número ao centro —o quinto número em uma sequência de nove dígitos, por exemplo.
No artigo, o Google afirma que escolheu a mediana porque alguns poucos prompts gastam muito mais energia e distorceriam o valor médio do comando para a inteligência artificial. O artigo também desconsidera a geração de imagens e vídeos, que, de acordo com artigos científicos, gastam dezenas de vezes mais de energia.
Porém pesquisadores ouvidos pela Folha dizem que a escolha da mediana pode gerar distorções.
O professor de ciência da computação da UFRGS Anderson Rocha Tavares diz que a mediana é mais útil quando a distribuição fica mais concentrada em uma parte, o contrário do que acontece no caso do uso do consumo de energia dos modelos de IA.
“Se eles reportassem a média, também seria útil, pois daria para ter essa noção da influência dos prompts ‘caros’”, afirma Tavares. “Se a média é muito superior à mediana, é um sinal que há alguns prompts que custam muito mais caro que a maioria”, acrescenta.
Além disso, o método escolhido pelo Google torna impossível comparar os gastos com estimativas feitas anteriormente por pesquisadores e outras empresas. Isso porque os autores propõem uma nova metodologia na qual não consideram o tamanho do pedido nem se houve o uso do chamado “reasoning”, técnica em que a IA testa vários resultados até chegar a um mais adequado.
O Google trabalhou com a curva de gastos de energia por pedido feito ao Gemini, de forma que só a empresa pode aferir esses dados. A IA da big tech é de modelo fechado e só roda nos servidores da companhia.
“Nesse modelo, a sociedade fica dependente do quão verdadeiros são os dados que o Google está mostrando”, diz o professor da UFRGS.
O artigo da big tech foi divulgado pouco antes da regulação europeia começar a impor critérios de transparência ambiental, como a divulgação do consumo de energia conhecido e estimado, e é visto como um sinal para o mercado. A Comissão Europeia ainda definirá qual será a metodologia de medição a ser cobrada.
Mesmo com essas limitações, na única comparação confiável apresentada no estudo, o Google mostra que o Gemini é mais de duas vezes mais eficiente do que o modelo da Meta Llama 3.1 70b. Como o modelo da companhia de Mark Zuckerberg é aberto, o Google pôde reproduzir seus testes com ele.
De acordo com a chefe dos laboratórios de energia avançada do Google, Savannah Goodman, o Google teve muito cuidado para divulgar um número que refletisse a realidade operacional de seu serviço de IA. “O valor é muito mais baixo do que estimativas que circulavam anteriormente na academia”, disse.
Essa diferença, diz o Google, é motivada por usos mais eficientes de data centers, avanços em projetos de chips mais eficientes e avanços de engenharia nos modelos de linguagem —uma delas, por exemplo, foi a destilação de dados popularizada pela Deepseek.
Ainda segundo Goodman, o gigante das buscas escolheu trabalhar apenas com os modelos geradores de texto, por causa da maior quantidade de pesquisa disponível. A geração de imagens e vídeos pode ser tema de trabalhos futuros.
O vice-presidente da equipe de engenharia do Google, Partha Ranganathan, afirmou que o estudo do Google avançou ao considerar toda a cadeia de IA em seus cálculos, desde a fabricação dos chips. Por isso, o valor encontrado passou de 0,14 watt hora para 0,24 watt hora.
As equipes do Google ainda calcularam a pegada hídrica de um pedido mediano ao Gemini, que seria de 0,26 ml —o que equivale a cinco gotas de água.
No acumulado de todas as atividades do Google, seus data centers gastaram 27% mais energia em 2024 do que em 2023, mostra o relatório de sustentabilidade mais recente da companhia. Apesar disso, a empresa reduziu suas emissões de carbono ligadas à eletricidade em 12%, graças à adoção de energia limpa.
Para esse ganho em eficiência nos data centers, Ranganathan disse que o uso de sistemas de refrigeração líquida também contribuiu. Em 2024, o Google gastou 306,6 bilhões de litros de água em seus data centers, em uma alta de 75,7 bilhões de litros em relação ao ano anterior.
No ano passado, 28% das fontes de água potável que abastecem o Google estavam em áreas com risco de escassez hídrica.