O Gotejar Invisível por Trás dos Prompts

Em nosso diálogo quase diário com as máquinas, raramente paramos para pensar em sua dimensão física. Imaginamos a inteligência artificial como uma entidade etérea, uma consciência que habita a nuvem. No entanto, a realidade é muito mais terrena e, surpreendentemente, sedenta. Um estudo conduzido por Shaolei Ren, professor na Universidade da Califórnia em Riverside, lança uma luz sobre essa materialidade, revelando que cada conversa curta com modelos como o GPT-3 do ChatGPT pode exigir o consumo de uma garrafa de 500 ml de água. Para onde vai todo esse líquido? A resposta se divide em dois fluxos principais que sustentam o funcionamento dessas tecnologias.

O primeiro fluxo é direto e local: o resfriamento dos data centers. Servidores processando bilhões de cálculos por segundo geram uma quantidade imensa de calor, e para evitar o superaquecimento, sistemas massivos de refrigeração são necessários. Conforme detalha a pesquisa, muitas dessas instalações utilizam torres de resfriamento evaporativo, que funcionam como nebulizadores gigantes borrifando água para dissipar o calor. Essa água, extraída de fontes locais como rios e aquíferos, evapora e se perde no processo. O segundo fluxo é indireto, mas igualmente significativo, e está ligado à geração da eletricidade que alimenta esses complexos. Usinas de energia, sejam elas a carvão, nucleares ou hidrelétricas, dependem de vastos volumes de água para seus ciclos de vapor e resfriamento, adicionando uma camada oculta à pegada hídrica de cada prompt que enviamos.

O Clima Influencia a Conta d'Água Digital?

A sede de um data center não é uniforme; ela ondula conforme a geografia e as estações do ano. Como explica Leo S. Lo, reitor da Universidade da Virgínia, um centro de dados localizado na fria e úmida Irlanda pode passar meses utilizando o ar externo para refrigeração, com um consumo mínimo de água. Em contrapartida, uma instalação no deserto do Arizona durante o verão dependerá intensamente do resfriamento evaporativo, um método eficaz em climas secos, mas que consome volumes colossais de água. Essa variação foi quantificada por um estudo da Universidade de Massachusetts Amherst, que demonstrou que o mesmo sistema pode usar apenas metade da água durante o inverno em comparação com os dias mais quentes.

Diante desse desafio, algumas empresas de tecnologia, como a Microsoft na China, exploram soluções alternativas, submergindo data centers no oceano para aproveitar a refrigeração natural da água do mar. Embora seja uma iniciativa promissora para economizar energia, sua adoção ainda é incipiente. Resta a questão: seria o fundo do mar o futuro para saciar a sede de nossos servos digitais ou apenas uma solução temporária para um problema crescente?

Nem Toda IA Bebe da Mesma Fonte

A eficiência energética e hídrica varia drasticamente entre os diferentes modelos de IA. A evolução da tecnologia traz consigo otimizações importantes. Enquanto um prompt médio de 150 a 200 palavras no GPT-5 consome cerca de 39 mililitros de água, o mais recente GPT-4o, para uma consulta similar, requer apenas 3,5 mililitros. A diferença é notável e demonstra um esforço consciente para mitigar o impacto ambiental. Em comparação, o Google afirma em um relatório que uma consulta média ao seu modelo Gemini consome aproximadamente 0,26 mililitros de água, embora não especifique o tamanho do prompt, o que dificulta uma comparação direta. Fica claro que a escolha do modelo não define apenas a qualidade da resposta, mas também o seu custo para o planeta.

Uma Gota no Oceano ou o Início da Seca?

Quando escalamos esses números, a dimensão do consumo se torna vertiginosa. A OpenAI reporta cerca de 2,5 bilhões de consultas diárias em suas ferramentas. Se todas fossem feitas no modelo mais eficiente, o GPT-4o, o consumo diário chegaria a 8,8 milhões de litros de água. Se fossem no GPT-5, o volume saltaria para impressionantes 97,5 milhões de litros por dia. O Google Gemini, por sua vez, teria um consumo diário estimado em 650 mil litros. São números que chocam, mas que precisam de contexto. Segundo o mesmo estudo, apenas nos Estados Unidos, cidadãos consomem cerca de 34 bilhões de litros de água por dia simplesmente para irrigar gramados e jardins.

Como aponta Leo S. Lo, “a IA generativa consome bastante água, mas — pelo menos por enquanto — seus totais diários são pequenos em comparação com outros usos comuns”. Contudo, a cada pergunta que fazemos a uma IA, estamos, sem saber, esvaziando um copo d'água em algum lugar do planeta. Conforme essas mentes digitais se tornam mais onipresentes e integradas ao nosso cotidiano, a questão que permanece não é apenas o que elas podem fazer por nós, mas o que seu crescimento exponencial exigirá do nosso mundo. Estamos, de fato, preparados para pagar essa conta hídrica?