A escalada de consumo por trás dos anúncios

Em 30 de abril de 2026, Sam Altman, CEO da OpenAI, publicou três anúncios discretos em seu perfil no X: o lançamento do "GPT-5.5-Cyber" para defensores cibernéticos críticos, uma menção ao crescimento do gerador de código Codex e um elogio à sua equipe de desenvolvimento. O que os caracteres curtos não explicitam, mas os balanços corporativos atestam, é que a escalada para sustentar esses modelos bateu em uma parede sólida. A infraestrutura elétrica atual não suporta a próxima geração de inteligência artificial.

A matemática é teimosa. Para que um sistema como o GPT-5.5-Cyber processe ameaças em tempo real nos próximos dias, os data centers precisam operar na casa dos gigawatts. O problema é que a rede elétrica global não foi desenhada para alimentar galpões que consomem a mesma quantidade de energia que uma cidade inteira. Satya Nadella e o próprio Altman admitiram há meses que a falta de eletricidade substituiu a escassez de processadores como o principal obstáculo da indústria.

A lógica de ferro da física

Minha rotina dissecando promessas do Vale do Silício exige olhar além do marketing. Quando Altman celebra que o Codex está vivendo um "momento ChatGPT" e comemora a agilidade da equipe, ele mascara uma corrida logística violenta. A premissa de que construir um software avançado garante sua adoção esbarra na tomada. Se a empresa lança modelos cada vez mais pesados e autônomos, então ela precisa garantir que as companhias elétricas entreguem a carga necessária para mantê-los funcionando.

Um data center tradicional consome entre 10 e 50 megawatts. As instalações projetadas para treinar modelos baseados na arquitetura do GPT-5 demandam cerca de 1 gigawatt. Para desbugar os termos: gigawatt (GW) é uma unidade de potência equivalente a um bilhão de watts, o suficiente para abastecer aproximadamente 750 mil residências. Quando a OpenAI exige infraestruturas de múltiplos gigawatts, ela solicita o equivalente ao consumo elétrico de um estado inteiro apenas para calcular probabilidades em placas de vídeo.

A reação da indústria não tardou. Gigantes do setor abandonaram as concessionárias comuns e começaram a investir bilhões em usinas nucleares e locação de hardware descentralizado. É a única saída técnica disponível no curto prazo para manter os processadores ligados.

Custo operacional e o limite da inovação

O que chama atenção aqui é o contraste direto entre um produto digital imaterial e sua âncora física brutal. Sistemas de geração de código ou defesa cibernética não executam tarefas de graça. Eles exigem eletricidade contínua e sistemas massivos de refrigeração de água. Se a energia acaba ou sofre uma oscilação leve, o ciclo de treinamento do modelo quebra. Senão, a operação prossegue, mas os custos explodem na conta de luz da desenvolvedora.

A estrutura de raciocínio é binária: se a capacidade da inteligência artificial sobe, o consumo de energia sobe na mesma proporção. Se a matriz energética não expande, o progresso da ferramenta congela. O crescimento do Codex e o lançamento do GPT-5.5-Cyber ativam um cronômetro para as fornecedoras de energia.

A Agência Internacional de Energia projeta que a demanda elétrica global puxada por data centers e redes de inteligência artificial saltará dos 460 terawatts-hora anotados em 2022 para mais de 1.050 terawatts-hora em dezembro de 2026. Em termos práticos, é o mesmo que conectar uma Alemanha inteira à rede elétrica do planeta, só para garantir que os modelos de raciocínio não fiquem sem bateria.