A Era da IA Chegou ao Limite da Tomada

A corrida pela supremacia em inteligência artificial, que até então parecia uma batalha puramente digital travada em linhas de código e poder de processamento, encontrou um obstáculo inesperadamente analógico: a tomada. Em declarações recentes, os líderes da Microsoft e da OpenAI, Satya Nadella e Sam Altman, revelaram que a indústria de tecnologia acumulou mais GPUs do que sua capacidade de fornecer energia, criando um impasse onde chips caríssimos permanecem desligados por falta de infraestrutura.

O Silício Ficou no Escuro

A lógica da indústria parecia simples: se você tem os chips mais avançados, então você domina o futuro da IA. Acontece que faltou uma condição nessa equação. Conforme admitido por Satya Nadella no podcast BG2, a realidade é bem mais complexa. “O maior problema que temos agora não é um excesso de computação, mas sim a energia e a capacidade de construir [data centers] rápido o suficiente perto da energia”, afirmou o CEO da Microsoft. A situação é tão literal que ele resumiu de forma direta: “Posso ter um monte de chips parados no estoque que não consigo conectar. Na verdade, esse é o meu problema hoje. Não é um problema de fornecimento de chips; é o fato de que não tenho ‘warm shells’ [prédios prontos] para conectá-los”.

Essa confissão, vinda de uma das maiores compradoras de GPUs do planeta, desmonta a narrativa de que a única barreira era a fabricação de semicondutores. Por mais de uma década, segundo o TechCrunch, a demanda por eletricidade nos EUA permaneceu estável. Nos últimos cinco anos, porém, a fome dos data centers por energia começou a superar a capacidade de planejamento das concessionárias. O mundo do software, acostumado a escalar rapidamente, colidiu com a dura realidade do mundo físico, onde usinas e subestações não surgem com a mesma velocidade de uma atualização de sistema.

O Paradoxo de Jevons e a Sede de Altman

Do outro lado da parceria, Sam Altman, CEO da OpenAI, parece operar sob a lógica do Paradoxo de Jevons, uma teoria econômica que postula que o aumento da eficiência no uso de um recurso leva a um aumento geral do consumo desse recurso, e não a uma diminuição. Em suas palavras, citadas pelo TechCrunch: “Se o preço da computação por unidade de inteligência [...] caísse por um fator de 100 amanhã, você veria o uso subir muito mais do que 100”.

Isso significa que, para Altman, a demanda por energia não é um problema a ser contornado, mas uma consequência inevitável e desejável do sucesso da IA. Não à toa, ele tem investido pessoalmente em startups de energia nuclear de fissão e fusão (Oklo e Helion) e em energia solar (Exowatt). No entanto, essas são soluções de longo prazo para um problema que, como seu parceiro na Microsoft admite, já é presente. A questão é que, enquanto a energia do futuro não chega, as empresas estão presas a contratos de longo prazo em um cenário volátil, um risco que o próprio Altman reconhece: “Se uma forma muito barata de energia surgir em breve em grande escala, muitas pessoas vão sair extremamente queimadas com os contratos existentes que assinaram”.

A Bolha Elétrica e o Medo de Ficar Para Trás (FOMO)

Enquanto a crise energética se desenrola, uma outra força impulsiona a indústria: o medo de ficar de fora, ou FOMO (Fear Of Missing Out). Segundo uma análise do The Verge, gigantes como Amazon, Google, Microsoft e Meta relataram mais de US$ 350 bilhões em despesas de capital este ano, com projeções para superar os US$ 400 bilhões no próximo. Esse investimento massivo ocorre mesmo com um retorno financeiro ainda “opaco”.

A tensão é palpável. O The Verge destaca uma troca de farpas entre o investidor da OpenAI, Brad Gerstner, e Sam Altman. Ao ser questionado sobre como uma empresa com receita de US$ 13 bilhões pode assumir compromissos de gastos de US$ 1.4 trilhão, Altman respondeu de forma ríspida: “Primeiro, estamos fazendo muito mais receita do que isso; segundo, Brad, se você quiser vender suas ações, eu encontrarei um comprador para você... Eu só... Chega”. Essa reação evidencia a pressão e a narrativa de que questionar a lógica dos gastos é quase uma heresia. O analista Joe Fath, da Eclipse VC, resumiu o sentimento corporativo ao The Verge: os conselhos de administração estão perguntando aos seus CEOs, “O que você está fazendo sobre IA?”. A resposta precisa ser um plano de gastos, mesmo sem saber qual será o retorno.

True or False: AGI Amanhã?

Vamos aplicar a lógica. Se o objetivo final que justifica trilhões em investimento é a Inteligência Artificial Geral (AGI), então sua chegada deveria ser iminente. No entanto, o próprio Satya Nadella declarou em uma teleconferência de resultados: “Eu não acho que a AGI, como definida, pelo menos em nosso contrato, será alcançada tão cedo”. Portanto, a premissa do investimento massivo para um resultado próximo parece ser, no mínimo, questionável. O próprio Sam Altman já admitiu que existem “muitas partes da IA que eu acho que são meio borbulhantes agora”.

O que temos, então, é um cenário onde os líderes reconhecem que o objetivo final está distante, o mercado tem características de bolha e o principal gargalo é físico e geográfico. A corrida desenfreada não é apenas por algoritmos melhores, mas por uma infraestrutura energética que simplesmente não existe na escala necessária.

A conclusão é inescapável: a grande barreira da inteligência artificial deixou de ser o silício para se tornar o cobre dos fios e o concreto das usinas. O próximo grande salto da IA não dependerá de um novo modelo de linguagem, mas de encontrar um jeito de mantê-lo funcionando. As empresas que vencerão não serão apenas as mais inteligentes, mas aquelas que conseguirem, literalmente, manter as luzes acesas.