A Arquitetura que Dobra Distâncias
Em uma era onde os modelos de Inteligência Artificial demandam um apetite computacional que beira o insaciável, os limites físicos dos datacenters tornaram-se o grande gargalo. Para contornar essa barreira, a Cisco apresentou em 8 de outubro de 2025 sua mais nova aposta: o roteador Cisco 8223. A promessa é audaciosa: permitir que operadores de datacenters costurem suas instalações geograficamente dispersas em um único e colossal cluster de computação para treinamento de IA.
Essa não é uma mera atualização incremental. Trata-se de uma nova categoria de rede, batizada pela indústria de "scale across network". Como explicou Rakesh Chopra, um veterano da Cisco, ao The Next Platform, essa abordagem é fundamentalmente diferente do tradicional DCI (Datacenter Interconnect). Enquanto o DCI foca em conectar datacenters aos usuários finais, a rede "scale across" foi desenhada para interligar as redes internas de múltiplos datacenters, criando um tecido unificado com uma largura de banda ordens de magnitude maior.
O Motor por Trás do Colosso: Silicon One P200
O coração pulsante do novo sistema é o chip ASIC Silicon One P200, desenvolvido internamente pela Cisco. Segundo os detalhes divulgados no The Register, este componente de 51,2 Tbps, combinado com ópticas coerentes de 800 Gbps, é o que permite a mágica. Com ele, a Cisco afirma ser possível estabelecer conexões estáveis entre locais a até 1.000 quilômetros de distância.
Os números são astronômicos. A arquitetura pode, teoricamente, atingir uma largura de banda agregada de três exabits por segundo, o suficiente para suportar clusters com vários milhões de GPUs. Para clientes com necessidades um pouco mais modestas, a empresa garante que uma rede de duas camadas pode entregar até 13 Pbps de largura de banda. Gigantes como Microsoft e Alibaba já estão avaliando os chips para uma potencial implementação. Dennis Cai, chefe de infraestrutura de rede da Alibaba Cloud, declarou que a transição para dispositivos baseados no P200 “melhorará significativamente a estabilidade, confiabilidade e escalabilidade” de sua rede DCI.
Por que não construir um único datacenter gigante?
A pergunta é inevitável: por que distribuir a computação em vez de construir um único super datacenter? A resposta, como aponta o The Next Platform, está na física e na economia. Os racks de servidores para IA são devoradores de energia, consumindo cerca de 140 quilowatts por unidade, com projeções de atingir 1 megawatt antes do final da década. Concentrar milhões de GPUs em um só lugar se tornou um pesadelo logístico e energético.
Além disso, o custo da eletricidade varia drasticamente entre regiões. Assim como grandes animais em busca de alimento, os datacenters modernos precisam migrar para onde a energia é mais barata e abundante. Nesse cenário, a única solução viável é fragmentar. A ideia é que o datacenter se torne uma espécie de "chiplet" em um sistema maior, interconectado por uma rede ultra veloz, transformando o conceito de infraestrutura em algo fractal. A rede "scale across" é o tecido conjuntivo que torna essa visão possível.
Uma Corrida de Titãs Tecnológicos
A Cisco não está sozinha nesta empreitada. A empresa entra em um campo de batalha onde outros titãs já marcam posição. A Broadcom, por exemplo, anunciou seu chip Jericho4, também de 51,2 Tbps, capaz de conectar datacenters a até 100 quilômetros de distância. A Nvidia, por sua vez, revelou seus switches Spectrum-XGS, já com a CoreWeave como cliente de peso, que pretende usar a tecnologia para transformar seus datacenters em um "supercomputador unificado".
O Limite Final: A Velocidade da Luz
Apesar do avanço tecnológico monumental, um desafio permanece intransponível: as leis da física. Como o The Register ressalta, a luz não é instantânea. Um pacote de dados viajando 1.000 quilômetros leva aproximadamente cinco milissegundos para chegar ao seu destino, isso sem contar os atrasos adicionais gerados por transceptores e repetidores. Em computação de alta performance, essa latência é uma eternidade.
No entanto, nem tudo está perdido. Pesquisas do DeepMind, do Google, publicadas este ano, mostram que técnicas como compressão de modelos durante o treinamento e agendamento estratégico de comunicações podem mitigar parte desses problemas. A era dos supercomputadores distribuídos em escala planetária está apenas começando, mas a física ainda dita as regras do jogo.
{{ comment.name }}
{{ comment.comment }}