Runway Gen-4.5 assume a liderança em IA de vídeo e supera Google e OpenAI

Na acirrada corrida pela supremacia em inteligência artificial, uma afirmação ousada exige provas concretas. No dia 1º de dezembro de 2025, a startup Runway apresentou sua evidência: o lançamento do Gen-4.5, seu mais novo modelo de geração de vídeo. A empresa não apenas alega ter alcançado um novo patamar de qualidade, mas sustenta essa afirmação com dados verificáveis, assumindo a primeira posição em um ranking independente e deixando para trás os modelos de gigantes como Google e OpenAI.

O placar não mente: Gen-4.5 no topo do pódio

Se uma empresa afirma ter o melhor modelo de vídeo do mundo, então essa afirmação precisa ser validada por uma métrica objetiva. A Runway fez exatamente isso. De acordo com o benchmark Artificial Analysis Text to Video, uma avaliação independente onde usuários votam em vídeos gerados sem saber sua origem, o Gen-4.5 alcançou a pontuação de 1.247 Elo. Esse número, por si só, o posiciona no topo absoluto do pódio. A análise dos dados se torna ainda mais interessante quando observamos a concorrência: o Veo 3, do Google, aparece em segundo lugar, enquanto o Sora 2 Pro, da OpenAI, amarga a sétima posição, segundo informações compiladas pelo TabNews.

Para Cristóbal Valenzuela, CEO da Runway, o resultado é uma prova de conceito. Em seu comunicado, ele celebrou o feito de uma equipe de 100 pessoas competindo diretamente com corporações trilionárias. É a clássica narrativa de Davi contra Golias, só que desta vez, a "pedra" é um algoritmo treinado com máxima eficiência.

Dissecando a promessa: o que o Gen-4.5 realmente faz?

Marketing é uma variável, mas as capacidades de um modelo são uma constante que pode ser testada. A Runway afirma que o Gen-4.5 representa um avanço significativo em fidelidade ao prompt, consistência temporal e controle criativo. A promessa é que, se o usuário descreve uma cena com comandos complexos, então o modelo deve executá-la com precisão quase cinematográfica.

As demonstrações corroboram a alegação, com exemplos que vão do fotorrealista ao estilizado. O sistema parece lidar com física de objetos de forma mais convincente, como a água enchendo um balde ou o movimento de um cacto antropomórfico abraçando um balão até ele estourar. Entre as capacidades destacadas no anúncio oficial, estão:

  • Precisão Física e de Detalhes: Objetos com peso e momentum realistas, líquidos com dinâmica correta e detalhes finos como fios de cabelo mantendo a coerência ao longo do tempo.
  • Controle de Câmera e Composição: Capacidade de interpretar movimentos de câmera complexos, como um travelling que acompanha um barco de papel por diferentes ambientes.
  • Personagens Expressivos: Geração de rostos com emoções nuançadas e gestos naturais, um dos maiores desafios para modelos de vídeo.
  • Consistência Estilística: Habilidade de manter uma estética visual coesa, seja ela inspirada em stop-motion, documentário ou fantasia clássica.

Importante notar que, segundo a Runway, o Gen-4.5 manterá a mesma velocidade e estrutura de preço do seu antecessor, o Gen-4, e integrará todos os modos de controle existentes, como Imagem para Vídeo e Keyframes.

A verdade por trás dos pixels: as limitações admitidas

Um sistema lógico não pode ser perfeito se suas premissas são incompletas. A própria Runway, em um ato de transparência que merece análise, admite as falhas inerentes ao estado atual da tecnologia. O Gen-4.5, assim como seus concorrentes, ainda tropeça em algumas áreas fundamentais. A empresa lista três limitações principais: raciocínio causal, onde um efeito pode aparecer antes de sua causa (uma porta se abrindo antes da maçaneta ser girada); permanência de objeto, com itens surgindo ou desaparecendo de forma ilógica entre os frames; e o viés de sucesso, onde ações improváveis, como um chute mal mirado, resultam desproporcionalmente em sucesso.

Essa admissão é um dado factual relevante. Se a meta final é a criação de "modelos de mundo", como a Runway se propõe, então a representação precisa de causa e efeito não é um luxo, mas uma necessidade. A honestidade sobre essas falhas é, portanto, um indicador de maturidade e um roteiro para futuras pesquisas.

A força por trás do modelo: parceria com a NVIDIA

O desenvolvimento de um modelo dessa magnitude não ocorre no vácuo. O comunicado da Runway destaca que o Gen-4.5 foi inteiramente desenvolvido sobre GPUs da NVIDIA, desde a pesquisa inicial até a inferência final, que roda nas arquiteturas Hopper e Blackwell. A colaboração é endossada pelo próprio presidente e CEO da NVIDIA, Jensen Huang, que declarou: "Estamos orgulhosos que a Runway construiu seu inovador modelo de vídeo e de mundo em GPUs NVIDIA, e estamos entusiasmados em ver a Runway revolucionar a indústria de geração de vídeo". Essa parceria confere ao projeto uma base de hardware robusta e otimizada, um fator não desprezível na equação de desempenho.

Em suma, o lançamento do Runway Gen-4.5 é mais do que uma simples atualização de produto; é uma declaração de competência. Ao apresentar dados de um benchmark independente que o colocam à frente do Google e da OpenAI, a Runway força a indústria a recalibrar suas expectativas. O modelo está sendo liberado gradualmente para todos os usuários, e será nesse teste em larga escala que veremos se a performance lógica e a qualidade visual prometidas se sustentam no mundo real. Por enquanto, os fatos indicam um novo líder na guerra dos vídeos de IA.