OpenAI DevDay 2025: Análise Factual das Novas Ferramentas de IA
Em uma apresentação que pode ser descrita como uma declaração de intenções, a OpenAI realizou seu DevDay 2025 em 6 de outubro, em São Francisco, para mais de 1.500 participantes. A premissa do evento era clara: se o ChatGPT foi o produto, agora a meta é torná-lo a plataforma. Para isso, o CEO Sam Altman e sua equipe apresentaram um conjunto de ferramentas que, em tese, dão aos desenvolvedores as chaves para construir o futuro da interação com a IA. Vamos analisar os fatos apresentados, sem a névoa do marketing.
A API ficou mais inteligente (e artística)
A primeira grande peça no tabuleiro foi a atualização dos modelos disponíveis via API. Segundo o comunicado oficial de Sam Altman, o tão aguardado GPT-5 Pro está agora acessível para desenvolvedores. A promessa é de um modelo com "alta precisão e profundidade de raciocínio". Junto a ele, a empresa liberou o gpt-realtime-mini, pensado para interações mais ágeis. Se o GPT-5 Pro é o cérebro para tarefas complexas, então o gpt-realtime-mini seria o sistema nervoso para respostas rápidas. A lógica é expandir o leque de aplicações possíveis.
Mas a estrela visual foi, sem dúvida, o Sora 2. Apresentado ao público na semana anterior, o modelo de geração de vídeo agora também está disponível na API. A demonstração exibiu clipes de alta fidelidade gerados a partir de prompts de texto, reforçando o argumento da OpenAI de que a criação de vídeo de qualidade está se tornando uma tarefa de software. A liberação via API significa que, em breve, veremos ferramentas de edição de vídeo e outros produtos com a capacidade do Sora 2 embutida.
Se ChatGPT é um cérebro, agora ele tem braços
A transformação do ChatGPT de um serviço para um sistema operacional foi o tema central, e a ferramenta para isso tem nome: Apps SDK. A lógica é simples: se um sistema operacional quer dominar, então ele precisa de aplicativos. Senão, ele é apenas uma curiosidade técnica. A OpenAI está claramente seguindo essa cartilha. O novo SDK permite que desenvolvedores construam aplicações completas que rodam diretamente na interface do ChatGPT, indo muito além dos antigos GPTs customizados.
A prova de conceito foi demonstrada ao vivo por Alexi Christakis, engenheiro de software da OpenAI. Em uma sequência impressionante, ele "conversou com aplicativos". Primeiro, abriu um app da Coursera e o ChatGPT respondeu perguntas sobre o conteúdo de um vídeo educacional. Em seguida, pediu ao Canva para criar um cartaz e, a partir dele, uma apresentação de slides completa. A integração foi fluida, com o Canva gerando os designs dentro do chat. Para finalizar, Christakis usou o Zillow para procurar casas em uma cidade sugerida pelo ChatGPT, filtrando os resultados com comandos de linguagem natural, dispensando os filtros tradicionais do site. O fato de que o SDK utiliza o Model Context Protocol (MCP) da Anthropic, conforme mencionado no material do evento, é um detalhe técnico relevante que aponta para uma interoperabilidade mais ampla no futuro.
Monte sua própria IA: LEGO para desenvolvedores?
Outro anúncio fundamental foi o AgentKit. A promessa, segundo Altman, é fornecer "tudo o que você precisa para construir, implantar e otimizar fluxos de trabalho de agentes". Um agente de IA é, em termos simples, um programa autônomo que pode executar tarefas complexas. O AgentKit, que já está disponível para todos, é o conjunto de ferramentas para criar esses agentes.
A demonstração ficou a cargo de Christina Huang, da equipe de experiência de plataforma. O desafio dela era criar e implantar um agente funcional em apenas oito minutos, com um cronômetro na tela. Usando o Agent Builder da plataforma, ela criou um agente que transformava a programação do DevDay em uma experiência interativa. O processo envolveu comandos do tipo "se/então" (if/else) e a adição de critérios específicos. Em menos de três minutos, o primeiro agente estava pronto. Em seguida, ela criou um agente mestre, adicionou "guardrails" de segurança e um agente para proteger dados pessoais (PII). Todo o fluxo de trabalho foi concluído com 3 minutos e 52 segundos de sobra no relógio. Após publicar e integrar o agente ao site do evento com algumas linhas de código, ele estava funcional, com 49 segundos restantes. A demonstração foi uma prova de que a barreira de entrada para criar IAs autônomas está, de fato, diminuindo.
Codex: O copiloto com licença para programar
Para o público de programadores, a notícia sobre o Codex foi especialmente bem-vinda. A ferramenta de geração de código da OpenAI, que segundo a empresa viu seu uso aumentar 10 vezes desde agosto, saiu oficialmente da fase de testes ("research preview") e está agora em disponibilidade geral. Para provar seu valor, Romain Huet, Chefe de Experiência do Desenvolvedor, subiu ao palco.
Em questão de minutos, Huet usou o Codex para programar o controle de uma câmera com um controle de Xbox 360. Não satisfeito, ele simultaneamente construiu um assistente de voz para controlar as luzes do auditório, que respondeu a comandos verbais e iluminou a plateia. O grand finale foi usar o Codex para criar uma sobreposição de créditos para o evento, tirar uma foto da multidão e iniciar uma contagem regressiva. A demonstração foi um argumento factual sobre a capacidade da ferramenta em acelerar o desenvolvimento de software de forma prática e complexa.
Conclusão: Mais ferramentas, mesma visão (e nenhum hardware)
O veredito do DevDay 2025 é claro: a OpenAI está focada em se tornar a infraestrutura fundamental da nova geração de software. As liberações do GPT-5 Pro e Sora 2 na API, o Apps SDK e o AgentKit não são produtos finais, mas sim matéria-prima para desenvolvedores. A estratégia é criar um ecossistema onde a inovação acontece sobre a plataforma da OpenAI. Curiosamente, apesar da presença de Jony Ive, ex-designer da Apple, em uma das sessões, o evento terminou, como apontado pela cobertura da ZDNET, sem qualquer anúncio de hardware. A promessa de um dispositivo de IA, por enquanto, permanece no campo das especulações. A OpenAI, por ora, está construindo o software. A construção do hardware, aparentemente, fica para outro dia.
{{ comment.name }}
{{ comment.comment }}