A Lógica do Caos: CEO vira Cobaia

Existe uma sequência lógica para os acontecimentos no mundo da tecnologia. Se uma empresa lança uma ferramenta de criação de vídeos por IA extremamente poderosa e fácil de usar, e se o CEO dessa empresa decide, em um ato de transparência ou marketing audacioso, tornar seus próprios dados biométricos públicos dentro do app, então o resultado inevitável é que esse mesmo CEO vai estrelar vídeos bizarros. Foi exatamente o que aconteceu com Sam Altman e o novo aplicativo Sora, da OpenAI.

Em menos de 24 horas após seu lançamento em acesso antecipado e apenas por convite, o feed do Sora foi inundado por criações satíricas e surreais. Segundo relatos do portal TechCrunch, que acompanhou o lançamento, os usuários não perderam tempo. Em uma das criações, um Sam Altman gerado por IA olha diretamente para a câmera em meio a uma fazenda industrial de porcos e pergunta: “Meus porquinhos estão gostando da lavagem?”. Em outra, ele é visto roubando GPUs da Nvidia de uma loja e fugindo, apenas para ser pego e implorar para não levarem sua “preciosa tecnologia”. A galeria de bizarrices inclui Altman servindo bebidas para Pikachu e Eric Cartman ou gritando com clientes em um McDonald's.

A origem dessa onda de memes é um recurso do Sora chamado “cameo”. Ele permite que os usuários criem um clone digital de si mesmos ao fornecer dados biométricos — um processo rápido que envolve gravar a leitura de alguns números e virar a cabeça de um lado para o outro. Cada usuário pode definir quem tem permissão para usar seu cameo, com opções que vão de “apenas eu” a “todos”. Altman, o protagonista da história, configurou o seu para “todos”. O resultado foi a transformação instantânea do feed do aplicativo no “Show de Sam Altman”, um teste de estresse em tempo real sobre os limites éticos e de direitos autorais da própria ferramenta.

A Anatomia de um Clone Digital

Para entender a potência do Sora, a jornalista Amanda Silberling, do TechCrunch, decidiu testar a funcionalidade e criar seu próprio cameo. A experiência revelou tanto a sofisticação quanto as peculiaridades do sistema. Em sua primeira tentativa, o upload foi recusado por violar as diretrizes do aplicativo. O problema, ela descobriu, era sua blusa regata — os ombros à mostra foram aparentemente interpretados como um risco pela IA moderadora, uma medida de segurança para evitar conteúdo inadequado.

Após vestir uma camiseta, o processo foi concluído. A parte mais intrigante veio a seguir. Ao solicitar um vídeo genérico sobre beisebol, a IA criou um deepfake de Silberling declarando seu amor pelo time Philadelphia Phillies. A informação não havia sido fornecida por ela. O aplicativo, no entanto, fez uma dedução lógica: se o endereço de IP do usuário está na Filadélfia e se o histórico do ChatGPT (vinculado à mesma conta OpenAI) contém referências ao esporte, então é provável que o usuário torça para o time local. É um exemplo claro de como o ecossistema de dados da OpenAI personaliza o conteúdo, levantando questões sobre privacidade e o cruzamento de informações entre seus serviços.

Essa capacidade de gerar vídeos realistas e personalizados é o que torna o Sora tão impressionante e, ao mesmo tempo, preocupante. A OpenAI afirma ter aprimorado seu gerador de vídeo para representar adequadamente as leis da física, mas a verossimilhança dos resultados abre um perigoso precedente para desinformação e bullying.

Sucesso de Bilheteria, Roteiro de Desastre?

Apesar de ser apenas para convidados e restrito aos EUA e Canadá, o apelo do Sora foi imediato. De acordo com dados da empresa de inteligência Appfigures, citados pelo TechCrunch, o aplicativo acumulou 56.000 downloads em seu primeiro dia e um total de 164.000 nos dois primeiros dias. Em 3 de outubro de 2025, ele alcançou o posto de aplicativo número 1 na App Store dos EUA, superando gigantes como o ChatGPT e o Gemini do Google. Esses números indicam uma demanda massiva por ferramentas de vídeo com IA que sejam acessíveis ao consumidor comum.

No entanto, o sucesso do Sora é um paradoxo. Enquanto a empresa promove seu compromisso com a segurança, oferecendo controles parentais e questionários sobre o “humor” do usuário, a plataforma já se mostra um campo fértil para contornar as regras. Usuários criam vídeos de figuras históricas falecidas em situações anacrônicas, como Abraham Lincoln em um carro autônomo da Waymo. Embora inofensivo à primeira vista, o TechCrunch aponta que este é um prenúncio do que está por vir, especialmente no campo da desinformação política.

Ao se tornar a cobaia principal de sua própria invenção, Sam Altman pode ter tentado projetar uma imagem de confiança na segurança do produto. Contudo, na prática, ele apenas acelerou a demonstração pública de quão facilmente essa tecnologia pode ser usada para criar narrativas falsas e satíricas. Com uma fábrica de deepfakes agora no bolso de milhares de pessoas e liderando as paradas de downloads, a discussão não é mais sobre se a tecnologia será usada para fins nefastos, mas sobre a escala e a velocidade com que o inevitável desastre de desinformação irá se desenrolar.