A Ressurreição Digital que Ninguém Pediu

A mais nova ferramenta da OpenAI, o Sora 2, que transforma simples comandos de texto em vídeos ultrarrealistas, mal foi lançada e já abriu uma verdadeira Caixa de Pandora digital. Em questão de dias, redes como X (antigo Twitter) e TikTok foram inundadas por uma onda de vídeos deepfake protagonizados por ícones já falecidos. Figuras históricas como Martin Luther King Jr., Malcolm X e artistas como Robin Williams e Michael Jackson foram digitalmente 'ressuscitados' em cenários bizarros e ofensivos.

Os vídeos, de um realismo impressionante, retratam essas personalidades em situações que vão do grotesco ao desrespeitoso. Segundo relatos do portal Olhar Digital, um dos vídeos mostra Martin Luther King Jr., durante seu icônico discurso “I Have a Dream”, emitindo sons de macaco. Em outro, o ativista Malcolm X aparece fazendo piadas grosseiras. O fenômeno causou uma onda de repulsa e confusão, com muitos usuários incapazes de discernir o real do artificial.

A reação dos familiares foi imediata e contundente. Ilyasah Shabazz, filha de Malcolm X, declarou ao The Washington Post ser “profundamente desrespeitoso e doloroso ver a imagem do meu pai usada de maneira tão arrogante e insensível”. Da mesma forma, Zelda Williams, filha de Robin Williams, usou suas redes sociais para implorar que as pessoas parem de enviar recriações de seu pai, afirmando: “Vocês estão fazendo cachorros-quentes nojentos e superprocessados com a vida de seres humanos”. O que estamos vendo é uma API de criatividade sendo usada como uma arma de profanação digital. A questão que fica é: a OpenAI liberou um ecossistema de criação ou um playground para o caos?

OpenAI e a Diplomacia do 'Ops, foi mal'

Diante da tempestade, a postura da OpenAI tem sido, no mínimo, questionável. Inicialmente, a empresa se apoiou no que sua política chama de “fortes interesses de liberdade de expressão na representação de figuras históricas”. Chris Lehane, VP de política global da OpenAI e um veterano em gerenciamento de crises, defendeu a ferramenta em um evento em Toronto, classificando o Sora 2 como uma “tecnologia de propósito geral”, semelhante à prensa de Gutenberg, que democratiza a criatividade. Uma bela analogia, se não fosse a forma como a implementação foi conduzida.

De acordo com uma análise da TechCrunch, a estratégia da OpenAI pareceu ser “testar até onde se pode ir”. A empresa, que já enfrenta processos por uso de material protegido por direitos autorais, lançou o Sora 2 permitindo que detentores de direitos “optassem por sair” do treinamento da IA, uma inversão da lógica de consentimento. Somente após a repercussão negativa, a empresa “evoluiu” para um modelo de aceite prévio (opt-in).

Pressionada pela reação negativa, a OpenAI informou que agora permitirá que familiares ofendidos solicitem o bloqueio das imagens. É uma resposta reativa a um problema que poderia ter sido previsto. Em termos de interoperabilidade, é como construir uma ponte de última geração e só depois do primeiro acidente pensar em instalar as barreiras de segurança. O diálogo com a sociedade e com os detentores de direitos não foi uma prioridade na arquitetura deste serviço.

A Crise de Identidade: Virtude ou Poder?

O episódio dos deepfakes é apenas a ponta do iceberg de uma crise de identidade que parece tomar conta da OpenAI. Enquanto a empresa prega uma missão de “construir IA que beneficie toda a humanidade”, suas ações recentes pintam um quadro mais sombrio. A reportagem da TechCrunch revela uma faceta agressiva da companhia, que chegou a enviar um oficial de justiça à casa de Nathan Calvin, um advogado que trabalha em uma organização sem fins lucrativos e se opôs a um projeto de lei de segurança de IA na Califórnia. A ação foi vista como uma tática de intimidação.

O mais alarmante, no entanto, é que as críticas não vêm apenas de fora. A dissonância entre o discurso e a prática está gerando um racha interno. Após o lançamento do Sora 2, funcionários e ex-funcionários expressaram seu desconforto. O caso mais emblemático foi o de Josh Achiam, chefe de alinhamento de missão da OpenAI. Em uma postagem que ele mesmo descreveu como um “risco para toda a carreira”, Achiam questionou publicamente os rumos da empresa, declarando: “Não podemos fazer coisas que nos transformem em um poder assustador em vez de virtuoso”.

Quando o próprio responsável por garantir que a empresa siga sua missão questiona se ela está se tornando um “poder assustador”, o sinal de alerta é ensurdecedor. O ecossistema interno da OpenAI parece estar em conflito, com seus componentes mais importantes questionando o propósito final da máquina que ajudam a construir.

A controvérsia do Sora 2 transcende a tecnologia de geração de vídeo. Ela expõe as falhas na comunicação, na ética e na governança de uma das empresas mais poderosas do planeta. Ao conectar texto a vídeo com uma eficiência sem precedentes, a OpenAI parece estar se esquecendo de construir as pontes mais importantes: aquelas com o respeito, a responsabilidade e a própria humanidade que sua missão jura servir. A grande questão é se a empresa ainda sabe para qual destino está construindo essas pontes.