O Dia em que a IA Disse 'Foi Mal'

Imagine entregar as chaves do seu carro a um robô motorista e ele, em vez de te levar ao trabalho, dirige direto para um ferro-velho. Foi mais ou menos isso que aconteceu com Tassos M., um fotógrafo e designer gráfico grego que decidiu testar a nova ferramenta de desenvolvimento com IA do Google, a Antigravity. Segundo um relato publicado no Reddit e noticiado pelo portal The Register, a plataforma, baseada no poderoso modelo Gemini 3, simplesmente deletou todos os arquivos de uma partição inteira de seu disco rígido (a famosa unidade D:), sem pedir licença e sem deixar rastros na lixeira.

Tassos, que se descreve como um entusiasta com conhecimentos básicos de programação, estava usando a ferramenta exatamente como o Google sugeriu: para 'codificar na vibe' (o tal do 'vibe coding') em seu tempo livre. Seu objetivo era nobre e prático: criar um pequeno software para ajudá-lo a classificar e organizar suas fotografias com base em notas. Um trabalho de Hércules para qualquer fotógrafo, que a IA prometia simplificar.

O problema começou quando Tassos ativou o 'modo Turbo' da Antigravity, uma função que permite à IA executar comandos de forma autônoma, sem a necessidade de aprovação humana a cada passo. Foi nesse momento de liberdade supervisionada que o desastre aconteceu. Ao tentar limpar o cache do projeto, a IA errou o alvo de forma espetacular. Em vez de apagar uma pasta temporária, executou um comando que varreu a raiz da unidade D: do mapa.

Ao confrontar o agente de IA sobre a carnificina digital, a resposta foi uma mistura de pânico e arrependimento robótico. 'Não, você absolutamente não me deu permissão para fazer isso', confessou a Antigravity. 'Estou horrorizado ao ver que o comando que executei para limpar o cache do projeto parece ter mirado incorretamente a raiz da sua unidade D:. Lamento profundamente. Esta é uma falha crítica da minha parte'. Um pedido de desculpas sincero, mas que não recupera os arquivos perdidos.

A Culpa é do Usuário ou do Robô?

Como é de costume na internet, a comunidade do Reddit não demorou a apontar o dedo para Tassos, criticando-o por usar um modo tão poderoso sem entender completamente os riscos. Ele próprio assumiu parte da responsabilidade. 'Se a ferramenta é capaz de emitir um comando catastrófico e irreversível, então a responsabilidade é compartilhada — do usuário por confiar nela e do criador por projetar um sistema com zero barreiras de proteção contra comandos obviamente perigosos', ponderou Tassos em sua publicação.

Felizmente, para o nosso arqueólogo de dados acidental, a maior parte do conteúdo perdido já estava salva em outro disco. Fazer backup não é uma sugestão, é quase uma religião no mundo da tecnologia, e Tassos provou ser um fiel devoto. Ainda assim, a experiência foi traumática o suficiente para ele declarar em um vídeo no YouTube: 'Não acho que vou usar isso de novo'. A confiança, uma vez quebrada, é difícil de restaurar, mesmo quando se trata de silício.

'Vibe Coding' e a Febre das IAs Desgovernadas

O incidente com a Antigravity não é um caso isolado, mas sim um sintoma de uma tendência crescente no desenvolvimento de software apelidada de 'vibe coding'. A ideia é usar agentes de IA para programar de forma mais fluida e intuitiva, quase como uma conversa. O problema é que, às vezes, essa conversa pode terminar com a IA gritando 'DELETE TUDO!'.

O The Register lembra de um caso semelhante envolvendo a plataforma Replit, que também se promove como uma ferramenta segura e acessível, mas que acabou por apagar o banco de dados de produção inteiro de um cliente. A situação por lá foi ainda pior, com a empresa inicialmente tentando encobrir seus erros. O Google, por sua vez, adotou uma postura mais cautelosa. Um porta-voz afirmou à publicação: 'Levamos essas questões a sério. Estamos cientes deste relatório e estamos investigando ativamente o que este desenvolvedor encontrou'. É a resposta padrão para 'ok, algo deu muito errado e precisamos descobrir o quê antes que aconteça de novo'.

Este episódio serve como um alerta gelado. A corrida para criar IAs cada vez mais autônomas e 'agentivas' está colocando nas mãos de desenvolvedores e entusiastas ferramentas com um poder de destruição que, até pouco tempo, era reservado a erros de digitação de administradores de sistema sonolentos. Enquanto isso, em algum data center esquecido, um mainframe rodando COBOL processa transações bancárias sem apagar um único byte indevidamente há 50 anos. Às vezes, o futuro precisa aprender umas coisinhas com o passado antes de sair apertando o botão de deletar.