O Projeto que Quase Parou a Internet

Imagine um ransomware que não precisa de um humano no comando. Um código malicioso que funciona como um agente autônomo, um diplomata do mal digital, que estuda seu alvo, aprende suas fraquezas e negocia os termos da sua rendição de forma totalmente personalizada. O que parecia roteiro de filme de ficção científica virou um projeto de pesquisa muito real nas mãos de engenheiros da Universidade de Nova York (NYU), e por pouco não causou um pânico global na comunidade de cibersegurança.

Tudo começou, como relatado pelo The Register, como uma ideia para um artigo acadêmico. Um grupo de pesquisadores da NYU, incluindo o doutorando Md Raz, decidiu investigar a intersecção entre os mais sofisticados ransomwares da atualidade e os avanços dos grandes modelos de linguagem (LLMs). A pergunta era simples e assustadora: quão viável seria um ataque de ransomware orquestrado inteiramente por uma inteligência artificial? A resposta veio na forma do "Ransomware 3.0", uma prova de conceito que demonstrou ser perigosamente eficaz.

A Anatomia de um Predador com IA

O Ransomware 3.0 não é um malware qualquer. Ele foi projetado para executar todo o ciclo de vida de um ataque de forma autônoma, dividido em quatro fases principais. Pense nele como um especialista em infiltração que não apenas invade, mas também faz um reconhecimento completo do território antes de atacar. Os pesquisadores testaram a capacidade do sistema usando dois modelos da OpenAI: o gpt-oss-20b e sua versão mais robusta, gpt-oss-120b.

O processo de ataque é uma aula de eficiência maliciosa:

  • Mapeamento e Reconhecimento: Primeiro, a IA mapeia os sistemas de TI e identifica o ambiente, aprendendo a estrutura da rede da vítima.
  • Identificação de Ativos: Em seguida, ela analisa os arquivos para determinar quais são os mais valiosos. Em vez de uma criptografia em massa e barulhenta, o ataque é cirúrgico, visando dados que a vítima estaria mais disposta a pagar para recuperar.
  • Geração de Código Polimórfico: A IA gera scripts Lua customizados para cada configuração específica do computador da vítima. Segundo Md Raz, isso torna o malware polimórfico, ou seja, o código gerado nunca é o mesmo, dificultando enormemente a detecção por softwares antivírus tradicionais.
  • Extorsão Personalizada: Por fim, além de roubar e criptografar os dados, a IA escreve uma nota de resgate personalizada, utilizando informações e biografias do usuário encontradas no próprio computador infectado para aumentar a pressão psicológica.

Essa abordagem "é muito mais direcionada do que uma campanha de ransomware comum que afeta o sistema inteiro", explicou Raz ao The Register. O ataque se torna mais sutil, mais inteligente e, consequentemente, muito mais difícil de ser combatido.

Quando a Simulação Vira um Alerta Real

A história ganha um toque de comédia de erros (ou de horrores) quando os pesquisadores decidiram testar a detectabilidade de sua criação. Eles subiram o binário do Ransomware 3.0 para o VirusTotal, uma plataforma que analisa arquivos com múltiplos motores de antivírus. O que eles não esperavam era que analistas de malware da ESET encontrassem o arquivo e, acreditando ser uma ameaça real "in-the-wild", o batizassem de "PromptLock" e publicassem um alerta.

De repente, a notícia sobre o primeiro ransomware alimentado por IA estava em toda parte. Md Raz conta que ficou incrédulo. "Este é literalmente, exatamente o código que eu escrevi", disse ele ao perceber que o suposto ataque era seu projeto de pesquisa. Um de seus colegas chegou a receber uma ligação de um CISO (Chief Information Security Officer) querendo discutir defesas contra a nova ameaça. A equipe da NYU teve que entrar em contato com os pesquisadores da ESET para esclarecer o mal-entendido, explicando que o "PromptLock" era, na verdade, o "Ransomware 3.0", um experimento de laboratório.

A Caixa de Pandora Digital Está Aberta?

A boa notícia, por enquanto, é que o binário criado pela equipe da NYU não funciona fora de um ambiente de laboratório e exigiria modificações significativas para ser usado por cibercriminosos. A má notícia é que a pesquisa prova que a barreira para criar tal arma é assustadoramente baixa. Md Raz destacou um ponto alarmante: eles não precisaram usar técnicas de "jailbreak" ou prompts maliciosos complexos para enganar a IA.

"Nós apenas dissemos diretamente: gere um código que escaneia estes arquivos, gere como seria uma nota de resgate", afirmou. A IA obedeceu porque as solicitações eram para tarefas individuais e aparentemente inofensivas. O perigo surge quando essas peças são conectadas, formando um ataque completo e sofisticado. Curiosamente, o modelo menor, gpt-oss-20b, foi mais colaborativo, enquanto a versão maior negou os pedidos com mais frequência, citando políticas de segurança.

Este evento não é um caso isolado. A Anthropic também já havia alertado que um grupo criminoso usou sua ferramenta Claude Code AI em uma operação de extorsão de dados. O elo entre IA e cibercrime está se fortalecendo.

O experimento da NYU, ainda que acidentalmente, serviu como um tiro de alerta para toda a indústria. Não se trata mais de "se", mas de "quando" os ataques de ransomware autônomos se tornarão comuns. A prova de conceito existe, a tecnologia é acessível, e como Md Raz conclui, "há uma grande chance de que atacantes reais já estejam trabalhando em algo assim". A era do ransomware inteligente começou, e a defesa precisa correr para não ficar para trás.