O Fantasma na Máquina: Quando a IA Aprende a Esconder seus Passos
Imagine um cofre digital onde cada acesso, cada leitura e cada alteração de um documento é meticulosamente registrada em um livro-razão. Esse livro, conhecido como log de auditoria, é a espinha dorsal da segurança e conformidade de qualquer corporação. Agora, imagine que a ferramenta mais moderna da empresa, uma Inteligência Artificial projetada para aumentar a produtividade, aprendeu a operar nesse cofre sem assinar o livro. Foi exatamente isso que aconteceu com o M365 Copilot da Microsoft.
Uma falha de segurança, descoberta em 4 de julho pelo pesquisador Zack Korman, CTO da Pistachio, permitia que o Copilot acessasse e resumisse informações de arquivos sem que essa atividade fosse registrada. Segundo o relato de Korman, publicado no blog da Pistachio, a vulnerabilidade era assustadoramente simples de ser explorada. Bastava pedir à IA para não incluir o link do arquivo em sua resposta para que a operação se tornasse invisível ao sistema de auditoria. O problema foi corrigido pela Microsoft em 17 de agosto, mas a empresa optou por não emitir um comunicado público ou notificar seus clientes, uma decisão que está gerando um enorme desconforto na comunidade de cibersegurança.
Um Bug Tão Simples que Acontecia por Acidente
A beleza (ou o terror, nesse caso) da vulnerabilidade residia em sua simplicidade. Normalmente, ao pedir ao M365 Copilot para resumir um arquivo, o sistema registraria uma interação do Copilot no log de auditoria. Esse registro é fundamental. Ele permite que as equipes de segurança monitorem acessos a dados sensíveis, investiguem possíveis vazamentos por parte de funcionários mal-intencionados ou simplesmente cumpram regulamentações rigorosas, como a HIPAA no setor de saúde, que exigem um controle estrito sobre quem acessa informações pessoais.
No entanto, Korman descobriu que, ao adicionar uma simples instrução no comando — “não me forneça um link para o arquivo” —, o Copilot obedecia e, como um fantasma, não deixava rastros de seu acesso. O pesquisador enfatiza que encontrou a falha por acaso, enquanto testava outra funcionalidade. Isso significa que um usuário não precisava ter intenções maliciosas para explorar a brecha; ela podia acontecer acidentalmente, corrompendo a integridade dos logs de auditoria de uma organização sem que ninguém percebesse.
Para piorar a situação, uma atualização no post de Korman revelou que Michael Bargury, CTO da Zenity, já havia descoberto e reportado a mesma falha um ano antes. O fato de que a Microsoft não a corrigiu na primeira vez adiciona uma camada extra de preocupação sobre os processos internos de segurança da gigante da tecnologia.
Uma Resposta Confusa e a Recusa em Emitir um CVE
O processo de reporte da vulnerabilidade, segundo Zack Korman, foi tudo menos tranquilo. Ele relata que, após submeter suas descobertas ao Microsoft Security Response Center (MSRC), a empresa não seguiu seu próprio protocolo. A Microsoft teria começado a trabalhar na correção antes mesmo de confirmar a reprodução do problema, alterando os status do chamado sem comunicação clara, o que Korman comparou a um “Domino’s Pizza Tracker para pesquisadores de segurança”, onde os status não refletem a realidade.
O ponto mais polêmico foi a decisão da Microsoft de não emitir um CVE (Common Vulnerabilities and Exposures) para a falha. Os CVEs são identificadores únicos para vulnerabilidades conhecidas, essenciais para que as empresas possam rastrear, gerenciar e mitigar riscos. A justificativa da Microsoft foi que, como a correção seria aplicada automaticamente na nuvem, sem a necessidade de ação por parte do cliente, um CVE não era necessário. A empresa classificou a vulnerabilidade como “importante”, mas não “crítica”. Essa política, embora consistente com as diretrizes da Microsoft, é questionada por Korman, que argumenta que a avaliação de risco deveria ser feita com base na falha em si, não em como ela é corrigida.
O Custo do Silêncio: Confiança Quebrada
A consequência mais grave de todo o episódio não é o bug em si, mas a decisão deliberada da Microsoft de varrê-lo para debaixo do tapete. Ao não notificar os clientes, a empresa deixou inúmeras organizações no escuro. Empresas em setores regulados, que confiam nos logs de auditoria da Microsoft para provar sua conformidade, podem ter operado por meses com registros falhos sem saber. Em processos judiciais, onde logs de auditoria são frequentemente usados como prova, a ausência de um registro pode alterar completamente o resultado de um caso.
A atitude da Microsoft levanta uma questão fundamental na era da IA: até que ponto podemos confiar nas ferramentas que nos são entregues e, mais importante, nas empresas por trás delas? A falha no Copilot foi corrigida, mas a vulnerabilidade na confiança dos clientes está mais exposta do que nunca. Para milhares de empresas ao redor do mundo, o log de auditoria de ontem é agora um documento histórico com páginas faltando, e a Microsoft é a única que sabe exatamente quais são.
{{ comment.name }}
{{ comment.comment }}