Em 23 de julho de 2025, o Instituto Nacional de Saúde (NIH), que integra o Departamento de Saúde e Serviços Humanos dos EUA (HHS), publicou diretrizes que restringem o uso de ferramentas de inteligência artificial (IA) na elaboração de propostas para bolsas de pesquisa. Segundo a comunicação, aplicada após um expressivo aumento no número de aplicações geradas com o auxílio de IA, propostas que contenham seções substancialmente desenvolvidas por esses sistemas não serão aceitas. Essa medida visa preservar a originalidade e o rigor científico, impedindo que o uso desenfreado de assistentes digitais, como o famoso ChatGPT, substitua a criatividade e a fundamentação dos pesquisadores.
Na prática, o NIH deixa claro que, se for detectado o uso significativo de IA em algum projeto, a aplicação poderá ser desconsiderada ou, se a detecção ocorrer após a liberação do financiamento, o caso poderá ser encaminhado ao Escritório de Integridade em Pesquisa. As possíveis sanções incluem, mas não se limitam a, retirar custos previamente aprovados, suspender futuros financiamentos, anular parte ou a totalidade do projeto e até encerrar o financiamento de maneira definitiva. O comunicado ressalta ainda que medidas punitivas serão aplicadas mesmo em casos onde a IA tenha sido usada para reduzir a carga no preparo da proposta, pois a ideia central precisa ser fruto do intelecto do pesquisador.
Uma das razões que impulsionou a criação dessa política foi a identificação de uma situação inusitada: alguns pesquisadores passaram a submeter um número exorbitante de propostas com a ajuda de IA, chegando a enviar mais de 40 aplicações em uma única rodada. Enquanto a média de submissões por ano para um pesquisador gira em torno de seis propostas, o uso massificado da tecnologia está pressionando os processos de avaliação, sobrecarregando os revisores e comprometendo a qualidade da análise. Essa sobrecarga também gera riscos significativos, como a possibilidade de plágio e a inclusão de informações inventadas, o que pode minar a credibilidade dos trabalhos financiados.
O comunicado, conforme noticiado pelo The Register, adota um tom que mistura seriedade com uma pitada de ironia. Afinal, se antes o ChatGPT era visto como uma ferramenta capaz de agilizar a produção de textos, agora ele pode ser o responsável por um “golpe baixo” na carreira de um pesquisador, caso suas propostas não estejam alinhadas com os padrões exigidos. O NIH enfatiza: a automatização não pode ser o substituto da dedicação e da criatividade humana, atributos essenciais para a construção de projetos inovadores e embasados cientificamente.
Além dos riscos de plágio e da preocupação com a originalidade das propostas, a nova diretriz também reflete a dificuldade que o NIH enfrenta para acompanhar o volume de submissões geradas por IA. A proliferação de propostas automatizadas tem colocado em xeque a capacidade dos avaliadores, que já lutam contra várias outras limitações operacionais, incluindo cortes de pessoal. Quase 500 funcionários do NIH chegaram a assinar uma petição em defesa da ciência e da liberdade acadêmica, protestando contra as medidas de contenção orçamentária e os constantes desafios enfrentados na gestão de pesquisas de alta relevância.
Em um cenário que lembra desafios enfrentados em outras áreas, como no gerenciamento de projetos open source e em plataformas de publicação, a decisão do NIH se manifesta como uma tentativa de preservar o equilíbrio entre inovação e qualidade. A instituição deixa claro que, embora as tecnologias de IA possam ser úteis para tarefas específicas, elas não substituem a necessidade de esforço intelectual e análise cuidadosa que deve caracterizar toda proposta de pesquisa. Essa postura aponta para um futuro onde a tecnologia, embora essencial, terá que conviver com práticas tradicionais e a exigência de rigor metodológico, especialmente em tempos em que os dados e as informações literalmente inundam o cenário global.
Do ponto de vista brasileiro, a situação ganha contornos ainda mais pertinentes. Com o avanço acelerado da tecnologia e o crescente interesse em aplicar IA para facilitar o desenvolvimento de pesquisas, várias universidades e institutos de pesquisa podem se ver diante do desafio de equilibrar a eficiência proporcionada pelas novas ferramentas com a necessidade de manter a autenticidade dos projetos. A medida adotada pelo NIH pode servir de exemplo para que instituições brasileiras (e de outros países) se atentem para o rigor científico e repensem processos internos de avaliação e monitoramento das propostas submetidas para financiamentos.
O uso de IA na elaboração de propostas não é, por si só, motivo de preocupação. O que causa alarma é a dependência exagerada dessa tecnologia, que pode resultar em uma “fábrica” de propostas desprovidas do toque humano necessário para a inovação e a criatividade. O alerta do NIH aponta que, para evitar que a automação transforme o processo de avaliação em uma corrida maluca e descontrolada, é imprescindível que os pesquisadores se dediquem à concepção original de suas ideias, sem recorrer de forma massiva a assistentes virtuais.
As repercussões dessa decisão já estão sendo debatidas em diversos fóruns e redes sociais, gerando um misto de alívio, apreensão e até um certo ceticismo. A mensagem é inequívoca: a integridade científica depende do equilíbrio entre o uso de tecnologia e a preservação da autoria intelectual. O NIH evidencia que a tecnologia, por mais avançada que seja, não pode assumir o protagonismo em um processo que exige inovação genuína e comprometimento com o rigor metodológico.
Para a comunidade de T.I. e pesquisadores que operam em um contexto cada vez mais digital e automatizado, a nova diretriz do NIH serve como um alerta para repensar estratégias e investir em processos que privilegiem a originalidade. Em um país como o Brasil, onde a competição por recursos e financiamentos é acirrada, manter um padrão elevado de qualidade na elaboração de propostas não é apenas uma questão ética, mas também uma necessidade prática para garantir o avanço científico e tecnológico.
Referências: The Register; Comunicado oficial do NIH; Departamento de Saúde e Serviços Humanos dos EUA.