A internet entrou em pânico à toa: o 'Dr. ChatGPT' não foi demitido

Se você passou pelo LinkedIn ou outras redes sociais nos últimos dias, talvez tenha visto um alerta alarmista: a OpenAI teria “censurado” o ChatGPT, proibindo a ferramenta de responder sobre temas médicos e jurídicos. Antes que você desinstale seu app de IA e volte a consultar enciclopédias de papel (uma nobre arte, diga-se de passagem), respire fundo. A notícia é falsa e tudo não passou de um grande mal-entendido, daqueles que fariam um antigo sistema de mainframe dar tela azul.

O boato que viralizou mais rápido que bug em dia de deploy

Tudo começou no dia 29 de outubro, quando a OpenAI publicou uma atualização em suas Políticas de Uso. Como de costume, o documento, longo e detalhado, passou despercebido pela maioria. No entanto, alguns leitores mais atentos focaram em um trecho específico que proíbe o uso da ferramenta para o fornecimento de “consultoria personalizada que exija licença, como consultoria jurídica ou médica, sem o envolvimento adequado de um profissional licenciado”.

Pronto. Foi o suficiente para a internet tirar suas próprias conclusões. A interpretação equivocada, como destacou o site Canaltech, foi de que se tratava de uma nova e restritiva regra. O boato se espalhou, gerando a impressão de que a OpenAI estava amordaçando sua própria criação para evitar processos, transformando o chatbot em uma ferramenta muito menos útil para pesquisas sérias.

A 'nova' política que já estava no sistema desde sempre

Aqui entra o trabalho de arqueologia digital. Ao contrário do que o pânico coletivo sugeria, essa regra não tem nada de nova. A mesma diretriz, com texto muito semelhante, já constava nos termos da empresa desde, pelo menos, janeiro de 2025. Segundo a apuração do Canaltech, a política anterior já deixava claro que os usuários não deveriam usar o ChatGPT para fornecer aconselhamento jurídico, médico ou financeiro sem a revisão de profissionais qualificados.

Então, o que mudou? Absolutamente nada no conteúdo das regras. A atualização de 29 de outubro, conforme esclarecido pela OpenAI e reportado pelo TabNews, teve um objetivo puramente administrativo: unificar três documentos diferentes (um para o ChatGPT, outro para a API e um terceiro, “universal”) em um único conjunto de diretrizes. Foi uma faxina na casa, não a demolição de um cômodo. A regra de ouro sempre foi a mesma: a IA é uma ferramenta de informação, não um profissional licenciado.

A palavra oficial da OpenAI: pode continuar perguntando

Para colocar um ponto final na história, a OpenAI se posicionou oficialmente. Em contato com o Canaltech, um porta-voz da empresa foi categórico: “O ChatGPT nunca foi um substituto para aconselhamento profissional jurídico ou médico, mas continuará sendo um ótimo recurso para ajudar as pessoas a compreender informações jurídicas e de saúde”. Ou seja, a ferramenta continua sendo sua aliada para entender o que é um “habeas corpus” ou quais são os sintomas de uma doença, mas não pode e não deve substituir a consulta com um advogado ou um médico de verdade.

O posicionamento foi reforçado por Karan Singhal, chefe de IA para saúde da OpenAI. Em sua conta no X (o antigo Twitter, para os nostálgicos), ele também desmentiu os boatos, destacando que o “comportamento do modelo permanece inalterado”. A mensagem é clara: a funcionalidade que você conhece e usa não foi afetada.

Veredito: um bug de interpretação, não de sistema

No fim das contas, a suposta censura do ChatGPT foi um clássico caso de alarme falso, alimentado pela rápida disseminação de informações e pela leitura apressada de termos de serviço. A OpenAI apenas organizou seus documentos, sem alterar a essência de como sua tecnologia deve ser utilizada: com responsabilidade. Portanto, pode continuar usando o ChatGPT para suas pesquisas, mas lembre-se da lição que nossos avós, e os manuais de sistemas legados, sempre nos ensinaram: para conselhos sérios, consulte sempre um especialista de carne e osso. O sistema agradece.