IA na pesquisa acadêmica: o que muda com a Portaria CNPq nº 2.664/2026
- Dr. Fábio Portela

- há 3 dias
- 7 min de leitura
O ChatGPT virou rotina na vida de pesquisadores brasileiros. Mas, enquanto mestrandos e doutorandos aprendiam a usar o Copilot para revisar textos e o Perplexity para mapear literatura, o CNPq foi silencioso preparando algo importante: uma regulamentação oficial.
Em 6 de março de 2026, o Conselho Nacional de Desenvolvimento Científico e Tecnológico publicou a Portaria nº 2.664, instituindo a nova Política de Integridade na Atividade Científica. Pela primeira vez, o uso de inteligência artificial generativa em pesquisa científica brasileira tem regras explícitas, vinculantes e com consequências reais para quem descumprir.
Se você é candidato ao mestrado, mestrando, doutorando, bolsista do CNPq ou pesquisador com financiamento público — isso afeta você diretamente. Neste artigo, vou explicar com clareza o que a portaria estabelece, o que é proibido, quais são as punições e como você deve adaptar sua prática de pesquisa a partir de agora.
O que é a Portaria CNPq nº 2.664/2026 e por que ela importa
A portaria institui a Política de Integridade na Atividade Científica, um conjunto de princípios éticos, deveres e boas práticas que se aplicam a todos os que têm relação com o CNPq: pesquisadores, bolsistas, pareceristas e usuários das plataformas do Conselho.
O que torna essa portaria diferente de todas as orientações anteriores é justamente o caráter vinculante. Não estamos falando de recomendações. Estamos falando de norma.
O contexto de publicação também é revelador. O Brasil seguiu uma tendência global: em 2023, a UNESCO já havia publicado sua Recommendation on the Ethics of AI; em 2024, diversas universidades brasileiras passaram a exigir declarações de uso de IA em trabalhos acadêmicos. O CNPq chegou um pouco depois, mas chegou com força normativa que as políticas institucionais individuais não tinham.
Para pesquisadores em Direito — área em que produzo mentoria há anos — essa portaria é também objeto de pesquisa. Afinal, estamos diante de um ato normativo de órgão federal que delimita o que é conduta íntegra na produção científica. Há perguntas jurídicas relevantes aqui: qual a natureza dessa norma? Qual sua hierarquia no sistema jurídico? Ela pode ser contestada judicialmente? São ângulos excelentes para projetos de dissertação e tese.
O que é obrigatório a partir de agora
A principal novidade prática da portaria é a obrigatoriedade de declaração do uso de IA generativa.
Isso significa que, em qualquer trabalho submetido com vínculo ao CNPq — seja um artigo para uma revista Qualis, um relatório de bolsa, um projeto de pesquisa para edital ou uma tese financiada pelo Conselho —, o pesquisador precisa:
Informar se usou qualquer ferramenta de IA generativa em qualquer etapa do trabalho
Identificar qual ferramenta foi utilizada (ChatGPT, Copilot, Claude, Gemini, Perplexity, ou outra)
Descrever a finalidade do uso — em que parte do processo a ferramenta foi empregada
Isso vale para todas as fases da pesquisa: levantamento bibliográfico, análise de dados, redação de texto, revisão gramatical, tradução, geração de código, estruturação de argumentos ou qualquer outra aplicação.
A portaria não proíbe o uso. Ela exige transparência. E exige que essa transparência seja registrada formalmente, não apenas mencionada em nota de rodapé improvisada.
O que é expressamente proibido
Aqui o texto da portaria é direto e sem ambiguidade. Há duas proibições centrais:
1. Apresentar conteúdo gerado por IA como autoria humana
É vedado submeter qualquer conteúdo produzido por ferramenta de inteligência artificial como se fosse de autoria exclusiva do pesquisador, sem que o uso da ferramenta tenha sido declarado.
Em termos práticos: se você usou o ChatGPT para escrever um parágrafo, uma seção, ou qualquer trecho do seu texto acadêmico e não declarou isso, você está descumprindo a portaria. Não importa se o texto foi posteriormente editado. O que conta é a origem do conteúdo.
Isso tem implicações profundas para dissertações e teses, mas também para artigos, capítulos de livro e qualquer produção vinculada a bolsas e auxílios do CNPq.
2. Usar IA para elaborar pareceres científicos com projetos de terceiros
É igualmente proibido inserir projetos de pesquisa de outros pesquisadores em ferramentas de IA generativa para a elaboração de pareceres científicos.
Essa proibição atinge especialmente os pareceristas ad hoc do CNPq. Quando um pesquisador é convidado a avaliar um projeto, ele recebe acesso a um documento confidencial de outro autor. Usar esse documento como input de uma IA — mesmo que o parecerista depois reescreva o resultado — viola tanto a confidencialidade do processo quanto a integridade da avaliação científica.
Responsabilidade: continua sendo sua
Um ponto que precisa ficar absolutamente claro: o uso de IA não transfere responsabilidade.
A portaria é explícita ao afirmar que os autores permanecem como únicos responsáveis pela integridade do conteúdo final, independentemente de qualquer ferramenta utilizada durante o processo. Isso inclui:
Precisão factual
Originalidade das ideias
Ausência de plágio (inclusive o gerado pela IA)
Consistência metodológica
Veracidade das referências bibliográficas
Este ponto é crucial porque as ferramentas de IA cometem erros com frequência. O ChatGPT ainda alucina referências bibliográficas que não existem. O Copilot pode resumir artigos com imprecisões. Se você incluir essas imprecisões no seu trabalho sem verificar, o erro é seu — não da ferramenta.
Quais são as punições previstas
O descumprimento das normas estabelecidas pela Portaria nº 2.664/2026 pode resultar em:
Suspensão de bolsas em andamento
Cancelamento de auxílios concedidos pelo CNPq
Exigência de devolução de recursos já recebidos, em casos de irregularidade comprovada
Potencialmente, impacto em futuras candidaturas a editais do Conselho
A portaria institui um marco normativo. As instâncias de verificação e aplicação de sanções seguem os procedimentos já existentes de integridade científica do CNPq, agora com base explícita para casos envolvendo IA.
O que muda na prática: um guia de adaptação
Se você usa IA no seu processo de pesquisa (e em 2026 é difícil encontrar pesquisador que não use pelo menos ocasionalmente), aqui está o que precisa fazer:
1. Comece a registrar seu uso agora. Mantenha um registro simples: data, ferramenta, finalidade, trecho afetado. Esse registro será a base da sua declaração obrigatória.
2. Verifique tudo que a IA produz. Referências, dados, citações, datas, nomes. A portaria deixa claro: o erro da IA é seu erro. Cheque sempre nas fontes primárias.
3. Saiba distinguir o que a IA pode e não pode fazer. A IA pode ajudar na organização de ideias, na revisão gramatical, na tradução de trechos e no mapeamento inicial de literatura. Ela não pode escrever seu argumento central, concluir por você ou substituir a análise crítica que fundamenta sua pesquisa.
4. Nunca use IA para parecer científico com projeto de terceiro. Mesmo que pareça uma ajuda inocente para formatar o texto do parecer, inserir o projeto de outro pesquisador em uma ferramenta de IA viola a norma e a confidencialidade do processo.
5. Consulte sua instituição. Muitas universidades e programas de pós-graduação já têm políticas próprias de uso de IA. Essas políticas precisam ser compatíveis com a portaria do CNPq, mas podem ser mais restritivas.
Direito, IA e pesquisa: uma área em expansão
Para pesquisadores em Direito, a Portaria nº 2.664/2026 é também um excelente objeto de pesquisa científica. Estamos diante de uma regulamentação nova, com questões abertas que merecem investigação acadêmica séria:
Qual a natureza jurídica dessa portaria? Ela se enquadra como ato normativo com eficácia erga omnes?
Os critérios de "declaração" são suficientemente precisos para garantir segurança jurídica?
Como se articula essa norma com a Lei Geral de Proteção de Dados (LGPD) em relação ao uso de dados de pesquisa em ferramentas de IA?
Qual o impacto na propriedade intelectual quando o pesquisador usa IA que foi treinada com obras protegidas por direito autoral?
Se você está buscando um tema para dissertação ou tese em Direito que seja atual, relevante e com lacuna de pesquisa identificável, a regulação do uso de IA em atividade científica é um território fértil.
FAQ sobre a Portaria CNPq nº 2.664/2026
A portaria proíbe o uso de IA na pesquisa acadêmica?
Não. A portaria não proíbe o uso de ferramentas de IA generativa. Ela exige que o uso seja declarado obrigatoriamente, com identificação da ferramenta e da finalidade. O que é proibido é apresentar conteúdo gerado por IA como autoria exclusivamente humana sem declaração.
Quem está sujeito às regras da portaria?
Todos os pesquisadores, bolsistas e usuários das plataformas do CNPq. Isso inclui bolsistas de iniciação científica, mestrado, doutorado, pós-doutorado e produtividade em pesquisa, além de qualquer pesquisador que receba financiamento ou auxílio do Conselho.
Como devo fazer a declaração de uso de IA?
A portaria exige a declaração, mas os mecanismos específicos de registro estão sendo definidos pelos programas e periódicos. Em geral, recomenda-se incluir uma nota metodológica no texto informando a ferramenta utilizada e a finalidade. Consulte as diretrizes específicas do seu programa ou periódico-alvo.
O que acontece se eu usar IA e não declarar?
O descumprimento pode resultar em suspensão ou cancelamento de bolsas e auxílios do CNPq e, em casos graves, na exigência de devolução de recursos. Além disso, há impacto reputacional e potencial impacto em futuras candidaturas.
A portaria se aplica a trabalhos já publicados antes de março de 2026?
A norma passa a valer a partir de sua publicação, em março de 2026. Trabalhos concluídos e publicados anteriormente não retroagem. O que importa são as submissões realizadas a partir dessa data.
Conclusão: transparência é o novo padrão
A Portaria CNPq nº 2.664/2026 não deve ser vista como um obstáculo. É, antes, uma oportunidade de consolidar um padrão ético para o uso de ferramentas que já são parte da rotina de pesquisa.
O pesquisador que declara de forma transparente o que faz está mais protegido — legal, reputacional e institucionalmente — do que aquele que usa IA sem registro e espera não ser questionado.
A integridade científica nunca foi uma questão de "se alguém vai descobrir". É uma questão de quem você quer ser como pesquisador. E, agora, também é uma questão de norma.
Se você quer desenvolver uma pesquisa de qualidade, com método sólido e posicionamento ético claro em relação às ferramentas que usa, o Programa Pesquisador de Sucesso pode te ajudar a construir essa base. Conheça em pesquisadordesucesso.com.br.
Referências e Leituras Recomendadas
PORTARIA CNPq nº 2.664, de 6 de março de 2026 — Texto oficial
CNPq institui Política de Integridade na Atividade Científica — gov.br
Integridade científica e uso de IA: Portaria nº 2664/2026 — UFRJ
UNESCO. Recommendation on the Ethics of Artificial Intelligence. Paris: UNESCO, 2021.
BRASIL. Lei nº 13.709/2018 — Lei Geral de Proteção de Dados Pessoais (LGPD). Disponível em: planalto.gov.br















