top of page

CNPq reconhece o uso da Inteligência Artificial Generativa na pesquisa científica: notas sobre a Portaria nº 2.664/2026

  • Foto do escritor: Hebert Durães
    Hebert Durães
  • há 21 horas
  • 5 min de leitura

 

A rápida difusão das ferramentas de Inteligência Artificial Generativa (IAG), tais como ChatGPT, no ambiente acadêmico tem provocado intensos debates acerca de autoria, integridade científica e responsabilidade na produção do conhecimento. Esse, a propósito, tem sido objeto de pesquisa de doutorado deste que vos escreve.

 

No Brasil, esse cenário acaba de ganhar um importante marco normativo com a publicação da Portaria nº 2.664/2026 do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), que institui a Política de Integridade na Atividade Científica. A norma representa um avanço regulatório ao reconhecer explicitamente o uso de tecnologias de IA generativa no processo de pesquisa, ao mesmo tempo em que estabelece diretrizes destinadas a preservar a ética, a transparência e a responsabilidade científica.


Do autor, gerando com IAG (OpenAI)
Do autor, gerando com IAG (OpenAI)

A portaria apresenta um conjunto relativamente enxuto de dispositivos normativos (ao todo, quarenta artigos) voltados à promoção da integridade científica nas pesquisas financiadas ou apoiadas pelo CNPq. Além de estabelecer definições gerais relacionadas à atividade científica (arts. 1º a 7º), a nova portaria institui um Código de Boas Práticas Científicas (arts. 6º a 8º), estabelece diretrizes de integridade na pesquisa (art. 9º) e determina a criação de uma Comissão de Integridade na Atividade Científica (arts. 10 a 16), responsável por conduzir procedimentos administrativos e avaliar eventuais violações às normas de integridade.

 

A norma também disciplina mecanismos formais para apresentação e apuração de denúncias (arts. 17 a 25) e atribui responsabilidades às Instituições Científicas, Tecnológicas e de Inovação – ICTs (arts. 26 a 29) no acompanhamento e promoção da integridade na pesquisa. A portaria tipifica infrações administrativas (arts. 30 a 33), classificadas conforme sua gravidade, e estabelece um conjunto de sanções (arts. 34 a 37) que podem variar desde advertência formal até medidas mais severas, como a suspensão do currículo na Plataforma Lattes e a obrigatoriedade de devolução de recursos públicos recebidos, conforme a gravidade da irregularidade constatada.

 

No que diz respeito especificamente à Inteligência Artificial Generativa, a norma estabelece diretrizes relevantes no artigo 9º, reconhecendo que tais tecnologias já fazem parte do cotidiano da pesquisa científica contemporânea. Em vez de simplesmente proibir seu uso, a portaria adota uma abordagem regulatória baseada em princípios de transparência, responsabilidade e controle institucional. Esse modelo normativo sinaliza que a IAG pode ser utilizada como ferramenta auxiliar na produção científica, desde que seu uso seja devidamente declarado e não comprometa a integridade da pesquisa.


 

Assim diz a nova norma:


Art. 9º  São diretrizes de integridade na pesquisa apoiada pelo CNPq:

I - na atividade de pesquisa científica:

[...]

c) declarar o uso de ferramentas de Inteligência Artificial Generativa - IAG, de qualquer espécie e em qualquer fase do desenvolvimento da pesquisa (concepção, redação, análise de dados, submissão) especificando nos respectivos textos e exposições eletrônicas, a ferramenta utilizada e a finalidade;

d) é vedada a submissão de conteúdo gerado por IAG como se fosse de autoria humana, sendo os autores integralmente responsáveis pelo conteúdo final, inclusive por eventuais plágios ou imprecisões geradas pela IAG;

e) é vedada a inserção de projetos de pesquisa de terceiros em ferramentas de IAG para elaboração de pareceres científicos;

f) responsabilizar-se integralmente pelo conteúdo final da pesquisa, inclusive por eventuais plágios ou imprecisões geradas pela IAG;

 

A primeira diretriz (alínea C) relevante prevista no art. 9º estabelece que os pesquisadores devem declarar explicitamente o uso de ferramentas de Inteligência Artificial Generativa em qualquer fase do desenvolvimento da pesquisa, incluindo concepção, redação, análise de dados ou preparação para submissão. Essa declaração deve indicar qual ferramenta foi utilizada e qual foi a finalidade de seu uso. Um exemplo prático seria um pesquisador que utilize o ChatGPT para revisar a estrutura argumentativa de um artigo científico ou para auxiliar na síntese de literatura acadêmica. Nesse caso, o uso da ferramenta deve ser informado na seção metodológica ou nos agradecimentos do trabalho, especificando que a IA foi utilizada como ferramenta de apoio à redação ou organização do texto.

 

A segunda diretriz (alínea D) estabelece que é proibido submeter conteúdo gerado por IAG como se fosse integralmente de autoria humana, sendo os autores responsáveis pelo conteúdo final do trabalho, inclusive por eventuais plágios ou imprecisões geradas pela ferramenta. Na prática, isso significa que um pesquisador não pode simplesmente solicitar a uma IA que produza integralmente um artigo científico e submetê-lo a um periódico sem revisão crítica e sem declaração do uso da tecnologia. Caso um trecho gerado pela IA reproduza indevidamente ideias ou textos de terceiros, a responsabilidade recairá sobre os autores humanos que assinaram a pesquisa.


A terceira diretriz (alínea E) dirige-se especialmente aos avaliadores e revisores científicos, estabelecendo que estes não podem inserir projetos de pesquisa de terceiros em ferramentas de IA generativa para elaborar pareceres. A regra busca proteger a confidencialidade dos projetos submetidos à avaliação. Um exemplo prático seria o caso de um revisor que recebe um projeto submetido a um edital do CNPq e decide copiá-lo integralmente em um sistema de IA para solicitar sugestões de parecer. Essa prática seria considerada inadequada, pois pode expor informações inéditas, hipóteses científicas ou metodologias ainda não publicadas a sistemas externos.

 

A quarta diretriz (alínea F) reforça um princípio central da integridade científica: o pesquisador permanece integralmente responsável pelo conteúdo final da pesquisa, mesmo quando utiliza ferramentas de IA generativa como apoio. Isso significa que a utilização dessas tecnologias não transfere responsabilidade intelectual para a máquina. Por exemplo, se um pesquisador utilizar uma ferramenta de IA para gerar um resumo ou interpretar dados estatísticos e posteriormente se verificar que as conclusões são incorretas ou baseadas em informações equivocadas, a responsabilidade científica e ética continuará sendo atribuída aos autores humanos do trabalho. Jamais à aplicação de IAG.


Do autor, gerada com IAG (OpenAI).
Do autor, gerada com IAG (OpenAI).

A Portaria nº 2.664 foi publicada em 11 de março de 2026 e entrará em vigor no dia 20 de março do mesmo ano, inaugurando um novo cenário regulatório para a produção científica no Brasil. Contudo, um aspecto interpretativo relevante emerge da própria redação do artigo 9º, que afirma tratar-se de diretrizes aplicáveis à “pesquisa apoiada pelo CNPq”. Essa formulação suscita uma questão importante: tais diretrizes devem ser observadas apenas em pesquisas financiadas pelo CNPq ou podem funcionar como parâmetro normativo mais amplo para toda a comunidade científica nacional?

 

Essa indagação revela um desafio maior do atual momento histórico da ciência: a necessidade de desenvolver modelos regulatórios capazes de acompanhar o avanço tecnológico sem comprometer os princípios fundamentais da produção científica. Nesse contexto, a portaria do CNPq pode ser interpretada não apenas como uma norma administrativa aplicável a pesquisas financiadas pela agência, mas também como um importante marco orientador para universidades, periódicos científicos e demais instituições de pesquisa, que agora precisam refletir sobre como integrar a Inteligência Artificial Generativa à prática científica de forma ética, transparente e responsável.


No vídeo abaixo, faço outros comentários sobre a referida portaria:

Comentários


bottom of page