Academic Jobs Logo

CNPq Lança Política de Integridade Científica com Diretrizes para Uso Ético de IA em Pesquisas

Normas e Boas Práticas para IA na Pesquisa Brasileira

Be the first to comment on this article!

You

Please keep comments respectful and on-topic.

The national congress of brazil stands tall.
Photo by Fabian Lozano on Unsplash

Promote Your Research… Share it Worldwide

Have a story or a research paper to share? Become a contributor and publish your work on AcademicJobs.com.

Submit your Research - Make it Global News

O CNPq Institui Nova Política de Integridade Científica com Foco no Uso Responsável de IA

Em um movimento crucial para salvaguardar a credibilidade da pesquisa no Brasil, o Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) publicou recentemente a Portaria nº 2.664, de 6 de março de 2026, instituindo a Política de Integridade na Atividade Científica. Essa iniciativa estabelece normas claras e boas práticas para todas as atividades financiadas ou apoiadas pelo conselho, abrangendo pesquisadores, universidades e instituições de ensino superior. A política surge em resposta ao aumento de casos de má conduta científica, impulsionado pelo avanço da inteligência artificial generativa (IAG), e visa promover ética, transparência e responsabilidade desde a concepção de projetos até a publicação de resultados.

A medida afeta diretamente o ecossistema acadêmico brasileiro, especialmente universidades públicas e privadas que dependem de bolsas e auxílios do CNPq. Com o boom da IA, ferramentas como ChatGPT e similares têm sido usadas para gerar textos, análises e até imagens, levantando preocupações sobre plágio, falsificação de dados e perda de autoria genuína. A nova política não proíbe a IA, mas exige declaração explícita de seu uso, reforçando a accountability dos pesquisadores.

Contexto: Por Que o Brasil Precisa Dessa Política Agora?

A ciência brasileira enfrenta desafios globais agravados localmente. Relatórios internacionais apontam um surto de 'paper mills' – fábricas de artigos fraudulentos – e uso indevido de IA para inflar currículos. No Brasil, casos de retratações em revistas como SciELO e denúncias de manipulação em Lattes cresceram nos últimos anos. Universidades como USP e Unicamp relataram aumento de submissões suspeitas em provas e teses.

A Política de Integridade do CNPq alinha-se a tendências mundiais, como as diretrizes da UNESCO para Ética em IA, mas é adaptada ao contexto nacional. Ela integra o Código de Conduta do CNPq, atualizado em 2024, e enfatiza a Comissão de Integridade na Atividade Científica (CIAC), responsável por apurar denúncias. Para o ensino superior, isso significa maior escrutínio em avaliações de mérito para bolsas, como as de Produtividade em Pesquisa (PQ), impactando milhares de docentes e pós-graduandos em instituições federais.

Princípios Fundamentais da Nova Política

A política é ancorada em dez princípios éticos, incluindo honestidade intelectual, veracidade na autoria, respeito a participantes de pesquisa e promoção da inclusão. Ela cobre todas as fases: planejamento, execução, análise de dados e divulgação. Instituições Científicas e Tecnológicas (ICTs), como universidades, devem fomentar uma cultura de integridade, com treinamentos obrigatórios e comitês internos.

  • Honestidade e Boa Prática: Evitar fabricação, falsificação ou duplicação de dados.
  • Transparência: Declarar conflitos de interesse e fontes de financiamento.
  • Responsabilidade na Formação: Orientadores supervisionam uso ético de ferramentas por alunos.
  • Respeito à Diversidade: Proibir discriminação em avaliações e colaborações.

Esses pilares garantem que a pesquisa brasileira mantenha padrões internacionais, beneficiando carreiras acadêmicas sustentáveis. Para mais conselhos sobre carreira em pesquisa, confira nossas orientações.

Diretrizes Específicas para o Uso de Inteligência Artificial

Ilustração de pesquisador usando IA em laboratório com ícones de ética e transparência

O cerne da inovação da política está nas regras para IA. O uso de IAG deve ser sempre declarado, indicando a ferramenta (ex: GPT-4, Gemini) e o estágio da pesquisa (redação, análise de dados). Autores respondem integralmente pelo conteúdo final, incluindo erros ou plágios gerados por IA. Proibido submeter material de IA como autoria humana ou usá-la para mascarar origens.

Não recomendado: Emprego de IA em pareceres de avaliação científica, para preservar imparcialidade humana. Em publicações, citar adequadamente resumos ou ideias geradas por IA. Isso alinha com práticas de universidades como USP, que proíbem imagens/vídeos de IA em teses.

Estágio da PesquisaDiretriz para IA
PlanejamentoPermitido para brainstorming; declarar em proposta.
Análise de DadosOK para estatística; validar resultados manualmente.
Redação/PublicaçãoDeclarar uso; não atribuir autoria à IA.
Avaliação/PareceresNão recomendado.

Responsabilidades e Sanções: Consequências Práticas para Universidades

Pesquisadores e ICTs compartilham responsabilidades. Bolsistas devem relatar problemas e cumprir normas; avaliadores, agir com imparcialidade. Denúncias vão à Ouvidoria do CNPq, apuradas pela CIAC. Sanções escalam de advertência a impedimento vitalício em editais, com ressarcimento de recursos.

  • Leves: Advertência por omissões menores.
  • Graves: Suspensão de bolsas por plágio não intencional.
  • Gravíssimas: Revogação de auxílios por fraude com IA.

Universidades como UFPB e Unifor já adotaram políticas semelhantes, proibindo mascaramento de autoria e exigindo salvaguardas para dados sensíveis em IA. Isso fortalece a governança em campi federais.

Respostas das Universidades Brasileiras: USP, Unicamp e Unesp na Vanguarda

As paulistas USP, Unicamp e Unesp lançaram protocolos inéditos: uso de IA deve ser transparente, acordado entre alunos/professores e declarado em trabalhos. Unesp publicou guia para graduação enfatizando integridade e equidade. UENF realizou consulta pública, confirmando necessidade de regras. Essas iniciativas preparam o terreno para alinhamento nacional, impactando vestibulares, TCCs e doutorados.

Para professores avaliando opções de vagas como docente, essas políticas destacam a importância de ética em currículos Lattes.

Leia mais sobre regras das paulistas

Desafios e Oportunidades para a Pesquisa em Universidades

Desafios incluem detecção de IA (softwares antiplágio evoluem, mas falsos positivos preocupam) e formação docente. Oportunidades: IA acelera análise de big data em biologia e clima, desde que ética. Estudos de caso, como retratações por IA em medicina, ilustram riscos; soluções incluem treinamentos CNPq.

Universidades ganham com parcerias, como Fapesp debatendo IA responsável. Impacto em rankings NIRF e Capes: integridade eleva reputação.

Melhores Práticas e Passos Ação para Pesquisadores

  1. Declare IA em métodos/seção de agradecimentos.
  2. Valide outputs com pares e dados primários.
  3. Use ferramentas open-source éticas.
  4. Participe de treinamentos CNPq/CIAP.
  5. Monitore guidelines de revistas (SciELO, Nature).

Estudantes devem consultar guias institucionais. Avalie professores em Rate My Professor para orientação ética.

Perspectivas Futuras: Uma Ciência Brasileira Ética e Inovadora

A política pavimenta integração IA-Ciência 4.0, alinhada ao Plano Brasileiro de IA (R$23bi até 2028). Universidades como UFRJ e UFSCar testam comitês IA. Previsão: redução 30% em denúncias em 2 anos, boost em colaborações globais. Para vagas em higher-ed jobs, university jobs, /higher-ed-career-advice e rate-my-professor, priorize integridade. Explore oportunidades no Brasil.

Portaria CNPq oficial | Texto completo da Portaria
Portrait of Gabrielle Ryan

Gabrielle RyanView full profile

Education Recruitment Specialist

Bridging theory and practice in education through expert curriculum design and teaching strategies.

Discussion

Sort by:

Be the first to comment on this article!

You

Please keep comments respectful and on-topic.

New0 comments

Join the conversation!

Add your comments now!

Have your say

Engagement level

Frequently Asked Questions

📜O que é a Política de Integridade Científica do CNPq?

A Portaria CNPq nº 2.664/2026 estabelece normas para ética em pesquisas financiadas, incluindo declaração de uso de IA.72

🤖IA é proibida em pesquisas pelo CNPq?

Não, mas deve ser declarada explicitamente, com responsabilidade pelos autores pelo conteúdo final.

⚖️Quais sanções por má conduta com IA?

De advertência a impedimento em editais, dependendo da gravidade, com apuração pela CIAC.

🏛️Como universidades como USP reagem?

Exigem transparência em trabalhos; Unesp tem guia para graduação. Veja detalhes.

Princípios chave da política?

Honestidade, transparência, respeito e inclusão em todas as fases da pesquisa.

👥Quem é afetado?

Pesquisadores, bolsistas, avaliadores e ICTs como universidades federais.

📝Como declarar uso de IA em artigos?

Na seção de métodos ou agradecimentos, citando ferramenta e função.

🔍Papel das universidades na apuração?

Promover cultura ética e cooperar com CNPq em denúncias.

IA em pareceres científicos?

Não recomendado, para manter avaliação humana imparcial.

🚀Qual impacto futuro para pesquisa brasileira?

Maior credibilidade, alinhamento global e boost em rankings. Consulte carreira acadêmica.

🔗Onde acessar a portaria completa?