Promote Your Research… Share it Worldwide
Have a story or a research paper to share? Become a contributor and publish your work on AcademicJobs.com.
Submit your Research - Make it Global NewsO CNPq Institui Nova Política de Integridade Científica com Foco no Uso Responsável de IA
Em um movimento crucial para salvaguardar a credibilidade da pesquisa no Brasil, o Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) publicou recentemente a Portaria nº 2.664, de 6 de março de 2026, instituindo a Política de Integridade na Atividade Científica. Essa iniciativa estabelece normas claras e boas práticas para todas as atividades financiadas ou apoiadas pelo conselho, abrangendo pesquisadores, universidades e instituições de ensino superior. A política surge em resposta ao aumento de casos de má conduta científica, impulsionado pelo avanço da inteligência artificial generativa (IAG), e visa promover ética, transparência e responsabilidade desde a concepção de projetos até a publicação de resultados.
A medida afeta diretamente o ecossistema acadêmico brasileiro, especialmente universidades públicas e privadas que dependem de bolsas e auxílios do CNPq. Com o boom da IA, ferramentas como ChatGPT e similares têm sido usadas para gerar textos, análises e até imagens, levantando preocupações sobre plágio, falsificação de dados e perda de autoria genuína. A nova política não proíbe a IA, mas exige declaração explícita de seu uso, reforçando a accountability dos pesquisadores.
Contexto: Por Que o Brasil Precisa Dessa Política Agora?
A ciência brasileira enfrenta desafios globais agravados localmente. Relatórios internacionais apontam um surto de 'paper mills' – fábricas de artigos fraudulentos – e uso indevido de IA para inflar currículos. No Brasil, casos de retratações em revistas como SciELO e denúncias de manipulação em Lattes cresceram nos últimos anos. Universidades como USP e Unicamp relataram aumento de submissões suspeitas em provas e teses.
A Política de Integridade do CNPq alinha-se a tendências mundiais, como as diretrizes da UNESCO para Ética em IA, mas é adaptada ao contexto nacional. Ela integra o Código de Conduta do CNPq, atualizado em 2024, e enfatiza a Comissão de Integridade na Atividade Científica (CIAC), responsável por apurar denúncias. Para o ensino superior, isso significa maior escrutínio em avaliações de mérito para bolsas, como as de Produtividade em Pesquisa (PQ), impactando milhares de docentes e pós-graduandos em instituições federais.
Princípios Fundamentais da Nova Política
A política é ancorada em dez princípios éticos, incluindo honestidade intelectual, veracidade na autoria, respeito a participantes de pesquisa e promoção da inclusão. Ela cobre todas as fases: planejamento, execução, análise de dados e divulgação. Instituições Científicas e Tecnológicas (ICTs), como universidades, devem fomentar uma cultura de integridade, com treinamentos obrigatórios e comitês internos.
- Honestidade e Boa Prática: Evitar fabricação, falsificação ou duplicação de dados.
- Transparência: Declarar conflitos de interesse e fontes de financiamento.
- Responsabilidade na Formação: Orientadores supervisionam uso ético de ferramentas por alunos.
- Respeito à Diversidade: Proibir discriminação em avaliações e colaborações.
Esses pilares garantem que a pesquisa brasileira mantenha padrões internacionais, beneficiando carreiras acadêmicas sustentáveis. Para mais conselhos sobre carreira em pesquisa, confira nossas orientações.
Diretrizes Específicas para o Uso de Inteligência Artificial
O cerne da inovação da política está nas regras para IA. O uso de IAG deve ser sempre declarado, indicando a ferramenta (ex: GPT-4, Gemini) e o estágio da pesquisa (redação, análise de dados). Autores respondem integralmente pelo conteúdo final, incluindo erros ou plágios gerados por IA. Proibido submeter material de IA como autoria humana ou usá-la para mascarar origens.
Não recomendado: Emprego de IA em pareceres de avaliação científica, para preservar imparcialidade humana. Em publicações, citar adequadamente resumos ou ideias geradas por IA. Isso alinha com práticas de universidades como USP, que proíbem imagens/vídeos de IA em teses.
| Estágio da Pesquisa | Diretriz para IA |
|---|---|
| Planejamento | Permitido para brainstorming; declarar em proposta. |
| Análise de Dados | OK para estatística; validar resultados manualmente. |
| Redação/Publicação | Declarar uso; não atribuir autoria à IA. |
| Avaliação/Pareceres | Não recomendado. |
Responsabilidades e Sanções: Consequências Práticas para Universidades
Pesquisadores e ICTs compartilham responsabilidades. Bolsistas devem relatar problemas e cumprir normas; avaliadores, agir com imparcialidade. Denúncias vão à Ouvidoria do CNPq, apuradas pela CIAC. Sanções escalam de advertência a impedimento vitalício em editais, com ressarcimento de recursos.
- Leves: Advertência por omissões menores.
- Graves: Suspensão de bolsas por plágio não intencional.
- Gravíssimas: Revogação de auxílios por fraude com IA.
Universidades como UFPB e Unifor já adotaram políticas semelhantes, proibindo mascaramento de autoria e exigindo salvaguardas para dados sensíveis em IA. Isso fortalece a governança em campi federais.
Respostas das Universidades Brasileiras: USP, Unicamp e Unesp na Vanguarda
As paulistas USP, Unicamp e Unesp lançaram protocolos inéditos: uso de IA deve ser transparente, acordado entre alunos/professores e declarado em trabalhos. Unesp publicou guia para graduação enfatizando integridade e equidade. UENF realizou consulta pública, confirmando necessidade de regras. Essas iniciativas preparam o terreno para alinhamento nacional, impactando vestibulares, TCCs e doutorados.
Para professores avaliando opções de vagas como docente, essas políticas destacam a importância de ética em currículos Lattes.
Leia mais sobre regras das paulistasDesafios e Oportunidades para a Pesquisa em Universidades
Desafios incluem detecção de IA (softwares antiplágio evoluem, mas falsos positivos preocupam) e formação docente. Oportunidades: IA acelera análise de big data em biologia e clima, desde que ética. Estudos de caso, como retratações por IA em medicina, ilustram riscos; soluções incluem treinamentos CNPq.
Universidades ganham com parcerias, como Fapesp debatendo IA responsável. Impacto em rankings NIRF e Capes: integridade eleva reputação.
Melhores Práticas e Passos Ação para Pesquisadores
- Declare IA em métodos/seção de agradecimentos.
- Valide outputs com pares e dados primários.
- Use ferramentas open-source éticas.
- Participe de treinamentos CNPq/CIAP.
- Monitore guidelines de revistas (SciELO, Nature).
Estudantes devem consultar guias institucionais. Avalie professores em Rate My Professor para orientação ética.
Photo by Samuel Costa Melo on Unsplash
Perspectivas Futuras: Uma Ciência Brasileira Ética e Inovadora
A política pavimenta integração IA-Ciência 4.0, alinhada ao Plano Brasileiro de IA (R$23bi até 2028). Universidades como UFRJ e UFSCar testam comitês IA. Previsão: redução 30% em denúncias em 2 anos, boost em colaborações globais. Para vagas em higher-ed jobs, university jobs, /higher-ed-career-advice e rate-my-professor, priorize integridade. Explore oportunidades no Brasil.
Portaria CNPq oficial | Texto completo da Portaria
Be the first to comment on this article!
Please keep comments respectful and on-topic.