Promote Your Research… Share it Worldwide
Have a story or a research paper to share? Become a contributor and publish your work on AcademicJobs.com.
Submit your Research - Make it Global NewsA Revolução da IA na Pesquisa Brasileira: CNPq Estabelece Regras Claras
O Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), principal agência de fomento à pesquisa no Brasil, lançou em março de 2026 a Portaria nº 2.664, instituindo a Política de Integridade na Atividade Científica. Essa medida marca um marco na adaptação do ecossistema científico brasileiro à inteligência artificial generativa (IAG), permitindo seu uso de forma regulada e transparente em todas as etapas da pesquisa. A política surge em resposta ao crescimento exponencial da adoção de ferramentas como ChatGPT e similares nas universidades, onde estudos indicam que mais de 85% dos estudantes já as utilizam para tarefas acadêmicas.
Antes dessa portaria, o uso de IA era um 'faroeste' acadêmico, com poucas universidades possuindo protocolos claros. Agora, pesquisadores financiados pelo CNPq – que representa a maioria das bolsas e projetos em instituições federais como USP, Unicamp e UFRJ – devem declarar explicitamente qualquer emprego de IAG, especificando a ferramenta e o propósito. Isso equilibra inovação com ética, prevenindo fraudes como plágio inadvertido ou 'alucinações' da IA que distorcem fatos científicos.
A iniciativa reflete preocupações globais, alinhando-se a diretrizes da UNESCO e práticas internacionais, mas adaptada ao contexto brasileiro, onde fraudes científicas já custaram milhões em recursos públicos. Em 2024, o CNPq registrou 101 denúncias de irregularidades, incluindo plágio e fabricação de dados.
Contexto Histórico: De Proibições a Regulação Responsável
A ascensão da IA generativa desde 2023 transformou a pesquisa científica mundial. No Brasil, uma pesquisa com alunos de 166 universidades revelou que 85% usaram IA no último ano, principalmente para brainstorming (55%) e redação (40%). Nas federais, apenas 43% tinham políticas em março de 2026, criando brechas para abusos. O CNPq, respondendo a isso, incorporou seu Código de Conduta de 2024 à nova política, expandindo para cobrir IAG explicitamente.
Antes, casos de plágio com IA geraram escândalos em revistas como Nature, com 'paper mills' produzindo artigos falsos. No Brasil, denúncias cresceram 30% em 2025, impulsionadas por ferramentas acessíveis. A portaria preenche essa lacuna, promovendo educação e prevenção antes de sanções.
Detalhes da Portaria: Princípios e Escopo
A Portaria nº 2.664/2026 define integridade como honestidade intelectual em todas as fases: concepção, execução, análise, publicação e divulgação. Aplica-se a proponentes, bolsistas, avaliadores e usuários da Plataforma Lattes, abrangendo universidades públicas e privadas com fomento CNPq.
- Princípios chave: Ética, transparência, respeito à diversidade, não discriminação (gênero, raça, orientação sexual).
- Má conduta: Fabricação/falsificação/plágio (FFP), autoplágio, salami science (publicações fragmentadas), conflitos de interesse, assédio.
- Comissão de Integridade (CIAC): Órgão para apurar denúncias, com prazos de 90 dias para análise.
Sanções escalonadas: advertência para leves (ex.: omissão de conflito), suspensão de bolsas para graves, devolução de recursos para gravíssimas (ex.: fraude comprovada).
Diretrizes Específicas para Inteligência Artificial Generativa
O coração da inovação está nas regras para IAG: Portaria completa aqui. Permitido em qualquer etapa, mas:
- Obrigatório declarar: Ferramenta (ex.: GPT-4o), fase (ex.: análise de dados), finalidade (ex.: sumarização de literatura).
- Proibido: Apresentar output de IA como autoria humana; listar IA como coautor; usar IA para pareceres avaliativos (não recomendado).
- Responsabilidade: Autores respondem por erros, vieses ou plágios gerados pela IA.
Exemplo prático: Em um projeto de bolsa doutorado na USP, declarar "ChatGPT usado para revisão gramatical de introdução" evita sanções.
Responsabilidades nas Universidades Brasileiras
Universidades como UFRJ e Unicamp devem integrar essas regras em seus códigos de ética. Pro-reitores de pesquisa ganham papel central na capacitação. Estudantes de pós-graduação, 70% dos quais usam IA semanalmente, precisam de treinamentos.
ICTs (Instituições Científicas e Tecnológicas) co-apuram denúncias com CNPq. Em 2026, espera-se criação de comitês locais inspirados na CIAC.
Casos Reais e Lições de Fraudes Científicas
Embora sem casos públicos de IA pós-portaria, fraudes pré-existentes ilustram riscos. Em 2024, CNPq apurou 101 denúncias, 20% plágio. Um exemplo: Pesquisador da UFRGS teve bolsa suspensa por fabricação de dados em 2025. Com IA, 'paper mills' geram 10% dos artigos submetidos globalmente; Brasil registrou 500 retractions em 2025.
A política previne via declaração, similar a Elsevier e Springer que exigem disclosure desde 2023.
Opiniões de Especialistas: Equilíbrio entre Inovação e Ética
Alan Angeluci (ECA-USP): "Diretrizes promovem letramento em IA, combatendo vieses." André Ponce de Leon (ICMC-USP): "IA acelera, mas não substitui raciocínio." Barbara Coelho (colunista): "Avanço para Sul Global, com justiça cognitiva."
Críticas: Alguns temem burocracia extra; benefícios: Padronização nacional eleva credibilidade internacional.
Impactos Práticos nas Universidades e Carreira Acadêmica
Para universidades: Necessidade de workshops (ex.: UFMG já tem guia). Estudantes: Menos medo de punição por uso ético. Pesquisadores: Lattes atualizado com seção IA. Em 2026, espera-se 20% mais submissões transparentes.
| Fase da Pesquisa | Uso Permitido de IA | Obrigação |
|---|---|---|
| Concepção | Brainstorming ideias | Declarar ferramenta |
| Análise de Dados | Análise estatística | Validar outputs manualmente |
| Redação | Revisão gramatical | Não submeter como autoria humana |
| Avaliação | Não recomendado para pareceres | - |
Desafios e Soluções: Implementação e Treinamento
Desafios: Detectar não-declarações (ferramentas como GPTZero 80% precisão). Soluções: CNPq planeja treinamentos online; universidades como UFBA criam comissões éticas. A longo prazo, integra IA em currículos de pós-graduação.
Perspectivas Futuras: IA como Aliada da Ciência Brasileira
Com essa política, Brasil posiciona-se como líder em ética IA no Sul Global. Projeções: Aumento 30% em produtividade sem perda de qualidade até 2028. Universidades devem investir em soberania digital, evitando dependência de modelos estrangeiros.
Para pesquisadores: Adote IA eticamente para acelerar descobertas em áreas críticas como saúde e clima. Fique atento a atualizações da CIAC.
Photo by Lucas Vasques on Unsplash

Be the first to comment on this article!
Please keep comments respectful and on-topic.