Tribuna Ribeirão
Artigos

O uso de IA na escrita de textos científicos/acadêmicos 

Conceição Lima * 
 
Suponhamos que você seja um pesquisador ou um aluno de curso superior prestes a escrever textos acadêmicos ou científicos e se pergunte: “Posso ou não usar a Inteligência Artificial?”  Eis aí uma boa pergunta para a qual, no Brasil, ainda não se tem uma boa resposta, formal ou unificada a nível nacional! Que pena! 
 
Quando do lançamento do ChatGPT em 30 de novembro de 2022, a primeira reação das instituições editoriais científicas e educacionais foi proibir terminantemente o seu uso. Mas, dentro de pouco tempo, sem chances de retrocesso, toda essa miopia tecnológica caiu por terra e a única alternativa foi flexibilizar: nada de proibir e, sim, orientar.  
 
A nível mundial, as editoras de conteúdo científico foram as primeiras a fazê-lo. Uma das pioneiras foi a britânica NATURE; outra foi a holandesa ELSEVIER. No Brasil, a rede SciELO também produziu seu Guia de uso de ferramentas e recursos de Inteligência Artificial na comunicação de pesquisas na Rede SciELO, de 2023. Por sua vez, a Revista Ciência da Informação do Instituto Brasileiro de Informação em Ciência e Tecnologia (IBICT) publicou, em 26/02/2025, a última revisão anual de sua Política de Uso de Inteligência Artificial (IA) na Redação de Documentos Científicos.  
 
No que diz respeito aos órgãos nacionais de fomento à pesquisa, tanto a nível federal (MEC, MCTI, CAPES, CNPq), quanto as agências estaduais, nada ainda veio à luz… No contexto específico das universidades brasileiras, o assunto também caminha a passos lentos. De todas elas, apenas duas já puseram o “preto no branco”: o Centro Universitário SENAI CIMATEC da Bahia e a UFMG. As demais ainda se encontram na fase do debate e avaliação.  
 
Por moto própria, três professores universitários (SAMPAIO, SABBATINI e LIMONGI), trataram também de postar, em 25 de janeiro de 2025, sob o formato de e-book, as suas Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa: um guia prático para pesquisadores.  
 
Como premissa geral, todas essas entidades proíbem que a IA seja considerada (ou citada) como autora ou coautora do trabalho. Também, a permissão para uso tem se limitado ao processo de ajuste da escrita (melhoria da linguagem e legibilidade do texto), sendo vedada a intromissão em tarefas autorais essenciais como insights, conclusões ou recomendações científicas. O uso pode ainda estender-se às diferentes etapas do fazer científico: elaboração de ideias, busca e resumo de literatura, análise de dados, escrita e revisão de textos, transcrição e tradução. Os atuais princípios básicos de uso da IA na elaboração de documentos científicos/acadêmicos podem ser resumidos em algumas categorias: 
 
a) Centralidade na pessoa humana: o que se visa é a complementaridade, não a substituição. A contribuição humana deve predominar sobre os conteúdos gerados por IA (o IBICT propõe, pelo menos, 70% desse conteúdo); 
 
b) Integridade científica: a verificação rigorosa do conteúdo e o detalhamento claro de como a IA foi usada é que irão garantir a originalidade e a transparência do trabalho. Todos os comandos utilizados (os prompts) e as informações geradas por IA devem ser descritos na metodologia do trabalho e anexados como material suplementar. A análise de dados requer toda a cautela com vieses e exige a validação cruzada dos dados, a fim de assegurar-se a integridade dos resultados; 
 
c) Ética e responsabilidade: os autores devem atuar no sentido de evitar que a IA infrinja os direitos autorais de terceiros, gere desinformação ou replique vieses discriminatórios; 
 
d) Segurança e privacidade: a inserção de informações confidenciais em sistemas públicos de IA deve ser cabalmente evitada, tanto para a proteção de dados sensíveis, quanto à não violação dos direitos de propriedade intelectual e das normas de proteção de dados pessoais; 
 
e) Atuação dos revisores: não convém que estes usem softwares de IA na avaliação de artigos científicos, tendo em vista as informações inéditas da pesquisa que não podem vir a público. A avaliação deve ainda levar em conta o nível de contribuição da IA e a clareza da descrição de seu uso. 
 
Geralmente, os manuais preveem punições e sanções a quem comete falhas técnicas e éticas no uso da IA. Também as regras devem ser periodicamente revisadas para se acompanhar a evolução tecnológica e eliminarem-se eventuais falhas ou omissões. Recomenda-se que as instituições ofereçam treinamento sobre o uso ético e responsável da IA, “letramento” esse que irá afinar o senso crítico do autor e prevenir uma dependência tecnológica que comprometa as habilidades essenciais à pesquisa científica.  
 
O assunto, evidentemente, não se esgota aqui, num breve texto destinado apenas a lançar foco sobre a questão, na expectativa de que esse debate se intensifique e venha a servir de base para a criação de uma política institucional unificada e permanente, com regras e suporte operacional à altura. 
 
* Professora de ensino superior aposentada, escritora e palestrante, é membro eleito da Academia Ribeirãopretana de Letras e fundadora da Academia Feminina Sul-Mineira de Letras 

Postagens relacionadas

A ‘nova’ guerra – parte 2

William Teodoro

30 anos de atuação em prol da saúde!

Redação 1

A verdadeira solidariedade não pode ser sazonal

Redação 1

Utilizamos cookies para melhorar a sua experiência no site. Ao continuar navegando, você concorda com a nossa Política de Privacidade. Aceitar Política de Privacidade

Social Media Auto Publish Powered By : XYZScripts.com