O artigo “A polêmica da IA na academia: está certo simplemente proibir?”, publicado aqui no The Conversation no dia 23 de outubro de 2025, contém observações de acadêmicos brasileiros do Rio e do Paraná a respeito do posicionamento da Universidade Federal do Ceará (UFC) com relação ao uso de Inteligência Artificial em suas pesquisas acadêmicas – tanto por parte de alunos quanto de professores e pesquisadores. O artigo critica o que diz ser uma postura generalista e punitiva da universidade sobre o uso a ferramenta, sem fazer as devidas distinções de objetivo e aplicabilidade da IA nas pesquisas acadêmicas. Nesta segunda-feira, dia 27 de outubro, a UFC enviou ao The Conversation a sua resposta ao artigo. Consideramos que a troca de impressões sobre o tema configura, mais que uma divergência acadêmica, um saudável debate sobre a forma como a ciência brasileira pode e deve enfrentar a nova e inexorável presença da IA em todos os campos da sociedade. Principalmente diante do fato de que, até agora, pouquíssimas universidades brasileiras já se posicionaram oficialmente sobre a questão. Por isso, publicamos abaixo a carta da professora Lidiany Rodrigues, Coordenadora de Planejamento Estratégico e Avaliação da Pró-Reitoria de Pesquisa e Pós-Graduação da UFC, no formato de artigo:
O objetivo da Portaria nº 39/2025 da Pró-Reitoria de Pesquisa e Pós-Graduação (PRPPG) da Universidade Federal do Ceará (UFC), publicada no dia 1º de outubro deste ano, é orientar eticamente a comunidade acadêmica sobre os limites e responsabilidades do uso de tecnologias de Inteligência Artificial (IA) na produção científica, preservando os princípios da autoria humana e da integridade acadêmica.
O documento não proíbe o uso de IA, não tem caráter punitivo e não associa ferramentas de verificação de similaridade ao uso dessas tecnologias. A portaria não impõe sanções automáticas nem criminaliza o uso de IA, mas estabelece diretrizes éticas e de transparência, reforçando a necessidade de que discentes e orientadores declarem o uso de IA em atividades de apoio, como revisão textual, tradução, sumarização de dados ou geração de código.
Read more: A polêmica da IA na academia: está certo simplesmente proibir?
O objetivo é prevenir o uso indevido, que possa resultar em perda de autoria intelectual, fabricação de resultados ou desinformação científica, e não punir. Em nenhum ponto o texto da Portaria prevê sanções, penalidades ou medidas disciplinares associadas à declaração de uso, mesmo que o estudante informe ter recorrido à ferramenta em situações não recomendadas, como a geração de conteúdo original.
A exigência de declaração de uso de IA é uma prática internacional, já adotada por editoras e periódicos científicos que não reconhecem a IA como autora nem permitem que ela substitua o papel intelectual do pesquisador.
Outro ponto importante é que a portaria não cria qualquer associação entre verificação de similaridade e uso de IA. Softwares como o Turnitin, cuja licença foi adquirida pela PRPPG-UFC, são amplamente utilizados em universidades do Brasil e do exterior como instrumentos de apoio à integridade acadêmica. A versão disponibilizada à UFC não detecta o uso de IA nem avalia se um texto foi gerado por máquina; sua função é comparar o texto submetido a bases de dados acadêmicas e públicas, identificando coincidências literais.
Esses resultados permitem que docentes e avaliadores analisem, com critério, possíveis casos de citações sem referência adequada, sobreposição com trabalhos anteriores do próprio autor, coincidências fortuitas ou indícios de plágio.
O relatório de similaridade não é um veredito, mas apenas um indicador que requer interpretação humana qualificada, promovendo maior conscientização sobre o uso ético de fontes, citações e parafraseamentos. Por essa razão, a portaria não define limites numéricos de similaridade considerados aceitáveis; esses parâmetros devem ser definidos pelos próprios Programas de Pós-Graduação (PPGs), de acordo com as especificidades de cada área do conhecimento.
É perfeitamente legítimo, por exemplo, que um PPG aceite índices elevados de similaridade em situações como a reprodução de trechos de artigos do próprio autor ou a inclusão de transcrições literais devidamente referenciadas, o que não configura plágio. Assim como níveis baixos de similaridade não são necessariamente uma evidência irrefutável de que o texto é original. Em vez disso, pode significar apenas que o texto plagiado que não está disponível no banco de dados do software.
A portaria também delimita o espaço ético da autoria humana, assegurando transparência, rastreabilidade e responsabilidade, valores fundamentais da integridade científica. Isso não significa proibir o uso de IA. Em dissertações e teses, o que se avalia é a capacidade intelectual do pesquisador de formular hipóteses, interpretar dados e construir argumentos originais.
Ferramentas de IA podem ser utilizadas como apoio auxiliar, na organização de ideias, revisão gramatical, tradução ou estruturação inicial de texto, desde que o uso seja declarado e não substitua o raciocínio crítico e autoral do pesquisador. Um uso não declarado pode ser equiparado a uma ajuda externa não reconhecida, já que modelos de IA não são autores, não possuem intenção, consciência nem responsabilidade ética.
É essencial compreender que o aprendizado de máquina não equivale a pensamento ou criação. As ferramentas de IA não produzem ideias genuínas, apenas rearranjam informações pré-existentes com base em grandes volumes de textos humanos utilizados em seu treinamento.
O resultado é uma recombinação probabilística de padrões linguísticos, sem compreensão de contexto, método científico ou originalidade intelectual. Permitir que a IA gere hipóteses, análises ou interpretações em uma dissertação significaria transferir a autoria da pesquisa a um sistema algorítmico, o que contraria o próprio conceito de ciência e de autoria.
Portanto, a portaria não restringe a tecnologia, mas define limites claros para preservar a autoria humana. O conhecimento científico é cumulativo, reflexivo e responsável. Dissertações e teses devem expressar pensamento humano validado criticamente, e não compilações automatizadas. Reconhecer que o discente possa gerar conteúdo original com IA seria o mesmo que atribuir coautoria à máquina, o que é impossível, pois ela não detém direitos, deveres nem responsabilidade ética.
A norma propõe ainda uma responsabilização compartilhada: o aluno declara, o orientador avalia e a instituição assegura a transparência. Esse é o mesmo princípio das boas práticas científicas, em que cada etapa é documentada para garantir rastreabilidade e reprodutibilidade.
A portaria sinaliza que o uso de IA é possível, mas, como tudo em ciência, requer ética, transparência, responsabilização, respeito às obras de terceiros e discernimento – valores fundamentais à formação de mestres e doutores.
A UFC entende que não basta orientar a comunidade sobre o uso dessas ferramentas. O campo acadêmico exige segurança jurídica, uniformidade de critérios e mecanismos formais de responsabilização, especialmente na pós-graduação, onde a avaliação de dissertações e teses é realizada por bancas de especialistas que devem zelar por princípios como veracidade, rastreabilidade, autoria e originalidade.
Sem uma norma, cada programa poderia adotar entendimentos distintos, gerando assimetria e insegurança institucional. Uma portaria não substitui a formação ética, mas estabelece um marco de referência que ampara docentes, discentes e a Instituição.
A intenção da UFC é abrir o debate público com regras claras, num cenário em que poucas instituições brasileiras ainda se pronunciaram sobre o tema. A portaria não desestimula a inovação, mas educa para a integridade. Seu propósito é ensinar o que é autoria, qual é a responsabilidade do autor e como usar a IA sem comprometer o papel intelectual do pesquisador e sem ferir direitos de terceiros.
Essa discussão é indispensável justamente porque, conforme já mencionado, a IA não é autora, não assume responsabilidades éticas ou científicas e, como toda tecnologia, pode ser mal utilizada se não houver diretrizes claras.
A postura da UFC está alinhada às melhores universidades do mundo, que têm produzido guias e regulamentos sobre o uso ético da IA na pesquisa e na redação acadêmica, adotando princípios comuns como transparência, rastreabilidade e responsabilização compartilhada. Assim, a portaria representa avanço institucional e compromisso com a formação crítica, já que busca manter o discernimento humano como ator principal do processo.
Assim, a UFC estimula o uso responsável de tecnologias de inteligência artificial, entendendo que ensinar o uso ético e consciente da IA é tão importante quanto incentivar sua apropriação científica e criativa.
A íntegra da Portaria nº 39/2025 – PRPPG/UFC está disponível publicamente aqui.





