Ad image

A polêmica da IA na academia: está certo simplesmente proibir?

10 Min Read
A polêmica da IA na academia: está certo simplesmente proibir?

Recentemente, foi publicado um levantamento sobre regras para o uso de IA generativa na pesquisa acadêmica. Naquele momento, apenas sete instituições brasileiras apresentavam algum tipo de regra, evidenciando um grande vácuo regulatório.

Nesta semana, a pró-reitoria de pesquisa e pós graduação da Universidade Federal do Ceará (UFC) publicou suas diretrizes sobre o uso de IA na pesquisa. Contudo, em vez de representar um avanço na integração crítica dessas tecnologias, a norma da UFC expõe o outro extremo, isto é, uma abordagem excessivamente restritiva e punitiva, que preza pelo controle em detrimento de uma perspectiva pedagógica e formativa.

A portaria se inicia criando um estranho regime de obrigatoriedade de submissão dos trabalhos a ferramentas de verificação de similaridade, especificamente o Turnitin, e em seguida trata de suas regras específicas sobre o uso de IA na pesquisa.

Embora o texto não mencione explicitamente detectores de IA, ele cria uma associação implícita (e falha) entre similaridade e uso de IA generativa, como se fossem fenômenos equivalentes.

Estudos na área de processamento de linguagem natural demonstram que esses detectores são notoriamente imprecisos, apresentando altas taxas de falsos positivos e falsos negativos. Esta inversão do ônus da prova de inocência é particularmente perversa.


Read more: Cresce a demanda por detectores confiáveis de textos gerados por Inteligência Artificial


A própria norma reconhece essa fragilidade ao afirmar que o uso da ferramenta, “isoladamente, não é suficiente para atestar a originalidade integral”. No entanto, contraditoriamente, torna a apresentação do relatório de similaridade uma condição para o agendamento de defesas, aumentando a burocracia e instalando o regime da vigilância e do medo.

Nesse sentido, seu Artigo 5º estabelece uma lista extensa de usos vedados, incluindo a geração de “conteúdo original, interpretações ou análises críticas”, ao mesmo tempo que exige uma declaração detalhada através do Anexo I.

Isso transforma o ato de ser honesto em uma potencial confissão de infração. Por exemplo, a ambiguidade entre o que constitui “exploração inicial de ideias” (permitida) e “geração de conteúdo original” (proibida) cria uma zona cinzenta perigosa, em que qualquer uso declarado pode ser interpretado como violação normativa.


Read more: Estudo mostra vantagens e limitações do uso das ferramentas de pesquisa profunda em trabalhos acadêmicos


Portanto, suas restrições conflitam com o uso declarado. Como distinguir entre “suporte auxiliar” (permitido) e “geração de conteúdo original” (proibido)? Por exemplo, se um pesquisador usa IA para explorar conexões entre teorias (finalidade permitida no Anexo I) e a ferramenta sugere uma interpretação inovadora que o pesquisador valida e incorpora, isso viola a proibição da IA gerar “interpretações ou análises críticas”?

Tênue linha divisória

Ferramentas de IA sempre geram conteúdo novo a partir de prompts. A linha divisória é tênue demais. O problema é agravado pelo disposto no Artigo 7º, que estabelece que, na ausência de orientação explícita do docente, o uso de IA “não será automaticamente aceito” e será tratado como “auxílio externo”, equivalente a uma colaboração indevida.

Considerando que boa parte dos docentes ainda está se familiarizando com as tecnologias de IA, muitos optarão por não definir nada, o que, pela norma, presume a proibição. Em vez de estabelecer um padrão-base razoável, a norma cria um ambiente de incerteza permanente, conforme já visto em estudos realizados em universidades que implementaram lógica similar.

As restrições impostas demonstram uma visão reducionista do potencial das ferramentas de IA. Ao proibir o uso para “gerar conteúdo original”, a portaria ignora que muitas aplicações legítimas envolvem a co-criação e o desenvolvimento colaborativo de ideias. Essa proibição ampla revela desconhecimento sobre as nuances do funcionamento dessas tecnologias, considerando que todos os usos seriam apenas para cópia, plágio ou trapaça.

Em vez de educação, ameaças

A portaria ainda não especifica como será verificado o cumprimento das declarações e quais sanções se aplicam a declarações falsas ou omissões. Esta lacuna pode permitir sanções extremas para casos pequenos ou sanções mínimas para casos claramente problemáticos, podendo minar a efetividade normativa.

De toda forma, a mensagem implícita é clara. “Use por sua conta e risco, mas, se usar errado, será punido”. Em vez de educar, ameaça. Em vez de preparar, institui o medo. O resultado lógico é o incentivo à ocultação e ao uso clandestino das ferramentas pelos estudantes, que agora farão o uso sem a orientação adequada de seus professores.

Logo, a portaria vai minar precisamente o princípio de transparência que busca promover. Pesquisas já demonstram que pesquisadores que declaram abertamente o uso de ferramentas de IA, mesmo quando legítimo, são sistematicamente percebidos como menos competentes por seus pares.

Esta penalização social cria um dilema, no qual ser honesto implica assumir custos reputacionais. Ao se focar na proibição e na instalação do regime de vigilância, na qual só os mais corajosos irão fazer tal declaração, a portaria intensifica esse dilema.

Por sua vez, ao não diferenciar adequadamente as diferentes técnicas de inteligência artificial e modelos de inteligência artificial generativa, como ChatGPT, ela também torna impossível o trabalho de certas áreas. Seja em áreas consolidadas, como ciência da computação, engenharias e estatística, seja em campos emergentes como humanidades digitais ou ciência de dados aplicada às ciências sociais, o uso de ferramentas de IA não é meramente auxiliar, mas constitutivo do próprio método de investigação.

Situação paradoxal

Ao fazer um uso de inteligência artificial preditiva para análises de grandes conjuntos de dados e simulações, os estudantes vão viver a situação paradoxal, na qual declarar esses usos pode levar a sanções, mas não os declarar compromete a transparência e a replicabilidade de suas pesquisas.

Mesmo softwares clássicos de análise quantitativa e qualitativa, como Tableau e MaxQDA, já incorporam soluções de IA generativa, o que, dentro das novas normas, torna esse uso também proibido.

Essa generalização revela uma compreensão superficial das diferentes tecnologias e suas aplicações específicas no ambiente científico e vai na contramão do mundo. Afinal, neste momento, as principais universidades de ponta investem massivamente no desenvolvimento de tecnologias e na apropriação adequada da inteligência artificial.

A posição excessivamente punitivista também fica explícita na ausência de atividades formativas, não mencionando workshops, disciplinas ou qualquer investimento em infraestrutura ou comitês multidisciplinares para discutir esse uso ético e responsável.

Esta visão acaba se focando na questão menos importante, que é o plágio e a fabricação por partes de indivíduos que provavelmente já fariam isso com outros métodos e ignora a questão realmente importante no uso da IA generativa, que é a possibilidade de descarregamento cognitivo.

Em outras palavras, o maior perigo da IAG é que jovens estudantes podem usá-la para substituir seus próprios processos cognitivos para gerar conteúdo e ideias, não desenvolvendo corretamente processos importantes, como reflexão, organização, revisão, fundamentais para a formação do pensamento crítico e da criatividade.

Abordagem diferente é necessária

Por fim, a portaria parte do princípio que a pesquisa é um fim em si mesma, negando o que acontece após sua conclusão. Os mesmos estudantes que foram proibidos de usar IA precisarão lidar com outros alunos que estão usando IA, caso sigam pela docência. Mais provavelmente ainda se seguirem para o mercado de trabalho, que faz um uso cotidiano de diversas técnicas e ferramentas de IA e busca exatamente por profissionais qualificados técnica, ética e criticamente para esta inserção.

A crítica aqui apresentada não implica defender a ausência de regulação, mas sim a necessidade de uma abordagem diferente, focada na formação. Uma política institucional adequada deveria partir do reconhecimento de que a IA generativa já está presente na realidade de professores e alunos e que a função da universidade é formar pesquisadores capazes de utilizá-la de forma crítica, ética e produtiva.

Isso exige investimento em formação, o desenvolvimento de diretrizes claras que diferenciam usos legítimos de problemáticos e a criação de comitês multidisciplinares para avaliar casos complexos.

Seria também fundamental repensar os métodos de avaliação acadêmica, privilegiando competências que a IA não replica facilmente, como o pensamento crítico contextualizado, criatividade aplicada, capacidade de síntese interdisciplinar e a habilidade de formular questões originais.

Ao finalizar esta análise, é importante fazer uma ponderação. O objetivo aqui não é desincentivar outras instituições a publicarem suas diretrizes. A iniciativa da UFC de oferecer um documento concreto ao público, abrindo a discussão, é um passo importante em um cenário de vácuo regulatório. Ter uma regra para debater é melhor que o silêncio.

Share This Article
Sair da versão mobile