Ad image

Pesquisa feita nas principais universidades mostra que uso da IA segue desregulada no ensino superior brasileiro

9 Min Read
Pesquisa feita nas principais universidades mostra que uso da IA segue desregulada no ensino superior brasileiro

Lançado em novembro de 2022, o ChatGPT está prestes a completar seu terceiro aniversário, período no qual a inteligência artificial generativa (IAG) quebrou paradigmas na produção de conhecimento. Se, inicialmente, o modelo de linguagem soava como um chatbot despretensioso capaz de fazer textos razoavelmente parecidos com humanos, ele rapidamente evoluiu para um mecanismo capaz de interferir em basicamente qualquer produção de conhecimento.

Os grandes modelos de linguagem hoje não apenas produzem e revisam textos, mas analisam e resumem vastos conjuntos de dados, gerando relatórios técnicos a partir de contextos complexos. Ao tratar código como linguagem, tornaram-se também competentes analistas de dados. Com agentes de busca autônomos, a IA agora faz pesquisas robustas na internet, seleciona referências e produz relatórios de alta qualidade, iniciando a possibilidade de revisões sistemáticas automatizadas.

Paralelamente, modelos de geração de imagem, áudio e vídeo avançaram exponencialmente. Saímos de produções toscas para vídeos realistas que enganam até usuários céticos, como na propaganda de São João em Ulianópolis e manifestações políticas contra o Congresso.

Porém, todas essas grandes e rápidas transformações ainda não se reverteram na publicação de regramentos ou mesmo diretrizes para o uso de IA nas atividades das principais instituições de ensino superior (IES) no Brasil sejam elas públicas ou privadas.

Estudo realizado mais de 150 Instituições de Ensino Superior

Como parte de uma pesquisa da Cátedra Oscar Sala da USP, verificamos os sites de 69 universidades federais, 38 universidades estaduais, 35 universidades católicas, e 16 universidades particulares de alto reconhecimento nacional, em busca de normas, resoluções, guias, manuais e diretrizes para o uso da IAG em atividades acadêmicas.

A pesquisa foi feita por mecanismos de busca profunda do ChatGPT o3 e Gemini 2.5 pro entre 24 de julho e 6 de agosto de 2025, sendo que cada lista de IES passou ao menos por duas buscas. Depois, todos os dados foram conferidos manualmente e os falsos positivos foram descartados.

Deste universo de mais de 150 IES, fomos capazes de achar apenas sete documentos. Eles pertencem às seguintes instituições: Universidade Federal de Minas Gerais (UFMG), Universidade Federal da Bahia (UFBA), Universidade Federal de Goiás (UFG), Universidade Federal do Delta do Parnaíba (UFDPar), Universidade Estadual Paulista Júlio de Mesquita Filho (UNESP), Pontifícia Universidade Católica do Paraná (PUC-PR) e Centro Universitário SENAI Cimatec. A título de exemplo comparativo, um estudo foi capaz de mapear 116 políticas de uso de IA em instituições de ensino superior nos Estados Unidos ainda no ano de 2023.

UFMG, EFBA, PUC-PR e Senai Cimatec: raras exceções

Dessas sete, o exemplo de mais destaque seria a UFMG, que montou uma comissão permanente de inteligência artificial, que não apenas elaborou as regras, mas que pode ser acionada para sanar dúvidas, propor eventos, discussões e parcerias.

Por sua vez, vale destacar que UFBA, PUC-PR e o Senai Cimatec lançaram guias mais longos e aprofundados sobre o uso da IAG em diferentes atividades de suas instituições. Unesp, PUC-PR e UFMG optaram por lançar resoluções ou normativas, com destaque para o material da UFDPar por sua completude. Já a UFG preferiu incluir regras sobre o uso de IA em seu guia de integridade acadêmica.

São passos iniciais, mas certamente é muito pouco diante dos inúmeros desafios que a IAG traz para ensino, pesquisa e extensão. Como já sabemos, a facilidade com que um aluno pode gerar um texto completo sobre qualquer assunto com tal tecnologia abalou as noções de autoria e integridade acadêmica, mas o impacto no cotidiano universitário é muito mais amplo e profundo.

As ferramentas de IAG já se integraram a quase todas as etapas do trabalho intelectual. Estudantes e pesquisadores as utilizam para explorar ideias, realizar buscas bibliográficas, ler e sintetizar artigos, aprimorar a escrita, traduzir textos e até mesmo para gerar ou corrigir códigos de programação para análise de dados.

Para os docentes, os mesmos recursos podem ser úteis na preparação de aulas e materiais didáticos, mas a sua existência introduz um dilema central no processo avaliativo, uma vez que as ferramentas para detectar conteúdo gerado por máquina mostram-se pouco confiáveis.

Carência de letramento

Essa rápida e disseminada adoção, ocorrendo em um vácuo regulatório, transforma-se em um problema concreto e generalizado para as instituições de ensino superior. Sem diretrizes claras, instala-se um ambiente de profunda insegurança jurídica e pedagógica. Um professor que suspeita do uso indevido de IAG em um trabalho encontra-se em uma posição delicada de atribuir uma nota zero sem o respaldo de uma política institucional clara e de métodos de detecção comprovadamente eficazes, expondo-se a contestações legais. Essa incerteza resulta em uma hesitação na hora de penalizar, o que, por sua vez, pode erodir o rigor acadêmico. A falta de um padrão institucional força a criação de “micro-regimes” em cada sala de aula, com regras que variam da proibição total à permissão tácita, gerando inconsistência e confusão.

Do lado dos estudantes, o cenário é de medo e oportunidades perdidas. Muitos utilizam as ferramentas de forma oculta, receosos de serem punidos por plágio ou desonestidade e perdem a chance de aprender a declarar e justificar usos legítimos da tecnologia. Logo, em vez de aprenderem a usar a tecnologia de forma ética e transparente, a falta de diretrizes concentra a conversa no proibicionismo e na “detecção”. Isso dificulta o desenvolvimento de um letramento em IA, habilidade fundamental para a formação profissional no século XXI.

Além de minar a confiança entre docentes e discentes, a ausência de um diálogo estruturado sobre o tema expõe a comunidade acadêmica a riscos graves de privacidade e propriedade intelectual.

Dados de pesquisas sigilosas ou informações pessoais de alunos e participantes de pesquisa, quando inseridos em plataformas comerciais de IAG, podem ser utilizados para treinar modelos de grandes empresas de tecnologia, em desacordo com a Lei Geral de Proteção de Dados (LGPD). Some-se a desigualdade de acesso e letramento digital, quem domina melhor as ferramentas amplia vantagens; quem não domina, fica para trás.

O caminho para lidar com essa transformação não é a proibição, que se mostra ineficaz e alienante, mas a regulação com foco ético e pedagógico. É necessário capacitar a comunidade para o uso crítico da tecnologia e, principalmente, adaptar os métodos avaliativos para que valorizem as habilidades que a IA não replica, a exemplo do pensamento crítico, da criatividade, da argumentação original e da aplicação contextual do conhecimento.

A universidade brasileira precisa agir para transformar o improviso em governança. Isso exige:

1) A criação de comitês multidisciplinares, com participação de docentes, discentes e especialistas, para elaborar políticas de uso transparente, que definam o que é apoio legítimo e o que é fraude;

2) Fluxos e protocolos para lidar com incidentes;

3) Salvaguardas de LGPD e propriedade intelectual;

4) Responsabilidade compartilhada: não pode “sobrar” tudo para o professor na ponta. Ferramentas validadas, contas institucionais e orientações sobre dados reduzem risco jurídico e técnico. Transparência e previsibilidade reduzem conflito e alinham expectativas.

Share This Article
Sair da versão mobile