Ad image

Ciência em debate: O peso silencioso da avaliação de cursos e publicações científicas

11 Min Read
Ciência em debate: O peso silencioso da avaliação de cursos e publicações científicas

Vamos falar de geopolítica da ciência. Pode parecer estranho, à primeira vista, associar um termo que costuma estar ligado à economia ao universo da produção científica. Mas a ciência não acontece no nada, pois a sua estrutura, o modo como o conhecimento é produzido, como os cientistas se comportam e como os trabalhos são avaliados seguem uma lógica política, e até mesmo moral, sustentada por relações de poder, disputas de legitimidade e interesses de grupos diversos.

Proponho olhar para essa dimensão a partir da ideia de governança da ciência, como discutem os pesquisadores Meta Cramer e Martin Reinhart, da Universidade Humboldt, de Berlim, para pensar sobre o sistema de avaliação dos programas de pós-graduação no Brasil.

Primeiro, precisamos ter em mente que a avaliação da ciência não é neutra. Avaliar não significa apenas medir resultados objetivamente. É também definir o que vale, legitimar certas práticas e induzir comportamentos.

Redes de avaliação

À primeira impressão, o sistema de avaliação da CAPES parece centralizado. Existe uma agência nacional, ligada ao Ministério da Educação, que define regras, estabelece relatórios e atribui notas capazes de autorizar ou encerrar cursos. Essa imagem sugere um comando único, um centro de poder que controla todo o processo.

Mas essa leitura é enganosa, pois ela esconde as redes, instituições, interesses e estilos de ciência que formam o sistema. A prática científica é múltipla, heterogênea, cheia de tensões e disputas, e o processo de avaliação acaba refletindo exatamente isso.

Na realidade, a avaliação da CAPES funciona de forma muito mais distribuída, quase como uma rede de forças em constante negociação, ou seja, de forma heterárquica. Nesse emaranhado participam coordenações de área, consultores ad hoc, associações científicas, universidades, revistas científicas e até empresas que mantêm bases internacionais de dados bibliométricos.

O resultado da avaliação não nasce de uma única decisão central, mas da soma (e do choque) desses múltiplos critérios, pareceres e métricas.

O peso cada vez maior das métricas internacionais é um bom exemplo. O antigo sistema Qualis-Referência, por exemplo, era a forma oficial de classificar periódicos no Brasil, estabelecendo uma hierarquia de revistas científicas usada para avaliar programas de pós-graduação. Já a indexação em bases como Scopus e Web of Science indica se uma revista está listada em bancos de dados internacionais, o que amplia a visibilidade e o alcance de artigos.

O fator de impacto das revistas mede, em termos gerais, quantas vezes os artigos publicados em uma revista são citados em outros trabalhos, servindo como indicador de prestígio. O índice H dos pesquisadores busca avaliar tanto a produtividade quanto a influência de um cientista, levando em conta o número de artigos publicados e o número de citações recebidas.

Tudo isso parece oferecer uma medida objetiva, clara e comparável do valor científico. Mas quem decide quais revistas entram nessas bases? Quem estabelece os critérios de prestígio?

A língua da ciência

O domínio da língua inglesa e a centralidade de periódicos do Norte Global deixam evidente que não estamos diante de medidas neutras, mas de filtros culturais e políticos. Ao adotar esses parâmetros, a avaliação da CAPES, ou qualquer outra, acaba importando desigualdades internacionais e reproduzindo-as dentro do Brasil.

No início da minha carreira acadêmica, me perguntava sempre por que era preciso publicar em inglês. A resposta era invariavelmente a mesma: “porque é a língua da ciência”. Mas quem decidiu isso? Houve algum consenso global? Lembro de ver trabalhos valiosos, publicados em português, sendo classificados como de menor qualidade simplesmente por não estarem em inglês.

E, claro, quem já nasce falando inglês larga na frente, enquanto nós, do Sul Global, corremos uma corrida mais difícil. É aí que a geopolítica da ciência também se revela, uma vez que não é apenas sobre qualidade, mas sobre quem tem o poder de decidir o que vale e o que não vale.

Em um cenário cada vez mais marcado por revistas on-line e ferramentas de inteligência artificial capazes de traduzir textos em segundos, até que ponto ainda faz sentido sustentar o argumento de que, se não publicarmos em inglês, nossas pesquisas não serão lidas? O que está em jogo é a inteligibilidade dos textos ou a hierarquia simbólica que coloca o inglês como língua de prestígio e medida de valor científico?

Avaliações qualitativas

Diante desse cenário, alguns defendem que as avaliações qualitativas poderiam corrigir essas distorções. Pareceres de comitês de área, análises sobre impacto social ou originalidade das pesquisas, e a valorização da formação de pessoas são vistos como um antídoto contra o produtivismo.

Mas, quais tradições teóricas predominam? Quais áreas possuem mais poder de articulação? A cada parecer, o que está em jogo não é apenas a ciência em si, mas também valores, posições e interesses. Avaliar um livro das humanidades, um artigo em periódico regional ou uma inovação em saúde depende sempre do olhar de quem lê; e esse olhar, por mais criterioso que seja, nunca é neutro.

É aqui que os quatro eixos propostos por Cramer e Reinhart ajudam a pensar esse debate:

  • Primeiro: avaliadores e avaliados não são blocos separados; um professor que hoje avalia, amanhã será avaliado, e todos estão imersos em redes de dependência e reciprocidade que tornam a imparcialidade plena uma ilusão.

  • Segundo: métricas e pareceres são escolhas políticas e culturais, não ferramentas neutras.

  • Terceiro: avaliar não é apenas distribuir notas, mas também justificar investimentos, regular trajetórias e induzir condutas.

  • Quarto: todo regime avaliativo é fundado em narrativas maiores. No caso brasileiro, a busca pela internacionalização, a obsessão pela excelência, a retórica da competitividade, frequentemente importadas de contextos hegemônicos (leia-se Norte Global).

Ciência performática

Há algo ainda pouco discutido que é o efeito performativo da avaliação. O simples fato de existirem critérios externos faz com que os programas de pós-graduação se reorganizem para atendê-los. A forma dos artigos, os temas de pesquisa escolhidos, os modelos de dissertação e tese, as estratégias de internacionalização; tudo passa a ser moldado pelo que o sistema valoriza.

O que deveria ser apenas um retrato do que se produz transforma-se em roteiro a seguir, em norma de conduta. O resultado é a homogeneização, porque todos correm para atender ao que é valorizado, aquilo que pode ser publicado no curto prazo de um mestrado ou doutorado.

O destino, assim, é a perda de pluralidade. E, para nós, biólogos, falar em perda de diversidade é quase um sacrilégio. Há inclusive evidências de que artigos publicados que não trazem novidades, apenas incrementando conhecimento existente, estão aumentando.

A pressão por produtividade constante pode alimentar a homogeneização das agendas de pesquisa, desestimular investigações mais arriscadas ou voltadas a problemas locais, empurrar muitos para a fragmentação de resultados em múltiplas publicações e naturalizar estratégias de manipulação das métricas, ou até mesmo a má conduta entre cientistas. Assim, a ciência se torna uma encenação de performance acadêmica, e não necessariamente um espaço de criação livre.

Ansiedade e exaustão

E não podemos esquecer o impacto subjetivo que tudo isso gera, como a ansiedade permanente pela nota do programa, a sensação de estar sempre em dívida com um padrão inalcançável, a exaustão de professores sobrecarregados e de estudantes pressionados a publicar antes mesmo de amadurecerem suas pesquisas.

O resultado é um ambiente de desgaste emocional profundo, que compromete não apenas a qualidade da ciência, mas também a saúde mental de toda uma geração de pesquisadores.

Ao impor a corrida infinita do “publicar ou perecer”, o sistema reforça a lógica da sociedade do cansaço descrita pelo filósofo Byung-Chul Han, em que cada fracasso se converte em autocrítica e cada sucesso é apenas combustível para a próxima cobrança. O sujeito acadêmico, ao buscar reconhecimento, encontra a ilusão de liberdade que encobre a violência da autoexploração.

O desafio, portanto, não é imaginar uma avaliação pura e neutra, uma vez que ela não existe. O que precisamos é tornar explícitos os valores e interesses que orientam o sistema e decidir, coletivamente, quais devem prevalecer. Cada escolha é política, e precisa ser debatida como tal.

Assumir que a avaliação da ciência é um regime de poder, marcado por redes múltiplas e por valores específicos, não implica desistir dela. Significa entender seus efeitos, reconhecer seus custos e abrir espaço para imaginar um sistema que não adoeça pesquisadores, que não asfixie áreas inteiras, mas que incentive a pluralidade, a reflexão crítica e a busca genuína por conhecimento.

Share This Article
Sair da versão mobile