É irônico que um livro intitulado Mastering Machine Learning: From Basics to Advanced, publicado pela prestigiada editora Springer e custando o equivalente a quase R$ 1.000, cometa justamente um dos erros mais comuns associados ao uso de Inteligência Artificial: a fabricação de citações inexistentes ou incorretas.
O que antes era um deslize típico de alunos de graduação ou pesquisadores iniciantes, como inventar ou citar fontes fantasmas, hoje se tornou um traço recorrente de textos gerados por modelos de IA como o ChatGPT, que frequentemente atribuem informações a autores ou artigos que simplesmente não existem.
A denúncia destes erros foi apurada na segunda-feira, dia 30 de junho, pela Retraction Watch, um portal criado por Ivan Oranksy e Adam Marcus, reconhecido por monitorar retratações, correções e má conduta em publicações acadêmicas em todo mundo. O portal é mantido hoje pela ONG Center for Scientific Integrity, e atua hoje como referência global do acompanhamento da integridade científica.
Esse gravíssimo caso, como apurado, expõe com nitidez o descompasso entre a retórica da excelência acadêmica e a prática editorial sustentada por volume e prestígio de marca. A publicação de um livro com dezenas de citações falsas por uma das maiores editoras do mundo não é mero acidente: é consequência direta de um sistema que terceiriza a responsabilidade científica, automatiza etapas fundamentais da curadoria do conhecimento e recompensa mais a quantidade e o prestígio institucional do que a qualidade.
Esse problema não surge com a IA, mas é aprofundado através dela. E, enquanto alguns docentes se preocupam, de forma legítima, com o uso de IA em sala de aula e para a produção de conhecimento científico, editoras como a Springer deixam passar um livro inteiro que, para além de não ter sido apropriadamente revisado, também parece ter sido majoritariamente escrito por IA.
Evidências de uso da IA – como por exemplo a presença recorrente do travessão e do ponto e vírgula nos textos – costumam ser motivo de punição, desconfiança e recusa editorial quando aparecem em trabalhos de pesquisadores fora dos círculos consagrados. Mas, quando estão diluídas em textos assinados por autores bem posicionados nas redes de prestígio, são tratadas com complacência. Talvez porque gerem bons lucros para quem aprendeu a fazer dinheiro através do mercado da produção científica.
Jogo desigual
O duplo padrão é evidente: o pesquisador iniciante ou periférico precisa provar continuamente sua autoria, seu rigor metodológico e sua originalidade. Já os que fazem parte dos clubes editoriais são publicados quase automaticamente, sem o mesmo nível de escrutínio.
A mensagem implícita é clara: o problema não é o uso de IA em si, mas quem a usa. O autor marginal precisa justificar cada parágrafo. O autor consagrado pode entregar um livro inteiro com dezenas de referências inexistentes – e ainda assim atravessar o sistema sem ser barrado. A publicação acadêmica, nesses termos, transforma-se num jogo desigual de acesso, validação e vigilância. O que está em debate, então, no que diz respeito ao uso ético de IA, não são seus riscos técnicos, e sim a forma em que ela é incorporada a um sistema já assimétrico.
Recentemente, escrevi um artigo criticando a disseminação acrítica do argumento de que a IA estaria nos deixando burros, quando, na verdade, o que nos emburrece é a forma capitalista de estruturar o tempo, o trabalho e o conhecimento. O problema não é a ferramenta, mas o modelo de acumulação que a orienta. Assim como nas salas de aula, onde se teme o uso de IA por estudantes sem que se discuta a precarização docente ou a lógica de produtividade que esvazia o tempo de leitura e reflexão, no campo editorial a IA é apenas mais uma engrenagem a serviço da eficiência e da escala, e nunca da qualidade.
O caso do livro da Springer deixa isso evidente: não faltaram mecanismos automáticos para formatar, compilar e diagramar o conteúdo. Faltou, isso sim, o que deveria ser insubstituível: o olhar humano atento, a revisão crítica, a responsabilidade compartilhada por aquilo que se publica como ciência. O mercado editorial está claramente em crise, e não apenas pelo uso indiscriminado de IA, mas por operar há décadas segundo uma lógica que recompensa escala e prestígio, em detrimento do rigor.
Na pós-graduação, essa crise se traduz em exigências cada vez mais agressivas: programas pressionam alunos a publicar em periódicos qualificados ainda durante o curso, como critério para defender dissertações ou se manter em editais de bolsa. Essa política, baseada na produtividade como métrica de mérito, transforma estudantes sobrecarregados em operários do fator de impacto. E tudo isso para alimentar um sistema cujo processo editorial pode levar anos, e, como mostra o caso Springer, nem sempre garante sequer a revisão por pares.
A importância do “preprint”
É nesse contexto que as críticas ao preprint soam menos como preocupação ética sobre transparência e proteção da autoria perante a revisão por pares e mais como proteção de mercado. Porque, aparentemente, nem mesmo as editoras mais prestigiadas estão cumprindo o que se espera delas. O preprint, ao contrário, oferece uma alternativa legítima: acelera a divulgação do conhecimento, rompe com a intermediação opaca dos periódicos comerciais e se insere num novo paradigma de ciência, em que a revisão é feita de forma aberta, pública e horizontal. Não é a exceção: é a saída.
O que esse episódio nos mostra é que o risco real não está na Inteligência Artificial, mas na estupidez institucionalizada. Quando até mesmo os erros se tornam lucrativos, e o prestígio é blindagem contra o crivo, o que se desintegra é o próprio pacto científico. Uma ciência sem tempo, sem responsabilidade e sem revisão não é ciência: é produto. E quando o conhecimento vira produto, o pesquisador vira operário precarizado, a verdade vira mercadoria, e o erro, desde que venha com logotipo, vira tendência.
É preciso escolher: ou seguimos aceitando esse modelo que premia quem tem nome e pune quem tem esforço, ou reivindicamos com urgência uma outra forma de produzir, revisar e publicar o conhecimento. Uma forma em que a inteligência, humana ou não, sirva ao pensamento – e nunca ao algoritmo do lucro.