A Inteligência Artificial Generativa (IAG) já faz parte do nosso dia a dia. Ferramentas como ChatGPT, Claude e Gemini, e agora o Deep Seek, aparecem em aplicativos de celular, buscadores, navegadores e fazem parte das buscas por acadêmicos em diferentes estágios de carreira. Apesar disso, pesquisadores, professores e estudantes ainda se sentem inseguros sobre como usar essas plataformas, que resolvem tarefas rapidamente, mas podem trazer efeitos indesejados para a pesquisa científica e até na própria formação.
Um dos maiores problemas é o envio de dados de pesquisa (muitas vezes inéditos) a empresas estrangeiras, sem a certeza de que essas informações não serão “aprendidas” por seus modelos de IA. É como se, ao usar o ChatGPT para escrever um artigo, seus resultados preliminares pudessem acabar incorporados em um sistema de IA que, mais tarde, possa repassar a outros usuários trechos ou ideias que você não pretendia divulgar inicialmente e ainda sem citar seu trabalho.
Transparência, custo ambiental e alucinações ainda são obstáculos
Além disso, há o perigo de subirmos dados sensíveis, como relatos pessoais de participantes de estudos, sem termos um controle real sobre onde vão parar. Estas questão nos trazem insegurança pela falta de transparência de como os dados dos usuários são tratados.
Outro ponto delicado é o custo ambiental. Manter servidores gigantescos que respondem a perguntas em poucos segundos demanda muita energia elétrica e água para refrigeração. Esse gasto de recursos, infelizmente, raramente aparece no debate público sobre novas tecnologias. Nas universidades, a preocupação com o consumo de energia é crescente, mas, quando falamos em modelos de IA, o desafio se expande em escala global, e tem sido discutido por meio de chamadas especiais em periódicos de diferentes áreas do conhecimento que contemplam IAG e indexadores ambientais. A DeepSeek sacudiu o mercado americano ao apresentar um modelo com custo de treinamento e de uso consideravelmente menores.
Por fim, há o risco das “alucinações” — quando a IA inventa fatos ou referências que não existem. Isso pode levar a conclusões equivocadas, erros graves em artigos e até mesmo a questionamentos sobre a credibilidade de uma pesquisa. Se um estudante ou professor confia cegamente nas respostas do modelo, pode acabar citando informações falsas. A supervisão constante do pesquisador ocorre a partir do letramento em IAG, ao compreender o funcionamento dos algoritmos, como deve se dar a interação entre humanos e máquina, aspectos éticos,e outras habilidades.
Então, por que ainda usamos? Apesar dos riscos, não é simples “fugir” dessas tecnologias. Microsoft Office, Google Docs e outros programas já oferecem recursos de Inteligência Artificial de forma integrada. É cada vez mais comum, por exemplo, usar a IA para revisar o texto de um artigo, buscar referências ou até mesmo sugerir estrutura de capítulos e subtópicos. Nesses casos, a vantagem está na rapidez e na facilidade de uso, tornando alguns processos mais ágeis. Por isso, a IAG deve ser um assistente na pesquisa e não um protagonista.
Muitas pessoas acreditam que o lado negativo supera o positivo. No entanto, para diversas etapas da pesquisa científica, essas ferramentas têm se mostrado úteis, inclusive aumentando a produtividade individual e coletiva. No campo acadêmico, os alunos logo perceberam as vantagens do texto generativo, ainda que seu uso em atividades de avaliação seja questionável do ponto de visto da integridade acadêmica e da própria aprendizagem.
As tentativas de banir o uso de IAG podem resultar em uma adoção clandestina, sem um debate ético associado, nem um letramento adequado para ser utilizada de forma consciente. Por outro lado, aceitar a inserção tecnológica de maneira acrítica coloca em risco não só a privacidade, mas a própria essência da pesquisa e a evolução do pensamento científico.
Buscando enfrentar essa tensão, o livro “Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa: um guia prático para pesquisadores” foi pensado especialmente para a realidade da comunidade científica brasileira. Especificamente, ainda carecemos de posicionamentos oficiais dos órgãos de regulação e de fomento à pesquisa no país, de associações científicas e de instituições de ensino superior e de pesquisa.
Guia aborda questões como autoria, plágio, ética e outros conceitos
O material está dividido em duas partes. Na primeira, são abordados os princípios gerais ou normativos, na qual conceitos básicos de ética e responsabilidade no uso da IAG são discutidos, destacando a importância de entender como esses sistemas funcionam, seus limites e riscos. Autoria, plágio, vieses nos algoritmos e a necessidade de manter a transparência no desenvolvimento e na aplicação dos resultados de pesquisa são alguns dos tópicos abordados.
Na segunda parte, o guia traz orientações práticas para as principais etapas da pesquisa acadêmica, do brainstorming inicial e da busca de literatura até a escrita e análise de dados. A partir de exemplos reais, incluindo possíveis problemas, como a “invenção” de referências inexistentes ou a reprodução de vieses presentes nos dados de treinamento, são propostas linhas de atuação.
Uma das reflexões centrais do guia é se devemos adotar a IAG em todas as etapas da pesquisa. Alguns veem nela a promessa de poupar tempo e agilizar processos, mas há também quem alerte que, para checar cada fonte ou verificar cada texto produzido pela IAG, perde-se muito do “tempo ganho”. Assim, aquilo que parece tão avançado pode gerar mais trabalho na hora de corrigir ou validar o que é escrito, e deixar a máquina como protagonista no avanço do conhecimento e proposta de soluções da sociedade.
Também consideramos que nem tudo precisa ser automatizado. Em certos projetos, sobretudo aqueles com dados sigilosos ou resultados extremamente inovadores, o uso de plataformas de IA pode não ser recomendável. Por isso, o guia sugere reflexões que cada pesquisador deve se fazer antes de recorrer à IA, sempre ponderando benefícios e riscos. Dessa forma, nossa proposta é assumir uma postura crítica: se vamos usar, que seja com cautela, verificando a política de privacidade dos serviços e redobrando os cuidados ao inserir dados inéditos ou sensíveis. Além disso, precisamos exigir transparência das empresas responsáveis por essas tecnologias, cobrando garantias de que nossas informações não serão usadas de modo indiscriminado.
Boas práticas devem ser discutidas
Universidades e centros de pesquisa também devem discutir regras e boas práticas, criando grupos ou comitês de ética para avaliar o uso de IA em projetos, dissertações e teses. Dessa forma, dúvidas podem ser esclarecidas em âmbito institucional, evitando que cada pesquisador atue de forma isolada e sem parâmetro.
Outro ponto central é a construção de soluções nacionais que atendam às nossas necessidades. Se o Brasil não investir em pesquisa e desenvolvimento próprio, ficaremos reféns de ferramentas que, além de coletar informações estratégicas, podem não refletir aspectos culturais, sociais e linguísticos típicos do nosso contexto.
A IAG está mudando o cenário da pesquisa científica. No entanto, não podemos ignorar questões fundamentais, como privacidade, integridade acadêmica e impacto ambiental. Nosso guia apresenta recomendações para aproveitar os benefícios da IA sem perder de vista a ética, o senso crítico e a soberania tecnológica.
Se usarmos a IAG de forma consciente, poderemos acelerar descobertas sem comprometer o caráter reflexivo que distingue o conhecimento científico. Caso contrário, corremos o risco de fortalecer a concentração de poder em poucas empresas, perder controle sobre nossas produções e contribuir para problemas ambientais que ultrapassam barreiras nacionais.
O debate é urgente, e cabe a cada um de nós fazer escolhas responsáveis neste novo cenário. O guia pode ser baixado gratuitamente no site da Intercom.
Transparência
Para ilustrar nosso argumento, este texto foi alterado e revisado com ajuda do ChatGPT modelo o1 em 26 de janeiro de 2025. Após o uso dessa ferramenta, os autores revisaram e editaram o conteúdo em conformidade com o método científico e assumem total responsabilidade pelo conteúdo da publicação.