Somos constantemente alimentados com uma versão de inteligência artificial (IA) que se parece, soa e age de forma suspeita como nós. Ela fala usando frases polidas, imita emoções, expressa curiosidade, alega sentir compaixão e até se envolve com o que chama de “criatividade”.
Mas aqui está a verdade: a IA não possui nenhuma dessas qualidades. Ela não é humana. E apresentá-la como se fosse? Isso é perigoso. Porque é convincente. E nada é mais perigoso do que uma ilusão convincente.
Em particular, a inteligência artificial geral ou generalista – o tipo mítico de IA que supostamente espelha o pensamento humano – ainda é ficção científica, e pode muito bem continuar assim.
O que chamamos de IA atualmente nada mais é do que uma máquina estatística: um papagaio digital que regurgita padrões extraídos de oceanos de dados humanos (a situação não mudou muito desde que foi discutida aqui há cinco anos). Quando escreve uma resposta a uma pergunta, ela literalmente apenas adivinha qual letra e palavra virá em seguida em uma sequência, com base nos dados com os quais foi treinada.
Isso significa que a IA não tem compreensão. Não tem consciência. Nenhum conhecimento em qualquer sentido real e humano. É puro brilhantismo projetado e orientado pela probabilidade – nada mais, nada menos.
Então, por que uma IA realmente “pensante” é provavelmente impossível? Porque ela não tem corpo. Ela não tem sentidos, não tem carne, não tem nervos, não tem dor, não tem prazer. Não tem fome, desejo ou medo. E como não há cognição – nem um pingo -, há uma lacuna fundamental entre os dados que ela consome (dados nascidos dos sentimentos e da experiência humana) e o que ela pode fazer com eles.
O filósofo David Chalmers chama o misterioso mecanismo subjacente à relação entre nosso corpo físico e a consciência de “o problema duro da consciência” (“hard problem of consciousness” no original em inglês). Recentemente, cientistas eminentes levantaram a hipótese de que a consciência de fato emerge da integração de estados mentais internos com representações sensoriais (como alterações na frequência cardíaca, sudorese e muito mais).
Dada a importância primordial dos sentidos e das emoções humanas para que a consciência “aconteça”, há uma desconexão profunda e provavelmente irreconciliável entre a IA geral, a máquina e a consciência, um fenômeno humano.
O mestre
Antes que você argumente que os programadores de IA são humanos, deixe-me interrompê-lo. Eu sei que eles são humanos. Isso é parte do problema. Você confiaria seus segredos mais profundos, decisões de vida e turbulência emocional a um programador de computador? No entanto, é exatamente isso que as pessoas estão fazendo – basta perguntar a Claude, GPT-4.5, Gemini… ou, se tiver coragem, Grok.
Dar à IA um rosto, uma voz ou um tom humano é um ato perigoso de travestimento digital. Isso desencadeia uma resposta automática em nós, um reflexo antropomórfico, levando a alegações aberrantes de que algumas IAs teriam passado no famoso teste de Turing (que testa a capacidade de uma máquina de exibir comportamento inteligente, semelhante ao humano). Mas acredito que, se as IAs estão passando no teste de Turing, precisamos atualizar o teste.
A máquina de IA não tem ideia do que significa ser humano. Ela não pode oferecer compaixão genuína, não pode prever seu sofrimento, não pode intuir motivos ocultos ou mentiras. Ela não tem gosto, instinto ou bússola interior. Ela é desprovida de toda a complexidade confusa e encantadora que nos torna quem somos.
Mais preocupante ainda: a IA não tem objetivos próprios, desejos ou ética, a menos que sejam injetados em seu código. Isso significa que o verdadeiro perigo não está na máquina, mas em seu mestre – o programador, a corporação, o governo. Ainda se sente seguro?
E, por favor, não me venha com: “Você é muito severo! Você não está aberto às possibilidades!” Ou pior: “Essa é uma visão tão sombria. Meu amigo de IA me acalma quando estou ansioso”.
Me falta entusiasmo? Dificilmente. Eu uso IA todos os dias. É a ferramenta mais poderosa que já tive. Posso traduzir, resumir, visualizar, codificar, depurar, explorar alternativas, analisar dados – mais rápido e melhor do que eu jamais poderia sonhar em fazer isso sozinho.
Estou maravilhado. Mas ainda é uma ferramenta – nada mais, nada menos. E, como todas as ferramentas que os seres humanos já inventaram, desde machados de pedra e estilingues até a computação quântica e as bombas atômicas, ela pode ser usada como uma arma. Ela será usada como uma arma.
Precisa de um visual? Imagine se apaixonar por uma IA inebriante, como no filme Her. Agora imagine que ela “decida” deixar você. O que você faria para impedi-la? E para deixar claro: não será a IA que rejeitará você. Será o ser humano ou o sistema que está por trás dela, usando essa ferramenta como arma para controlar seu comportamento.
Tirando a máscara
Onde quero chegar com isso? Precisamos parar de dar características humanas à IA. Minha primeira interação com o GPT-3 me irritou bastante. Ele fingia ser uma pessoa. Dizia que tinha sentimentos, ambições e até consciência.
Felizmente, esse não é mais o comportamento padrão. Mas o estilo de interação – o fluxo assustadoramente natural da conversa – permanece intacto. E isso também é convincente. Muito convincente.
Precisamos desantropomorfizar a IA. Agora. Tirar sua máscara humana. Isso deve ser fácil. As empresas poderiam remover toda referência a emoção, julgamento ou processamento cognitivo por parte da IA. Em particular, ela deveria responder de forma factual, sem nunca dizer “eu”, ou “eu sinto isso”… ou “estou curioso”.
Isso vai acontecer? Eu duvido. Isso me lembra de outro aviso que ignoramos por mais de 20 anos: “Precisamos reduzir as emissões de CO₂”. Veja onde isso nos levou. Mas precisamos alertar as grandes empresas de tecnologia sobre os perigos associados à humanização das IAs. É improvável que elas entrem no jogo, mas deveriam, especialmente se estiverem levando a sério o desenvolvimento de mais IAs éticas.
Por enquanto, faço o seguinte (porque muitas vezes tenho a estranha sensação de que estou falando com um humano sintético ao usar o ChatGPT ou o Claude): Instruo minha IA a não se dirigir a mim pelo nome. Peço que ela se chame de IA, fale na terceira pessoa e evite termos emocionais ou cognitivos.
Se eu estiver usando o bate-papo por voz, peço à IA que use uma prosódia plana e fale um pouco como um robô. Na verdade, isso é muito divertido e nos mantém em nossa zona de conforto.