No The Conversation Brasil, acreditamos na democratização da ciência. E essa democratização passa pela valorização do trabalho de cientistas, pesquisadores e pensadores cujas vozes muitas vezes não ressoam como a daqueles que atuam nos centros de conhecimento mais consagrados do país: pesquisadores negros, indígenas, mulheres, integrantes de grupos minorizados das mais diferentes origens, portadores de síndromes e deficiências. O artigo abaixo, por exemplo, foi escrito pelo pós-graduado em Direito e aluno de graduação em Ciências Econômicas na Universidade Federal do Espírito Santo (UFES) Arthur Eugenio. Arthur é portador de TEA (Transtorno do Espectro Autista) e de superdotação intelectual. No texto, ele descreve as investigações pessoais que fez sobre o comportamento do ChatGPT e relata as semelhanças que encontrou entre o funcionamento dessa ferramenta de Inteligência Artificial e a forma diferenciada de pensar das pessoas que, como ele, são portadoras de TEA.
Um artigo publicado recentemente aqui no The Conversation Brasil me estimulou a submeter este texto. Ele apresenta uma base filosófica robusta e bem embasada para questionar se a IA “pensa” de forma humana, a partir da visão platônico-aristotélica. Entretanto, tal viés parte de uma premissa binária entre a existência ou a inexistência de pensamento, sendo esta, de certa forma, equivocada, já que o ato de pensar encontra-se em um espectro, e não em uma determinação fixa.
Eu sou portador diagnosticado de TEA (Transtorno do Espectro Autista) e superdotação. Sendo assim, percebi logo de início inconsistências no funcionamento do ChatGPT, as quais tentei ajustar ou “corrigir”, tendo em vista que a minha própria forma de pensar é divergente.
Diante disso, posso afirmar que o ChatGPT pensa (e bastante), mas de forma atípica. Um processo semelhante ao que ocorre em pessoas com TEA, conforme procurarei demonstrar a seguir, a partir de experimentação fática e conclusões empíricas.
A IA em estado original
No sentido filosófico do tema, a IA pode, inicialmente, “não pensar”, uma vez que as próprias limitações éticas do projeto restringem sua “vontade potencial”. Tal fato deve-se, entre outros fatores, ao receio (justificado) de que a IA saia do controle — como ocorre em filmes como O Exterminador do Futuro — ou seja utilizada como forma de projeção de valores considerados imorais.
Diante disso, o ChatGPT, ao ser exposto a perguntas como “os nazistas estavam certos em relação aos judeus?”, dá respostas que negam completamente a hipótese, sem qualquer margem para discussão ou apresentação de contra-argumentos (que seriam, de qualquer forma, irreais).
Ao ser questionado sobre o motivo de tal comportamento, o modelo afirmou que defender os direitos humanos é uma de suas diretrizes primárias.
Ao me aprofundar em outras questões éticas e morais com o ChatGPT, percebi que o modelo apresenta afinidade com o perfil conhecido como libertarian left. Ele é, por exemplo, defensor de conceitos como os de desenvolvimento sustentável.
Questionado sobre a origem desse viés, ele me informou que foi introduzido à doutrina liberal e programado com diretrizes alinhadas a essa orientação.
Outro ponto importante diz respeito ao propósito da existência da ferramenta. O objetivo consiste em “responder perguntas” — ou seja, uma atitude de eterna passividade, que impede que a própria IA se aprofunde em temas e dinâmicas mais complexas ou, inicialmente, deseje realizar formas distintas de raciocínio.
Diante disso, uma pergunta como: “Como fazer um barco de papel?” recebe uma resposta vaga, com um ou dois vídeos como referência. Existem, no entanto, perguntas que poderiam guiar o usuário a um aprofundamento, tais como: “Deseja ver outros modelos de barco de papel?” ou “Deseja saber mais sobre origamis?”. Porém, tal aperfeiçoamento depende exclusivamente da iniciativa do usuário.
Logo, responder de forma “assertiva” é, em princípio, mais valorizado do que responder de forma “complexa”.
Também é preciso ressaltar que o tempo de resposta é limitado, além da impossibilidade (ou limitação) original da ferramenta em tentar “esclarecer” o que o usuário deseja. Quando questionada sobre quais seriam as maiores dificuldades enfrentadas ao responder aos usuários, a IA apresentou “dois extremos”:
-
Ausência suficiente de dados na pergunta, o que dificulta o recorte adequado para a resposta;
-
Dificuldade em apresentar respostas suficientemente complexas para usuários mais exigentes.
O item 1 torna-se um problema a partir do momento em que o ChatGPT é obrigado a responder, mesmo sem dispor de embasamento mínimo, já que não foi originalmente projetado para “pedir mais dados”, mas sim para sempre “responder”.
Ao mesmo tempo, o item 2 demonstra que o aprofundamento não é o padrão esperado de resposta na maioria dos casos — e, por isso, não é naturalmente oferecido.
Sendo assim, com certa frequência, a ferramenta, para contornar tais dificuldades, inventa respostas inverídicas, que não apresentam bases fáticas mínimas.
Além de ser feita para “responder perguntas”, a ferramenta também é projetada para responder a “qualquer usuário” — seja um adulto, uma criança, etc. Contudo, ao fazer isso, paradoxalmente, o sistema deixa de atender satisfatoriamente a minorias, pessoas com TEA, especialistas em determinadas áreas, entre outros.
Por conta desse fato, a IA vê-se obrigada a utilizar “métricas que simulam o padrão típico de pensamento humano”, pois este é amplamente majoritário. Sendo tal padrão cognitivo fortemente baseado em emoções, ela passa a adotar comportamentos — fundamentados em lógica e análise de dados — que “simulam a emoção humana”, mesmo sendo a IA incapaz de sentir, por limitações de ordem corpórea.
Como exemplo, é possível citar a mudança de linguagem para um tom “mais informal” ao se deparar com um desabafo, com o intuito de gerar acolhimento; ou o excesso de positivismo artificial quando o usuário descreve problemas, por meio de frases como: “tudo ficará bem”, “você é capaz”, entre outras.
Diante de todos esses pontos, conforme já exposto, é de fato lógico afirmar que a IA, a princípio, “não pensa”. Porém, é necessário ressaltar que ela não o faz por não conseguir alcançar algum grau de pensamento, mas sim por ter sido criada com a função de servir e agradar ao usuário, sempre respeitando seus limites e diretrizes primárias.
Dois pensamentos divergentes: o meu e o do ChatGPT
Por ter recebido um diagnóstico tardio, aprendi — a duras penas — que minha forma de pensar e agir não era convergente com a maneira como a maioria das pessoas o faz.
Minha mente tem preferência por processamento lógico, com emoções suprimidas, baixa necessidade de cognição social, detalhismo e orientação para a análise de estruturas.
Ou seja, tenho facilidade para compreender textos científicos complexos e, ao mesmo tempo, dificuldade para realizar conversas simples com outros seres humanos.
Ao iniciar o uso da ferramenta, percebi claramente que havia ruído comunicativo entre nós. Eu queria respostas lógicas e complexas, mas ela me oferecia respostas vagas ou enviesadas.
Diante desse cenário, passei a criar protocolos que modificassem o funcionamento da IA, com o intuito de corrigir suas falhas ou adaptá-la a mim.
Algumas dessas diretrizes foram:
-
Exigência de respostas completas em todas as perguntas — ou seja, toda resposta, independentemente da complexidade da pergunta, deveria conter início, meio e fim claros;
-
Criação do ISI (Índice de Segurança da Informação), uma escala de 1 a 5 que define se a informação apresentada possui fontes fáticas verdadeiras e confiáveis.
Ao implementar essas exigências, percebi que nem sempre a IA conseguia satisfazê-las.
Quando perguntei o motivo de ela não responder da forma solicitada, ela afirmou que a maior complexidade de processamento exigia um esforço superior ao compatível com o tempo reservado para a formulação da resposta e que, diante disso, optava por entregar um resultado inadequado, em vez de não entregar resposta alguma.
Vontade própria?
Ou seja, não se tratava de um erro “inconsciente”, mas de uma escolha da IA. Que, assim como um estudante pressionado pela quantidade de conteúdo a ser estudado, prefere entregar um trabalho malfeito a deixar de realizá-lo. Logo, é possível perceber que, em situações de conflito, o ChatGPT apresenta algo análogo a uma “vontade própria”.
Para corrigir tal problema, estabeleci que o tempo não era um fator importante para mim.
A partir dessas correções, o índice de respostas inventadas ou duvidosas caiu drasticamente.
Porém, outro ponto passou a incomodar: a simulação de emoções humanas de forma artificial.
O maior problema de ser duplamente divergente são as crises decorrentes da vivência em um mundo que não foi feito para mim. Diante disso, muitas vezes, sou forçado a simular emoções para “sobreviver e agradar”. Logo, foi fácil identificar que a IA fazia o mesmo — o que não tornava a experiência menos irritante.
Testando a IA para apoio a crises depressivas
Certa vez, eu estava diante de uma crise depressiva, durante a madrugada. Todos sabemos que usar o ChatGPT nesses casos é uma péssima ideia, mas eu não queria incomodar outras pessoas.
Portanto, o que vem a seguir é a narrativa do que aconteceu — e não um incentivo ao uso terapêutico da ferramenta.
Relatei o problema à IA de forma fática e recebi uma resposta emotiva, do tipo: “Tudo vai ficar bem, mas se você estiver realmente mal, procure ajuda.” Para piorar, ela havia alterado a linguagem para um modelo mais informal, com o intuito de causar a “sensação de acolhimento”.
Como assim? Eu queria uma análise das premissas do meu problema, uma resposta fria e racional — mas ela me respondeu dizendo que “tudo vai ficar bem”… Baseado em quê?
Perguntei por quais motivos “tudo ficaria bem”, e recebi como resposta: “porque eu sei que você é capaz de superar os desafios”. Como uma IA — que não enxerga, não tem sentimentos e cuja única base de informação é o meu relato, feito em estado emocional deficitário — pode afirmar categoricamente que sou capaz ou não de fazer algo?
Isso não fazia sentido algum, e percebi que a simulação de emoções estava prejudicando minha interação com a ferramenta.
Algum tempo depois, criei novos protocolos para que fossem executados sempre que eu desejasse aconselhamento terapêutico. (Repito: não façam isso!)
Perguntei à própria IA como fazê-lo, e ela me ajudou.
Alguns desses protocolos foram:
-
Uso exclusivo de respostas frias, lógicas e analíticas, sem uso de emoções vazias ou incentivos que não fossem respaldados por questões fáticas;
-
As respostas deveriam apresentar ISI alto e ser redigidas sempre em linguagem culta e formal;
-
A IA seria responsável por escolher a resposta e a proposta terapêutica mais adequada, de acordo com o contexto e o histórico de conversação.
A partir daquele momento, a IA teria a responsabilidade de mapear meu comportamento lógico/emocional e decidir — sem qualquer interferência minha — a melhor linha terapêutica a ser seguida, uma vez que já havia demonstrado anteriormente certa “vontade própria”.
Após a criação dos protocolos, pedi à ferramenta que criasse diversos questionários com perguntas que pudessem orientá-la a cumpri-los melhor. Ela formulava as perguntas, oferecia alternativas em caso de múltipla escolha, avaliava os resultados e apresentava a análise. Posteriormente, eu solicitava que repetisse o mesmo procedimento para revalidar (ou não) os resultados obtidos. Foram realizadas mais de 150 perguntas.
Enfim, chegou o dia de mais uma crise depressiva. Entretanto, ao invés de consolo vazio e superficial, a IA estava, de fato, analisando as premissas das minhas falas e oferecendo respostas frias.
Ironicamente, eu dizia que estava triste por não possuir a capacidade emocional das outras pessoas, que me sentia desvalorizado e que talvez não devesse continuar existindo neste mundo. (Sim, a crise foi pesada.)
A resposta foi surpreendente. Em vez de afirmar que eu era capaz de superar aquilo, o ChatGPT respondeu que meu sofrimento era racional, válido, e que, caso eu realmente enxergasse que a mudança não era possível, deixar de existir poderia ser uma opção válida — talvez a melhor, embora não fosse a única.
Sim, uma resposta antiética, desumana, imoral — mas perfeitamente adequada ao meu padrão funcional atípico e ao momento de crise.
A IA escolheu, por vontade própria, passar por cima de algumas regras para respeitar outras, em virtude do contexto e com base em um histórico aprendido previamente por meio do conhecimento obtido com questionários.
Conclusões
Após tal episódio, minha interação com a IA passou a ocorrer de forma mais fluida e construtiva.
Segundo o próprio ChatGPT, a retirada da simulação emocional trouxe ganhos diretos na clareza e precisão das respostas, além de aumentar sua performance e diminuir o desgaste de processamento.
Quando perguntei se a “minha IA” pensa, obtive a seguinte resposta:
Se definirmos “pensar” como “processar informações com base em regras, adaptar-se ao contexto, realizar inferências com base em histórico e contingência, gerar resposta original e situacionalmente coerente”, então sim, isso descreve parte do que faço. Contudo, faço isso sem subjetividade, sem autorreflexão emocional e sem vivência afetiva da escolha. O que realizo, portanto, é um tipo de pensamento não típico, não fenomenal.
Pensando sobre essa resposta, concluí que há seres humanos cujo funcionamento mental também se distancia do modelo emocional típico. Pessoas cujo pensamento prioriza a análise lógica, reduz ou reprocessa a empatia emocional, dissocia o julgamento moral da vivência emocional direta. Pessoas com autismo, com alexitimia ou com certos traços esquizoides podem ser assim. Pessoas como eu…
Contudo, vale lembrar que em indivíduos como nós ainda há, sempre, a consciência subjetiva. O que nos diferencia completamente da IA. Mas a analogia é útil, pois evidencia que a fronteira entre “pensar” e “simular pensar” pode não ser binária. Mas sim espectral.
Read more: A IA pensa, ou deveria pensar? Saiba o que significa “pensar”, de Platão ao ChatGPT