Já em 1980, o filósofo americano John Searle distinguiu entre IA forte e fraca. As IAs fracas são meramente máquinas ou programas úteis que nos ajudam a resolver problemas, enquanto as IAs fortes teriam inteligência genuína. Uma IA forte seria consciente.
Searle era cético quanto à própria possibilidade de uma IA forte, mas nem todos compartilham de seu pessimismo. Os mais otimistas são aqueles que endossam o funcionalismo, uma popular teoria da mente que considera que os estados mentais conscientes são determinados exclusivamente por sua função. Para um funcionalista, a tarefa de produzir uma IA forte é apenas um desafio técnico. Se pudermos criar um sistema que funcione como nós, podemos ter certeza de que ele é consciente como nós.
Recentemente, chegamos a um ponto de inflexão. As IAs generativas, como o Chat-GPT, estão agora tão avançadas que suas respostas muitas vezes são indistinguíveis das de um ser humano real — veja esta “conversa” entre o Chat-GPT e Richard Dawkins, por exemplo.
A questão de saber se uma máquina pode nos enganar e nos fazer pensar que é humana é o tema de um teste bem conhecido criado pelo cientista da computação inglês Alan Turing em 1950. Turing afirmava que, se uma máquina fosse capaz de passar no teste, deveríamos concluir que ela era genuinamente inteligente.
Em 1950, isso era pura especulação, mas de acordo com um estudo publicado em preprint do início deste ano — um estudo que ainda não foi revisado por pares —, a IA generativa passou no Teste de Turing: o Chat-GPT convenceu 73% dos participantes de que era humano.
O interessante é que ninguém está acreditando nisso. Os especialistas não só negam que o Chat-GPT seja consciente, mas aparentemente nem mesmo levam a ideia a sério. Tenho que admitir que concordo com eles. Simplesmente não parece plausível.
A questão principal é: o que uma máquina teria que fazer para nos convencer?
Os especialistas tendem a se concentrar no lado técnico dessa questão. Ou seja, discernir quais recursos técnicos uma máquina ou programa precisaria para satisfazer nossas melhores teorias sobre a consciência. Um artigo de 2023, por exemplo, conforme relatado aqui no The Conversation, compilou uma lista de 14 critérios técnicos ou “indicadores de consciência”, como aprender com feedback (o Chat-GPT não foi aprovado).
Mas criar uma IA forte é um desafio tanto psicológico quanto técnico. Uma coisa é produzir uma máquina que satisfaça os vários critérios técnicos que estabelecemos em nossas teorias, mas outra coisa bem diferente é supor que, quando finalmente nos depararmos com tal coisa, acreditaremos que ela é consciente.
O sucesso do Chat-GPT já demonstrou esse problema. Para muitos, o Teste de Turing era a referência para a inteligência artificial. Mas se ele foi aprovado, como sugere o estudo em preprint, os parâmetros mudaram. Eles podem continuar mudando à medida que a tecnologia melhora.
Dificuldades com os mainás
É aqui que entramos no obscuro reino de um antigo dilema filosófico: o problema das outras mentes. Em última análise, nunca se pode saber com certeza se algo além de nós mesmos é consciente. No caso dos seres humanos, o problema é pouco mais do que ceticismo ocioso. Nenhum de nós pode considerar seriamente a possibilidade de que outros seres humanos sejam autômatos sem pensamento, mas no caso das máquinas parece ser o contrário. É difícil aceitar que elas possam ser outra coisa.
Um problema específico com IAs como o Chat-GPT é que elas parecem meras máquinas imitadoras. São como o pássaro mainá, que aprende a vocalizar palavras sem ter ideia do que está fazendo ou do que as palavras significam.
Isso não significa que nunca criaremos uma máquina consciente, é claro, mas sugere que talvez tenhamos dificuldade em aceitá-la se isso acontecer. E essa pode ser a ironia definitiva: ter sucesso em nossa busca para criar uma máquina consciente, mas nos recusarmos a acreditar que conseguimos. Quem sabe isso já pode ter acontecido.
Então, o que uma máquina precisaria fazer para nos convencer? Uma sugestão provisória é que ela talvez precisasse exibir o tipo de autonomia que observamos em muitos organismos vivos.
As IAs atuais, como o Chat-GPT, são puramente responsivas. Tire os dedos do teclado e elas ficam tão silenciosas quanto um túmulo. Os animais não são assim, pelo menos não aqueles que comumente consideramos conscientes, como chimpanzés, golfinhos, gatos e cães. Eles têm seus próprios impulsos e inclinações (ou pelo menos parecem ter), juntamente com o desejo de persegui-los. Eles iniciam suas próprias ações em seus próprios termos, por suas próprias razões.
Talvez se pudéssemos criar uma máquina que exibisse esse tipo de autonomia — o tipo de autonomia que a levaria além de uma mera máquina de imitação —, realmente aceitaríamos que ela era consciente?
É difícil saber com certeza. Talvez devêssemos perguntar ao Chat-GPT.





 
                               

 
		 
		 
		 
		
