Na Grécia Antiga, quando alguém queria saber o seu futuro, ia ao Oráculo de Delfos e perguntava à Sibila sobre o seu destino. Em muitas ocasiões, essas perguntas giravam em torno do estado de saúde do interessado.
Também na Grécia antiga viveu Hipócrates, o precursor da medicina moderna. E nos mais de dois mil anos que nos separam de seus ensinamentos, a medicina avançou de forma espetacular até os dias de hoje, em que ir ao médico faz parte de nossas rotinas.
Do Dr. Google ao Dr. ChatGPT
Mas os avanços tecnológicos atuais nos permitem economizar tanto a viagem à Grécia quanto o deslocamento ao consultório e perguntar diretamente ao “Dr. Google”. Ao se erigir como substituto do médico, ele dá origem a autodiagnósticos que, em uma proporção não desprezível de vezes, são errôneos. Já se sabe: para o Dr. Google, tudo é câncer.
Isso se agrava com a proliferação de notícias falsas na área da saúde, pelo menos de acordo com a percepção de um em cada quatro espanhóis. Daí o esforço das entidades médicas em divulgar como fazer um uso responsável da internet.
No entanto, o Dr. Google ganhou concorrência na forma de chat conversacional de inteligência artificial (IA) — como o ChatGPT —, e já há quem prometa avanços médicos espetaculares graças ao seu uso.
Mas o “Dr. ChatGPT” também tem limitações: pode ser capaz de diagnosticar algumas condições comuns e, ao mesmo tempo, falhar redondamente em outras. Na medicina, os erros podem ter consequências graves: um paciente que confiou no julgamento do ChatGPT adiou a assistência médica após sofrer um acidente vascular cerebral, colocando sua vida em risco.
A IA pode substituir o médico? Para Shunsuke Koga, professor da Universidade da Pensilvânia, a resposta é não. Ele afirma ainda que a IA é uma faca de dois gumes: “embora tenha potencial para apoiar os profissionais de saúde e melhorar os processos de diagnóstico, também existe um risco significativo de desinformação e atrasos no diagnóstico quando essas ferramentas são usadas de forma inadequada por pessoas sem experiência médica”.
Em outras palavras, a IA atual pode ser uma grande ajuda para os profissionais de saúde, mas não seu substituto.
Mais inteligente do que realmente é
Na verdade, a ampla divulgação dos avanços da IA atualmente costuma apresentar apenas seus sucessos, que são muitos, ocultando seus pontos obscuros. Por exemplo, os chats conversacionais têm um excesso de confiança: eles não admitem os casos em que fazem previsões cegas. Isso se deve ao fato de que eles são projetados para produzir textos que “soam bem”, mas não têm capacidade de raciocínio como os seres humanos.
Se você perguntar ao ChatGPT quanto é um mais um, ele sabe que “soa bem” colocar um número como resposta a essa pergunta, porque durante seu treinamento ele viu muitos casos em que “um mais um é dois”. Ele acerta, mas sem entender o que está fazendo, como no “quarto chinês” de Searle, um experimento mental que defende que saber manejar símbolos não é suficiente para entender o que está sendo feito — ou dito, no caso do ChatGPT.
Como se isso não bastasse, o ChatGPT fala sem parar, dando a impressão de ser mais inteligente do que realmente é. Portanto, não estamos falando de uma IA geral e, para seus críticos, “é como colocar um macaco na frente de um teclado”. É claro que não precisamos que a IA seja geral para que seja útil — daí o grande uso dos chats conversacionais —, mas o perigo está em atribuir-lhe capacidades que vão além do que ela realmente pode fazer.
Quem é responsável se ela errar?
Além disso, no campo médico confluem outros fatores que tornam necessário ter cuidado com os diagnósticos do Dr. ChatGPT. O primeiro são os vieses: todos os modelos atuais de IA são baseados em dados, e se os dados contêm vieses, essa inteligência artificial os aprenderá e perpetuará.
Mas o grande problema é possivelmente a responsabilidade: quem se responsabiliza quando a IA erra em um diagnóstico, colocando em risco a vida do paciente? Se o ChatGPT erra ao dizer que você não precisa de visto para viajar, isso é um grande inconveniente, mas não coloca potencialmente em risco uma vida.
Por tudo isso, atualmente, o melhor é combinar a IA com o critério médico, uma receita que já resultou em muitos casos de uso bem-sucedidos.
O fator humano
O grande elefante na sala é possivelmente mais geral do que fazer perguntas ao ChatGPT sobre seu estado de saúde, e é a falta de capacidade crítica. A IA bem utilizada é uma ótima ferramenta, com aplicações impensáveis há alguns anos, como a geração, resumo ou tradução de textos. Mas se a inteligência artificial faz grande parte do trabalho pesado, ainda é necessário supervisionar o que ela produz, e esse trabalho minucioso deve ser executado com critério, corrigindo os erros que tenham sido cometidos.
Além disso, já há evidências de que estamos diante de um círculo vicioso: o uso indiscriminado da IA pode afetar negativamente nosso pensamento crítico.
Portanto, é essencial ser capaz de analisar, com esse pensamento crítico, o que a IA nos diz. Isso implica um trabalho formativo titânico, mas muito necessário, em um mundo em que estamos cercados por agentes e chats conversacionais que falam sem parar. E no campo da saúde, isso significa que é necessário o critério do profissional médico.
Embora existam motivos que possam levar alguém a confiar no critério do Dr. ChatGPT — como a rapidez na resposta —, é preciso ressaltar que o critério do especialista humano continua sendo geralmente superior até hoje. Portanto, se você tiver alguma dúvida médica, pode poupar a viagem a Delfos, mas não evite a consulta com o médico.