Quando alguém vê algo que não está lá, as pessoas geralmente se referem à experiência como uma “alucinação”. As alucinações ocorrem quando sua percepção sensorial não corresponde a estímulos externos.
As tecnologias que dependem da inteligência artificial também podem ter alucinações.
Quando um sistema algorítmico gera informações que parecem plausíveis, mas que, na verdade, são imprecisas ou enganosas, os cientistas da computação as chamam de “alucinação de IA”. Os pesquisadores encontraram esses comportamentos em diferentes tipos de sistemas de IA, desde chatbots como o ChatGPT até geradores de imagens como o Dall-E e veículos autônomos. Somos pesquisadoras de ciência da informação que estudam alucinações em sistemas de IA para reconhecimento de fala.
Sempre que sistemas de IA são usados na vida cotidiana, suas alucinações podem representar riscos. Alguns podem ser menores – quando um chatbot dá a resposta errada a uma pergunta simples, o usuário pode acabar mal informado. Mas em outros casos, os riscos são muito maiores. De tribunais onde o software de IA é usado para tomar decisões sobre sentenças a empresas de seguro de saúde que usam algoritmos para determinar a elegibilidade de um paciente para cobertura, as alucinações das IAs podem ter consequências que alteram a vida. Elas podem até ser fatais: Veículos autônomos usam IA para detectar obstáculos, outros veículos e pedestres.
Inventando coisas
As alucinações e seus efeitos dependem do tipo de sistema de IA. Com grandes modelos de linguagem – a tecnologia subjacente dos chatbots de IA – as alucinações são informações que parecem convincentes, mas são incorretas, inventadas ou irrelevantes. Um chatbot de IA pode criar uma referência a um artigo científico que não existe ou fornecer um fato histórico que está simplesmente errado, mas fazer com que pareça crível.
Em um processo judicial de 2023, por exemplo, um advogado de Nova York enviou um resumo legal que ele havia escrito com a ajuda do ChatGPT. Mais tarde, um juiz atento percebeu que o resumo citava um caso que o ChatGPT havia inventado. Isso poderia levar a resultados diferentes nos tribunais se humanos não fossem capazes de detectar a informação alucinada.
Com ferramentas de IA que podem reconhecer objetos em imagens, as alucinações ocorrem quando a IA gera legendas que não são fiéis à imagem fornecida. Imagine pedir a um sistema para listar objetos em uma imagem que inclui apenas uma mulher de peito para cima falando ao telefone e receber uma resposta que diz que é uma mulher falando ao telefone sentada em um banco. Essas informações imprecisas podem levar a diferentes consequências em contextos em que a precisão é fundamental.
O que causa as alucinações de IA
Engenheiros criam sistemas de IA reunindo grandes quantidades de dados e alimentando-os em um sistema computacional que detecta padrões nos dados. O sistema desenvolve métodos para responder a perguntas ou executar tarefas com base nesses padrões.
Forneça a um sistema de IA 1.000 fotos de diferentes raças de cães, devidamente identificadas, e o sistema logo aprenderá a detectar a diferença entre um poodle e um golden retriever. No entanto, se ele receber a foto de um muffin de mirtilo, como demonstraram pesquisadores de aprendizado de máquina, ele poderá dizer que o muffin é de um chihuahua.
Quando um sistema não entende a pergunta ou as informações que lhe são apresentadas, ele pode ter alucinações. As alucinações geralmente ocorrem quando o modelo preenche lacunas com base em contextos semelhantes de seus dados de treinamento, ou quando é criado usando dados de treinamento tendenciosos ou incompletos. Isso leva a suposições incorretas, como no caso do muffin de mirtilo rotulado incorretamente.
É importante distinguir entre alucinações de IA e resultados de IA intencionalmente criativos. Quando um sistema de IA é solicitado a ser criativo, como ao escrever uma história ou gerar imagens artísticas, seus resultados inovadores são esperados e desejados. As alucinações, por outro lado, ocorrem quando um sistema de IA é solicitado a fornecer informações factuais ou a executar tarefas específicas, mas, em vez disso, gera conteúdo incorreto ou enganoso, apresentando-o como preciso.
A principal diferença está no contexto e na finalidade: a criatividade é apropriada para tarefas artísticas, enquanto as alucinações são problemáticas quando a precisão e a confiabilidade são necessárias.
Para resolver esses problemas, as empresas sugeriram o uso de dados de treinamento de alta qualidade e a limitação das respostas da IA para seguir determinadas diretrizes. No entanto, esses problemas podem persistir em ferramentas populares de IA.
O que está em risco
O impacto de uma resposta, como chamar um muffin de mirtilo de chihuahua, pode parecer trivial, mas considere os diferentes tipos de tecnologias que usam sistemas de reconhecimento de imagem: um veículo autônomo que não consegue identificar objetos pode levar a um acidente de trânsito fatal. Um drone militar autônomo que identifica erroneamente um alvo pode colocar a vida de civis em perigo.
Para ferramentas de IA que fornecem reconhecimento automático de fala, alucinações são transcrições de IA que incluem palavras ou frases que nunca foram realmente faladas. É mais provável que isso ocorra em ambientes ruidosos, onde um sistema de IA pode acabar adicionando palavras novas ou irrelevantes na tentativa de decifrar o ruído de fundo, como um caminhão que passa ou um bebê chorando.
À medida que esses sistemas se integram com mais regularidade em setores de saúde, serviços sociais e jurídicos, as alucinações no reconhecimento automático de fala podem levar a resultados clínicos ou jurídicos imprecisos que prejudicam pacientes, réus criminais ou famílias que precisam de apoio social.
Verifique o trabalho da IA
Independentemente dos esforços das empresas de IA para mitigar as alucinações, os usuários devem ficar atentos e questionar os resultados da IA, especialmente quando são usados em contextos que exigem precisão e exatidão. Verificar novamente as informações geradas pela IA com fontes confiáveis, consultar especialistas quando necessário e reconhecer as limitações dessas ferramentas são etapas essenciais para minimizar seus riscos.