Como um animal está se sentindo em um dado momento? Os seres humanos há muito reconhecem certos comportamentos, como o chiado de um gato, como um alerta, mas em muitos casos temos pouca ideia do que se passa na cabeça de um animal.
Agora temos uma ideia melhor, graças a um pesquisador de Milão que desenvolveu um modelo de IA que, segundo ele, pode detectar se os sons emitidos pelos animais expressam emoções positivas ou negativas. O modelo de aprendizado profundo de Stavros Ntalampiras, publicado na revista científica Scientific Reports, é capaz de reconhecer tons emocionais em sete espécies de animais com cascos, incluindo porcos, cabras e vacas. O modelo capta características comuns dos sons emitidos por esses animais, como tom, faixa de frequência e qualidade tonal.
A análise mostrou que os chamados negativos tendiam a ter frequências mais médias a altas, enquanto os chamados positivos se espalhavam de maneira mais uniforme pelo espectro. Nos porcos, os chamados agudos eram especialmente informativos, enquanto nas ovelhas e nos cavalos os chamados médios tinham mais peso, um sinal de que os animais compartilham alguns marcadores comuns de emoção, mas também os expressam de maneiras que variam de acordo com a espécie.
Para os cientistas que há muito tentam desvendar os sinais dos animais, essa descoberta de traços emocionais comuns entre espécies é o mais recente avanço em um campo que está sendo transformado pela IA.
As implicações são de longo alcance. Agricultores poderiam receber alertas mais precoces sobre o estresse do gado, conservacionistas poderiam monitorar remotamente a saúde emocional de populações selvagens, e tratadores de zoológicos poderiam responder mais rapidamente a mudanças sutis no bem-estar dos animais.
Esse potencial para uma nova camada de insights sobre o mundo animal também levanta questões éticas. Se um algoritmo pode detectar com confiabilidade quando um animal está em perigo, qual é a responsabilidade dos humanos de agir? E como nos protegemos contra a generalização excessiva, em que presumimos que todos os sinais de excitação significam a mesma coisa em todas as espécies?
De latidos e zumbidos
Ferramentas como a criada por Ntalampiras não estão sendo treinadas para “traduzir” os animais no sentido humano, mas para detectar padrões comportamentais e acústicos muito sutis para serem percebidos sem ajuda.
Um trabalho semelhante está sendo realizado com baleias, em que a Project Ceti (sigla em inglês para “Iniciativa de Tradução de Cetáceos”), organização de pesquisa sediada em Nova York, está analisando sequências padronizadas de cliques chamadas codas. Há muito tempo acreditava-se que estas sequências codificavam significados sociais, mas agora elas estão sendo mapeadas em larga escala usando aprendizado de máquina, revelando padrões que podem corresponder à identidade, afiliação ou estado emocional de cada baleia.
Em cães, pesquisadores estão relacionando expressões faciais, vocalizações e padrões de abanar o rabo com estados emocionais. Um estudo mostrou que mudanças sutis nos músculos faciais caninos correspondem a medo ou excitação. Outro descobriu que a direção do abanar da cauda varia dependendo se o cão encontra um amigo conhecido ou uma ameaça potencial.
No Insight Centre for Data Analytics da Dublin City University, estamos desenvolvendo uma coleira de detecção usada por cães de assistência treinados para reconhecer o início de uma convulsão em pessoas que sofrem de epilepsia. A coleira usa sensores para captar comportamentos treinados do cão, como girar, que acionam o alarme de que seu dono está prestes a ter uma convulsão.
O projeto, financiado pela Research Ireland, se esforça para demonstrar como a IA pode aproveitar a comunicação animal para melhorar a segurança, apoiar intervenções oportunas e melhorar a qualidade de vida. No futuro, pretendemos treinar o modelo para reconhecer comportamentos instintivos dos cães, como dar as patas, cutucar ou latir.
As abelhas também estão sob a lente da IA. Suas intricadas danças de balanço — movimentos em forma de oito que indicam fontes de alimento — estão sendo decodificadas em tempo real com visão computacional. Esses modelos destacam como pequenas mudanças posicionais influenciam a forma como outras abelhas interpretam a mensagem.
Ressalvas
Esses sistemas prometem ganhos reais no bem-estar e na segurança dos animais. Uma coleira que detecta os primeiros sinais de estresse em um cão de trabalho pode poupá-lo da exaustão. Um rebanho leiteiro monitorado por IA baseada em visão pode receber tratamento para doenças horas ou dias antes que um fazendeiro perceba o problema.
Mas detectar um grito de angústia de um animal não é o mesmo que entender o que ele significa. A IA pode mostrar que dois sons emitidos por baleias costumam ocorrer juntos, ou que o guincho de um porco tem características semelhantes ao balido de uma cabra. O estudo de Milão vai além, classificando esses sons como amplamente positivos ou negativos, mas mesmo isso continua usando o reconhecimento de padrões para tentar decodificar emoções.
Os classificadores emocionais correm o risco de simplificar comportamentos ricos em binários grosseiros de feliz/triste ou calmo/estressado, como registrar o abano da cauda de um cão como “consentimento” quando, às vezes, isso pode sinalizar estresse. Como observa Ntalampiras em seu estudo, o reconhecimento de padrões não é o mesmo que compreensão.
Uma solução é que os pesquisadores desenvolvam modelos que integrem dados vocais com pistas visuais, como postura ou expressão facial, e até sinais fisiológicos, como frequência cardíaca, para construir indicadores mais confiáveis de como os animais estão se sentindo. Os modelos de IA também serão mais confiáveis quando interpretados em contexto, juntamente com o conhecimento de alguém experiente com a espécie.
Também vale a pena ter em mente que o preço ecológico de ouvir é alto. O uso da IA adiciona custos de carbono que, em ecossistemas frágeis, prejudicam os próprios objetivos de conservação que pretendem servir. Portanto, é importante que qualquer tecnologia sirva genuinamente ao bem-estar animal, em vez de simplesmente satisfazer a curiosidade humana.
Quer aceitemos ou não, a IA está aqui. As máquinas agora estão decodificando sinais que a evolução aperfeiçoou muito antes de nós e continuarão a melhorar nessa tarefa.
O verdadeiro teste, porém, não é o quão bem ouvimos, mas o que estamos dispostos a fazer com o que ouvimos. Se gastamos energia decodificando sinais animais, mas usamos as informações apenas para explorá-los ou controlá-los mais rigidamente, não é a ciência que falha, somos nós.