O The Conversation Brasil publica hoje mais um artigo de uma série sobre desinformação, fenômeno que desafia a integridade do debate público e afeta a democracia, a ciência e os direitos humanos. A publicação é fruto de uma parceria com o Instituto Brasileiro de Informação em Ciência e Tecnologia (Ibict), o International Center for Information Ethics (ICIE), e a Rede Nacional de Combate à Desinformação (RNCD).
Na última semana, a internet brasileira conheceu a apresentadora Marisa Maiô, uma senhora rechonchuda vestindo apenas um maiô preto e salto alto, que comanda um programa de auditório típico das tardes da TV aberta. Com humor ácido e comentários diretos, Marisa exibe atrações de gosto duvidoso, como idosas competindo para cair primeiro em um golpe por celular, uma mulher obrigada a doar o filho como punição por errar uma pergunta de quiz, entre outros disparates. Acontece que Marisa, o programa e seus convidados são todos criações de inteligência artificial, produzidos pelo novo gerador de vídeos Veo 3, da Google, a partir de uma ideia do roteirista Raony Phillips.
O vídeo, editado como se fosse uma compilação de partes de um programa real, viralizou rapidamente em plataformas digitais e aplicativos como Telegram e WhatsApp, onde recebeu a marcação de “encaminhado muitas vezes”, indicando alcance massivo. Seus méritos técnicos são inegáveis, as expressões faciais, a fala em português coloquial, o sotaque e a prosódia são tão convincentes que até pessoas familiarizados com vídeos sintéticos podem não perceber sua origem artificial.
Na semana anterior, vídeos com nível similar de realismo já circulavam em grupos de WhatsApp, também com alta viralidade. Eles retratavam personagens bíblicos como influenciadores digitais, como Noé reclamando das dificuldades de construir a arca, um hebreu narrando a abertura do Mar Vermelho “ao vivo” e a saga da Virgem Maria grávida em sua viagem para Belém. A diferença é que, nesses casos, a impossibilidade histórica de celulares na Antiguidade deixava claro seu caráter fictício.
O ponto que gostaria de chamar a atenção aqui não está apenas no alto grau de verossimilhança dos vídeos e no efeito social de indiferenciação do real que eles produzem a cada nova geração de IA lançada, com resultados cada vez mais realistas. Os vídeos gerados por programação generativa têm alimentado intensos debates sobre o futuro do audiovisual.
Do ponto de vista estético, destacam-se as novas possibilidades criativas, como a produção de efeitos complexos a custos insignificantes a partir da popularização de ferramentas antes restritas a grandes produtoras, permitindo experimentações de linguagem antes impensáveis.
No campo jurídico, surgem questões urgentes sobre direitos autorais, como o próprio caso de Marisa Maiô, cuja personagem foi replicada por terceiros em novos vídeos e até aproveitada por uma rede varejista em campanhas publicitárias, sem compensação ao criador original.
Além disso, multiplicam-se as preocupações com os impactos no mercado de trabalho. Afinal, toda a cadeia produtiva do audiovisual, de atores a pessoal técnico, passando por editores e roteiristas, vê-se confrontada com a dispensa de trabalhadores trazidos pela automação criativa.
Sensacionalismo virtual
Mas o que acontece quando os vídeos adentram um território onde os limites não são mais técnicos, mas essencialmente éticos? Programas de auditório popularescos têm histórico de transgredir essas fronteiras, criando deliberadamente uma zona cinzenta entre entretenimento e informação, com quadros sensacionalistas, apelos emocionais exacerbados e a frequente banalização da violência, tanto verbal quanto física.
Como analisa Muniz Sodré, em “A Comunicação do Grotesco” (1972), o bizarro midiático constitui uma linguagem simbólica que desestabiliza as fronteiras entre o real e o ficcional, entre o ético e o sensacional. A linguagem desses programas constrói um espaço de desordem controlada, em que a disfunção social vira espetáculo.
Ainda assim, a mídia tradicional de rádio e TV, mesmo com seus recorrentes excessos e tensões éticas, sempre enfrentou algum tipo de questionamento quando o absurdo e o grotesco extrapolavam os limites. Vale recordar a acirrada disputa de audiência dominical nos anos 1990 entre Fausto Silva (Globo) e Gugu Liberato (SBT), que gerou verdadeiros espetáculos de mau gosto, assim como a antiga rivalidade entre Chacrinha e Flávio Cavalcanti na década de 1970.
Esses abusos, contudo, encontravam certo freio no fato de que as concessões de rádio e TV serem públicas e reguladas. Esse mecanismo, ainda que imperfeito, impunha às emissoras um grau de autocontrole, motivado pela necessidade de preservar sua imagem perante o grande público, os anunciantes e os órgãos reguladores, além do cuidado mínimo com a credibilidade institucional.
O programa fictício de Marisa Maiô satiriza justamente os tênues limites éticos que as empresas de comunicação estão dispostas a transpor na busca por audiência. Nesse sentido, Marisa Maiô atualiza, em moldes algorítmicos, a tradição do grotesco televisivo. Essa encenação do escândalo como forma de manter a atenção do público foi descrita por Danilo Angrimani, em “Espreme que sai sangue” (1994), como parte de uma “dramaturgia da dor” estruturada pela lógica do sensacionalismo. A diferença, no caso de vídeos sintéticos, é que essa lógica é automatizada por sistemas cujo único critério de eficácia é o engajamento, liberando completamente os conteúdos de qualquer ancoragem na realidade ou responsabilidade ética.
No vídeo de Marisa Maiô, a provocação ética atinge seu ácido clímax quando duas convidadas se envolvem em uma briga generalizada, enquanto a apresentadora, em tom cínico, declara: “O bom daqui é que não tem segurança e a gente não separa”. O espetáculo do absurdo alcança novos patamares em outra cena, quando uma mulher aparece entristecida ao lado de um caixão coberto por um pano negro, enquanto Miriam anuncia que ali dentro está um de seus parentes, morto recentemente, e que a identidade do falecido seria revelada ao vivo para todo o público.
A naturalização pela banalização do absurdo
Além da ambiguidade entre simulação e realidade, o episódio revela algo mais preocupante, isto é, como o absurdo, quando apresentado de forma frequente e convincente, pode contribuir para sua naturalização na sociedade, tornando-se socialmente aceitável. Sem qualquer tipo de regulação técnica ou ética, sem preocupações com a credibilidade da empresa e os impactos comerciais negativos que isso pode ocasionar, a produção algorítmica pode cruzar fronteiras morais sem hesitações, banalizando o grotesco e o cinismo como práticas sociais.
Na verdade, o modelo de negócios vigente das plataformas digitais privilegia conteúdos extremos, já que sua monetização responde a critérios de engajamento e tempo de atenção das audiências, sem quaisquer considerações éticas relacionadas à qualidade dos produtos. Por esse fator econômico, é inevitável que surjam outros vídeos mais extremos baseados no apelo ao absurdo, não necessariamente engraçados.
A hipersegmentação das redes digitais pode ser explorada para oferecer produtos feitos sob medida aos desejos macabros das audiências. Assim, telejornais policialescos, que usualmente já expõem violência e discurso anti-direitos humanos, podem avançar ainda mais contra princípios basilares da ética jornalística e exibirem imagens artificiais de justiçamento e tortura contra criminosos virtuais.
Da mesma forma, o gigantesco filão sexual da internet poderá abrigar material perverso com ampla variedade de violência sexual extrema e pedofilia, por exemplo. Falsos telejornais podem noticiar fatos irreais contra lideranças políticas ou que estigmatizem grupos sociais, explorando o viés de confirmação que já existe contra eles. Tudo sob o subterfúgio de ser “apenas uma simulação”.
Diante de sua crescente verossimilhança, discute-se a necessidade de rotulagem de vídeos produzidos por IA como forma de alertar as audiências de que não se trata de conteúdos reais. No entanto, essa medida é incapaz de se contrapor à lógica que deliberadamente abraça a recepção e o consumo da desinformação como prática cultural.
Read more: A desinformação é considerada o maior risco para a Humanidade em 2025. O que fazer para combatê-la?
Há, inclusive, uma perversidade embutida no próprio reconhecimento de que ali não estão seres humanos reais e, portanto, ninguém estaria sendo, de fato, torturado diante das câmeras, estuprado ou exposto à execração pública por acusações que nunca existiram. Saber que se trata de um conteúdo sintético pode funcionar como justificativa conveniente para seu consumo (e reprodução), sem o sentimento de aversão ou culpa. Afinal, por mais violento que seja o vídeo, ninguém estaria sofrendo “de verdade”.
Os deepfakes já levantavam preocupações sobre a erosão da verdade, mas o caso de Marisa Maiô aponta para algo mais profundo, a banalização de desvios éticos como algo que pode ser entendido como divertido, engraçado e até bem-vindo. Com ferramentas cada vez mais acessíveis, qualquer pessoa pode criar vídeos hiper-realistas que normalizem o inaceitável. O risco não é apenas o da propulsão de outras modalidades de desinformação, mas o efeito de produzir uma subjetividade moldada pelo absurdo, onde a violência, a crueldade e o nonsense se tornam aceitáveis como parte do cotidiano e incorporados à própria cultura visual. Isso, evidentemente, tem consequências práticas e coletivas sobre o exercício da cidadania.
Com a difusão dessas ferramentas, e sem que haja filtros éticos aplicados aos seus usos, é de se esperar que a internet seja assolada por conteúdos que desafiem limites éticos, e que esse fenômeno contribua para uma naturalização de exigências éticas rebaixadas entre as audiências. As consequências de uma subjetividade ancorada no absurdo são imprevisíveis. Banalizado e incorporado à vida cotidiana, o absurdo impacta a sensibilidade social e a capacidade de distinção entre ficção e realidade, aprofundando o desprezo pela verdade factual próprio da pós-verdade. Mais do que isso, passa a contaminar o exercício da cidadania, instaurando uma zona de ambiguidade moral sustentada pela banalização de várias formas de violência.
O Congresso Nacional discute atualmente a regulamentação de inteligências artificiais por meio do Projeto de Lei 2338/23, aprovado pelo Senado em dezembro de 2024 e agora em tramitação na Câmara dos Deputados. A proposta traz avanços importantes, como a proteção a direitos autorais e a proibição de sistemas que gerem conteúdo envolvendo abuso ou exploração sexual de crianças e adolescentes, classificados como de “risco excessivo”.
No entanto, a discussão enfrenta o poderoso lobby dos conglomerados digitais, que adulam parlamentares e pressionam por uma regulação mais fraca, alinhada a seus interesses econômicos e políticos, com regras que não mitiguem os riscos sociais dessas ferramentas.
Para além de questões jurídicas e tecnológicas, o debate público precisa encarar as dificuldades objetivas de como deter e responsabilizar os efeitos deletérios difusos que conteúdos gerados por IA produzem no tecido social, sobretudo a partir de vídeos e áudios que tensionam limites éticos e impactam na constituição da subjetividade.
Read more: Desinformação gerada por IA já é uma inimiga da democracia na era digital