Dr. Jacaré Explica: O que são deepfakes e como eles influenciam as eleições

Antes utilizada para obras humorísticas e cinematográficas, técnica de deepfake foi apropriada por produtores de desinformação

Dr. Jacaré Explica

A menos de uma semana do primeiro turno das eleições, conteúdos que colocam em dúvida a segurança do processo eleitoral se tornam cada vez mais frequentes. Neste ano, a desinformação pode vir também por meio de conteúdos manipulados a partir de inteligência artificial, usados para deslegitimar candidatos os atribuindo a falas ou ações que nunca fizeram. 

Esse tipo de conteúdo é conhecido como deepfake e, apesar de inicialmente ser usado para produção de humor, a técnica passou a ser empregada para criar vídeos que distorcem a realidade. Perigosos para o processo eleitoral, os deepfakes copiam rostos, expressões e vozes de pessoas reais, e podem manipular discursos de personalidades e chefes de Estado, além de alterar o resultado de pesquisas. 

O que são deepfakes?

Os deepfakes são conteúdos realistas criados a partir de inteligência artificial e que reproduzem a aparência, as expressões e a voz de uma pessoa. Segundo reportagem da Piauí, eles são áudios e vídeos manipulados nos quais uma pessoa aparece dizendo ou fazendo coisas que nunca fez. 

São diversas as possibilidades: trocas de rosto (em que a face de uma pessoa é substituída pela de outra), sincronização labial (quando a boca de uma pessoa falando pode ser ajustada a uma faixa de áudio diferente da original), clonagem de voz, em que uma voz é “copiada” para dizer outras coisas. 

De acordo com Anderson Rocha, cientista da computação, estudioso dos deepfakes e diretor do Instituto de Computação da Universidade Estadual de Campinas (Unicamp), as falsificações já existem há bastante tempo, o que muda em relação aos deepfakes é que agora esses conteúdos são criados por inteligência artificial, e não um ser humano.

“A inteligência artificial permite que você consiga criar falsificações sem precisar da supervisão de um humano, que é substituído por uma técnica chamada ‘generative adversarial network’ (rede adversarial regenerativa, uma rede de inteligência artificial). Essa rede normalmente tem muitas camadas e parâmetros, e justamente daí sai o nome ‘deep’ [profundo, em inglês]. ‘Deepfake’ então vem da criação de conteúdo a partir de redes desse tipo, tanto para áudio quanto para vídeo e imagem”, explica.

Conforme o professor associado na Universidade de São Paulo (USP) e pesquisador na área de aprendizado de máquina, Moacir Antonelli Ponti, os algoritmos utilizados pela inteligência artificial para produzir os deepfakes são tecnicamente chamados de “deep learning”. “Como o conteúdo é falso (fake), se cunhou o nome “deepfake” da junção das duas coisas.” 

Ponti explicou ao Dr. Jacaré que os deepfakes surgiram justamente com o desenvolvimento de algoritmos que buscavam a geração de conteúdos realistas, principalmente imagens. “Pesquisadores desenvolveram esses métodos principalmente para aplicações relacionadas ao design, para edição de imagens (por exemplo, restaurando partes de imagens antigas) ou para realizar geração de imagens para a indústria do videogame e cinema. Posteriormente, esses algoritmos começaram a ser usados de má fé para aplicações que ferem a ética.”

Como identificar um deepfake?

Com o aprimoramento e acessibilidade cada vez maior da tecnologia, dos equipamentos e dos algoritmos, hoje é possível fazer deepfakes bem mais convincentes que os primeiros. O problema, segundo os especialistas ouvidos pelo Dr. Jacaré, é que, por isso, também ficou mais difícil identificá-los. 

Para Rocha, como os algoritmos utilizados pelos primeiros deepfakes não eram muito avançados, havia pistas que podiam ser procuradas para identificar se aquele conteúdo era uma falsificação. Por exemplo, no caso de imagens e vídeos, era feita análise de movimento dos olhos (ver se a pessoa estava piscando ou não) e próximo aos lábios, e se a iluminação na cena casava com a próxima ao rosto. Isso porque, conforme o pesquisador, normalmente nessas regiões os algoritmos geravam algumas inconsistências. 

No caso de conteúdos em áudio, Rocha diz que, no geral, eram analisados o pitch, a modulação da voz e as transições entre fonemas. 

“O problema é que como esses algoritmos de inteligência artificial vão melhorando cada vez mais com o tempo, à medida que eles veem mais dados e mais exemplos, esse tipo de pista já não é mais trivial. Hoje não é necessariamente fácil identificar se um vídeo é um deepfake ou não. Se você ouve um áudio, a não ser que você seja uma pessoa que entenda bastante de áudio, você não vai encontrar essas inconsistências facilmente. Então hoje em dia a gente tem que utilizar a própria inteligência artificial para nos ajudar a identificar esse tipo de falsificação.”

Segundo Rocha, sempre que é criada uma falsificação, seja ela comum ou por meio de deepfake, ficam resquícios e inconsistências no conteúdo. Em uma edição comum, esses traços são mais facilmente identificados porque, atualmente, quando cria-se um deepfake, em geral há uma etapa de pós-processamento num software de edição para corrigir essas inconsistências. “Hoje em dia, nós, do cenário forense, não nos importamos muito em diferenciar se foi feita uma alteração comum ou se foi feito um deepfake. Para nós importa mais identificar se houve uma manipulação, uma criação de um conteúdo sintético.”

Na visão de Ponti, se bem feito, é muito difícil identificar um deepfake. O especialista cita também como pistas para reconhecê-los problemas nas transições entre o rosto e o restante da cabeça, lábios e dentes, e a importância de desconfiar quando houver um padrão robótico na movimentação. “Mas cada vez mais os deepfakes estão melhores, então o importante nesse caso é a conscientização das pessoas sobre o conteúdo em si (o que está sendo dito e quem está dizendo) e não a forma (a aparência ou sonoridade)”, reforça.

Como são feitos

De acordo com reportagem da Super Interessante, no geral, os deepfakes são criados em duas etapas: primeiro, o software capta imagens de referência da pessoa que será usada no vídeo, depois, é preciso gravar os movimentos de uma segunda pessoa, que será a base (ou o molde) para o deepfake. Por fim, a inteligência artificial une as duas coisas para criar o vídeo falso. 

Ponti explica que, ao contrário de uma edição de áudio ou vídeo comum, o deepfake usa uma base de dados para realizar a edição ou geração do conteúdo. “Numa edição comum um especialista ou artista fabrica a edição manualmente ou com a ajuda de alguma ferramenta computacional. Num deepfake se usa imagens ou áudios reais de uma pessoa. Quanto mais essa pessoa tiver esse conteúdo público, mais dados o algoritmo terá para produzir conteúdo realista. Por exemplo, um jornalista ou repórter de TV aberta, um ator, um político, todos tem sua imagem, vídeo e voz disponíveis amplamente. Assim, quanto mais pública é a personalidade, maior será a qualidade do deepfake”.

Ao Dr. Jacaré, o professor da Unicamp, Anderson Rocha, esclareceu que uma das maneiras mais comuns de se criar um deepfake é por meio do Text to Speech (TTS), com uma técnica conhecida como “puppeting”, que é quando um algoritmo gera um texto e faz uma voz falá-lo. “Puppeting” vem da palavra puppet em inglês, que significa fantoche. “É como se você estivesse colocando palavras na boca de uma pessoa. Aí você vai imitar toda a questão do tom e formato da voz, o rosto vai ter que se mexer de acordo. Essa técnica de falsificação tem sido bastante utilizada muitas vezes com fins humorísticos ainda, mas também já há casos em que isso é utilizado justamente para fazer pessoas falarem o que elas não querem e isso é divulgado depois como se fosse um vídeo real.”

A produção desse tipo de conteúdo se tornou mais acessível às pessoas, mesmo aquelas que não têm conhecimento de programação e software. Embora os deepfakes criados a partir de aplicativos ou sites na internet não sejam tão sofisticados e complexos quanto aqueles produzidos por especialistas, é importante que a população entenda os perigos envolvendo esses materiais.  

O Dr. Jacaré testou uma das ferramentas utilizadas para criação de deepfakes. Na imagem uma das jornalistas da equipe foi o ‘alvo’ da falsificação. Assista:

Os perigos dos deepfakes e a influência no processo eleitoral

Conteúdos possivelmente editados com técnica de deepfake envolvendo a manipulação de resultados de pesquisas de intenção de voto nas eleições de 2022 e informações sobre presidenciáveis, por exemplo, já podem ser encontrados na internet e nas redes sociais. Alguns deles já foram desmentidos pelo Comprova, projeto de verificação de conteúdos do qual o Plural faz parte.

Na opinião do professor da USP, Moacir Ponti, os deepfakes já estão influenciando no processo eleitoral, comumente para confirmação de crenças e ideologias dentro dos grupos que apoiam um ou outro candidato. 

“É importante que as pessoas se eduquem e prestem atenção ao conteúdo que está sendo dito. Se ele tem o objetivo de suscitar paixões fortes como: a revolta, o ódio, contradigam o que está sendo divulgado pela mídia que faz trabalho sério, ou ainda se forem conteúdos difamatórios, tem altas chances de ser um deepfake para enganar.” 

Para Rocha, além do uso político dos deepfakes que pode ser visto não apenas no Brasil, como nos Estados Unidos e outros países, é preciso também combater o uso pornográfico desse tipo de conteúdo. “Muita gente usa esse tipo de conteúdo para criar pornografia de pessoas famosas ou para pornografia de vingança, de chantagem.”

Em 2020, um relatório da empresa Sensity indicou que nudes falsos, criados a partir da técnica de deepfake, de mais de 100 mil mulheres estavam sendo compartilhados na internet.

“Essas duas [política e pornografia] são as maiores utilizações hoje em dia, de longe”, finaliza Rocha.

Por que explicamos: O Dr. Jacaré investiga conteúdos suspeitos que circulam nas redes sociais sobre as eleições de 2022 no Paraná. A seção Dr. Jacaré Explica é utilizada para a divulgação de informações a partir de temas que estão causando confusão, como é o caso de conteúdos que utilizam deepfakes. Essa prática, que tem sido usada como ferramenta para a criação de conteúdos falsos envolvendo atores políticos, prejudica a democracia porque distorce a compreensão da população a respeito da realidade. Os eleitores têm direito de saber a verdade e basear suas escolhas em informações confiáveis. 

Por isso, é fundamental que a população tenha conhecimento sobre os deepfakes para que não dissemine conteúdos falsos e manipulados.

Outras checagens sobre o tema: Recentemente, o Projeto Comprova publicou um material sobre deepfakes em que explica como essa técnica foi apropriada por determinadas pessoas para produzir desinformação. Também mostrou que áudio de William Bonner chamando Lula e Alckmin de bandidos é falso e foi feito com ferramenta de deepfake. Além disso, em agosto deste ano, o UOL divulgou que um deepfake mostrava pesquisa falsa na voz da âncora do Jornal Nacional, Renata Vasconcellos.

Para ler as últimas checagens do Dr. Jacaré no Plural, basta clicar aqui.

Sobre o/a autor/a

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

O Plural se reserva o direito de não publicar comentários de baixo calão, que agridam a honra das pessoas ou que não respeitem níveis mínimos de civilidade. Os comentários são moderados por pessoas e não são publicados imediatamente.

Rolar para cima