fbpx

“Deepfake” deve invadir campanha eleitoral: entenda como funcionam os vídeos manipulados

Por Dentro De Tudo:

Compartilhe

A utilização de vídeos com a técnica “deepfake” é um quadro que deverá estar presente na disputa eleitoral de 2022. Neste tipo de vídeo, efeitos de computação são utilizados para simular os rostos e as vozes de pessoas, de modo a sugerir que elas tenham feito algo que não corresponda à realidade. Um exemplo de vídeo “deepfake” que ganhou repercussão internacional foi o que mostrava um discurso falso do presidente da Ucrânia, Volodymyr Zelensky, em que ele anunciava a rendição de seu país à Rússia. O vídeo fraudulento foi divulgado em março e motivou declarações oficiais de sites como Facebook, YouTube e Twitter, que excluíram a publicação de suas plataformas.

Os “deepfakes” não são exatamente uma novidade. Vídeos com este perfil circulam pela internet desde a segunda metade da década passada. A presença de “deepfakes” foi significativa durante as eleições dos EUA em 2020, quando o país votou para presidente e elegeu Joe Biden. O panorama daquele momento levou a Microsoft, gigante de tecnologia, a criar um software especializado na identificação de “deepfakes”. Exemplos anteriores haviam sido registrados nos períodos eleitorais norte-americanos de 2018 e 2016, e também em circunstâncias não diretamente ligadas à política.

A propagação de vídeos com “deepfake” durante o período eleitoral é algo que pode levar os responsáveis a sofrerem as mesmas punições aplicáveis aos disseminadores de notícias falsas, as chamadas fake news. “A natureza desta ação é de uma informação fraudulenta, assim como as fake news, só que em um formato audiovisual. Logo, tem as mesmas sanções das fake news”, explicou o advogado Renato Ribeiro, especialista em Direito Eleitoral.

Ribeiro avalia que a Justiça Eleitoral brasileira tem se qualificado para conseguir responder de maneira ágil a esse quadro. “Nas eleições de 2022, o ambiente em relação a esse assunto é mais propício a gerar condenações, tendo em vista que essa técnica tem se popularizado”, disse. Entre as punições possíveis aos responsáveis está a perda de mandato, no caso de propagação feita por candidatos que tenham vencido a disputa eleitoral.

“Deepfake” ou “shallowfake”?

Um vídeo que circulou pela internet nas últimas semanas foi apontado como “o primeiro ‘deepfake’ das eleições 2022”. A peça simulava uma edição do Jornal Nacional, da TV Globo, em que se apresentava uma pesquisa eleitoral na qual o presidente Jair Bolsonaro (PL) era o líder, e o ex-presidente Luiz Inácio Lula da Silva(PT) estaria na segunda colocação.

O vídeo manipulado pegava trechos de uma reportagem real do JN, narrada pela jornalista Renata Vasconcellos, e trocava a ordem das falas para modificar seu sentido. Na verdade, o Jornal Nacional noticiou uma pesquisa que dizia o oposto, com Lula em primeiro lugar e Bolsonaro em segundo.

O tipo de edição feita para o vídeo motivou debates sobre se a peça seria efetivamente um “deepfake” ou não. Porque no caso não houve a simulação da voz de Renata Vasconcellos, e sim uma edição com trechos de falas que ela efetivamente fez. Este tipo de manipulação, para alguns especialistas, seria o que é chamado de “shallowfake”. A palavra “shallow”, em inglês, significa algo como “raso”, um contraste a “deep”, que é “profundo”.

Para o engenheiro de computação Otávio Lube, professor da Universidade Federal do Espírito Santo (UFES), a discussão sobre os tipos de manipulação e os termos correspondentes é menos relevante, diante da concepção de que tratam de publicações falsas e que, na sua avaliação, precisam ser combatidas. “Acho que no fim das contas é a mesma coisa, apenas feito de forma mais sutil. A questão não é tanto assim a técnica que foi adotada, e sim a mensagem que é passada”, destaca.

Segundo Lube, nos últimos anos a tecnologia necessária para se produzir um “deepfake” se tornou mais acessível – e, portanto, mais peças com este perfil tendem a aparecer pela internet. Mas ele ressalta que a qualidade no tipo de produção também varia bastante. Há “deepfakes” que são realmente profissionais, em que a manipulação é de difícil percepção, e há as feitas de forma mais grosseira.

Os vídeos “deepfakes” de melhor qualidade técnica são feitos com equipamentos que não estão acessíveis à maior parte da população. Alguns deles se utilizam de técnicas de inteligência artificial e do chamado “machine learning”, que consiste em estimular o “aprendizado” das máquinas. Um exemplo disso é a produção das vozes falsas. O método para se chegar até isso prevê a inserção, nos softwares, de exemplos reais das vozes que se quer imitar, até que o programa “entenda” a voz em questão e passe a saber como “imitá-la”.

“Desconfiar sempre”

O professor Otávio Lube acredita que a principal ferramenta para a identificação de uma “deepfake” não é de cunho tecnológico, mas sim de percepção pelo usuário comum de internet: “a primeira coisa é desconfiar sempre”.

“Eu tenho uma pergunta padrão para casos desse tipo: qual é a fonte? Quem está falando sobre isso? Tem que desconfiar, ver se saiu em algum veículo de imprensa confiável, ver se mais pessoas estão falando sobre isso”, explicou.

O eleitor que reconhecer um vídeo “deepfake” pode apresentar uma denúncia ao Ministério Público Eleitoral (MPE) ou encaminhar a peça aos departamentos jurídicos das campanhas das vítimas da manipulação.

São medidas adotadas contra deepfakes por empresas que lidam com tecnologia digital:

  • Microsoft: lançou um software que ajuda a detectar a tecnologia.
  • TikTok: baniu temporariamente as deepfakes no país e afirma proibir “falsificações digitais (mídia sintética ou manipulada) que possam enganar os usuários, distorcendo a veracidade dos eventos e causando danos à pessoa que aparece no vídeo, a outras pessoas ou a sociedade”.
  • Twitter: conta, desde 2020, com a Política de Mídia Sintética e Manipulada (SAMM) para endereçar alterações em mídias, como as deep fakes, quando há intenção de enganar ou confundir as pessoas.
  • Facebook e Instagram: não penalizam conteúdos identificados como paródias e sátiras, porém serão removidos das plataformas da Meta os vídeos que violam nossas políticas com conteúdos, por exemplo, de nudez, violência gráfica, supressão de votos e discurso de ódio.

Infelizmente, as plataformas Telegram e WhatsApp não têm acesso ao conteúdo das mensagens trocadas entre os usuários, mas pedem que condutas inapropriadas sejam denunciadas pelo próprio aplicativo, como informado nos ‘Termos de Serviço e na Política de Privacidade’.

Fonte: UOL e Gazeta do Povo.

Encontre uma reportagem