O receio de que deepfakes ameacem os inúmeros processos eleitorais que ocorrerão em 2024 ao redor do mundo gera reações das empresas de tecnologia e das instituições
Eduardo Felipe Matias
Durante a eleição parlamentar da Eslováquia no ano passado, foi postada em uma rede social gravação de áudio em que se podia ouvir o líder do partido Progressista, Michal Simecka, falando sobre um esquema de fraude eleitoral envolvendo a compra de votos. Dois dias depois, as urnas revelariam que o partido de Simecka fora derrotado. O áudio, no entanto, era falso.
Ainda que seja difícil comprovar a causalidade em casos como esse, perturbações nas eleições podem não apenas afetar a democracia, mas trazer instabilidade para a economia e os negócios de um país. A probabilidade de que algo assim se repita é especialmente assustadora neste ano, que terá uma quantidade de pleitos sem precedentes. Mais de 2 bilhões de eleitores em pelo menos 50 países, inclusive alguns do tamanho de Índia, Estados Unidos, México e Brasil, votarão em 2024.
Ainda que a desinformação não seja uma novidade na política, a era digital trouxe novas ameaças. Primeiro, foram os bots – programas de software online que executam tarefas automatizadas – os quais, a serviço da propaganda política computacional, procuram manipular atitudes ou crenças políticas.
Até pouco tempo atrás, bots raramente eram inteligentes. Os primeiros eventos políticos em que sua ação chamou a atenção, o referendo sobre o Brexit e a eleição entre Trump e Hillary Clinton em 2016, foram influenciados por versões rudimentares, construídas apenas para aumentar curtidas e seguidores, compartilhar links, forjar tendências ou atacar opositores.
Com os avanços recentes da inteligência artificial (IA), entretanto, muda-se de patamar. Podemos esperar, agora, que entrem em campo nas eleições chatbots sofisticados que podem ser muito mais convincentes.
A popularização da IA generativa pode representar um novo capítulo na história da desinformação. Sua capacidade de criar vastas quantidades de dados que, ainda que falsos, sejam extremamente plausíveis, se junta à habilidade de microdirecionamento de mensagens baseado no detalhado conhecimento que se tem hoje do perfil dos usuários das redes sociais. Isso permite produzir discursos individualizados, que atinjam especificamente a um receptor determinado, com resultados extremamente eficazes.
Nesse contexto, merecem especial atenção os chamados de “deepfakes”, acrônimo derivado de “aprendizagem profunda” e “falso” (deep learning e fake em inglês), que são áudios ou vídeos fictícios gerados ou manipulados digitalmente.
A possibilidade de adulteração de registros de diversos tipos também não é inédita, a ponto de que o nome de um software de edição de imagens, o photoshop, seja frequentemente empregado como verbo. Porém, se antes essas alterações eram relativamente fáceis de desmascarar, isso deixou de ser verdade.
A tecnologia que permite a criação de deepfakes cada vez mais perfeitos evolui rapidamente, graças à técnica usada para produzi-los, denominada Generative Adversarial Network (GAN). Esta envolve algoritmos de rede neural que aprendem a replicar padrões ao vasculhar grandes conjuntos de dados, dando origem a registros que são submetidos a um algoritmo “adversário”, que procura por defeitos. O algoritmo generativo então refina a versão e elimina erros. Esse processo se repete em ciclos, produzindo áudios e vídeos difíceis de se distinguir dos reais.
A disseminação dos instrumentos que permitem criar conteúdos audiovisuais sintéticos deve ocorrer com a mesma velocidade vista no caso das IAs generativas de texto – aliás, recentemente, a OpenAI, mesma criadora do ChatGPT, revelou o Sora, capaz de gerar vídeos com qualidade impressionante. A tendência é que mais e mais pessoas tenham acesso a essas tecnologias de fácil utilização e baixo custo, ampliando o perigo de que materiais enganosos sejam produzidos e viralizem, potencialmente decidindo uma eleição.
O outro lado da moeda, igualmente preocupante, é que os políticos poderão passar a se valer da existência dos deepfakes para negar vídeos e áudios reais que os mostrem cometendo algum ilícito ou dizendo algo que poderia lhes tirar votos. É o chamado “dividendo do mentiroso”, no qual os malfeitores se beneficiam da dúvida sobre a autenticidade das gravações para as desacreditar e escapar ilesos.
Cientes de todos esses riscos, tanto as big techs que detêm as plataformas nas quais esses deepfakes podem se espalhar quanto algumas instituições públicas começaram a tomar providências.
Em fevereiro deste ano, vinte empresas líderes da área da tecnologia se comprometeram a trabalhar juntas para detectar e combater conteúdo criado por IA com propósito de enganar eleitores. Já foram anunciadas diversas medidas para isso, como impedir que suas ferramentas sejam utilizadas para desenvolver chatbots que finjam ser pessoas reais, ou rotular melhor o que for gerado por IA. Entre as reações das instituições, o Tribunal Superior Eleitoral (TSE) brasileiro aprovou, no mesmo mês, uma resolução que proíbe o uso de deepfakes para prejudicar ou favorecer candidaturas, sob pena de cassação do registro ou do mandato.
2024 pode ser um divisor de águas na relação entre democracia e IA. Caso o uso indiscriminado da IA generativa comece a pôr em dúvida a veracidade de tudo o que se vê na internet, se criará um clima de desconfiança altamente prejudicial ao processo democrático. O quadro se torna mais grave quando se sabe que essas tecnologias estão irrompendo em dias em que as pessoas estão cada vez mais desiludidas com os políticos e as instituições. Deepfakes podem exacerbar ainda mais essa sensação, levando a uma descrença geral na democracia. Por isso, este é o momento de agir.
Eduardo Felipe Matias é autor dos livros A humanidade e suas fronteiras e A humanidade contra as cordas, ganhadores do Prêmio Jabuti e coordenador do livro Marco Legal das Startups. Doutor em Direito Internacional pela USP, foi visiting scholar nas universidades de Columbia, em NY, e Berkeley e Stanford, na California, é sócio da área empresarial de Elias, Matias Advogados e líder do Comitê de Startups da Associação Brasileira das Empresas de Software (ABES)
*Artigo publicado originalmente na edição de abril da revista Época Negócios, disponível em: Eleições e IA, o ano em que vivemos em perigo | Na Fronteir@ | Época NEGÓCIOS (globo.com)