A IA generativa pode trazer novos riscos de segurança para as empresas, que precisam aprender a se defender do cibercrime
A primeira reação do funcionário do departamento financeiro da filial da empresa em Hong Kong, ao receber o e-mail, foi de suspeita. Por que o CFO da multinacional, baseado no Reino Unido, lhe pediria que efetuasse uma transação secreta?
A dúvida se dissipou quando, em uma videoconferência, o próprio CFO e outros colegas conhecidos confirmaram a ordem. Obediente, ele realiza múltiplas transferências, totalizando mais de 25 milhões de dólares, para diversas contas em Hong Kong.
Uma semana depois, desconfiado, o funcionário resolve verificar a legitimidade daquele pedido junto à sede. Era um golpe. Ele havia sido ludibriado naquele que foi, possivelmente, o primeiro caso de repercussão internacional de fraude corporativa usando deepfakes.
E-mails de phishing, desconfiança inicial do funcionário, são problema conhecido desde que a internet surgiu, e a eles se somaram as tentativas de vishing, em que o contato malicioso é feito por voz. A chegada dos deepfakes – acrônimo derivado de “aprendizagem profunda” e “falso” (deep learning e fake em inglês) que descreve áudios, imagens ou vídeos fictícios gerados ou manipulados digitalmente – torna esses golpes mais requintados, ao criar representações falsas convincentes de indivíduos reais.
A evolução rápida da tecnologia de deepfakes se deve ao uso de Redes Adversárias Generativas (GANs), onde duas redes neurais – uma geradora e outra discriminadora – competem para aprimorar a criação de mídias que imitam a realidade. A rede geradora produz novas mídias tentando enganar a discriminadora, que aprende a diferenciar as imagens sintéticas das reais. A repetição contínua desse ciclo melhora a qualidade dos deepfakes, os fazendo cada vez mais difíceis de serem identificados, como no caso de Hong Kong.
Essa tecnologia pode servir a vários tipos de delitos. Criminosos poderiam, por exemplo, gerar um vídeo que retrate um CEO fazendo comentários que provoquem reações negativas do mercado — como declarações falsas sobre grandes perdas financeiras – causando queda nas ações da companhia, enquanto os autores se valem da velocidade das finanças atuais para lucrar com vendas a descoberto ou outros movimentos especulativos até que a gravação seja desmentida.
A IA pode, também, agravar ameaças com as quais as empresas vêm sofrendo há algum tempo. Ela pode melhorar a eficácia dos ciberataques “tradicionais” – como roubo de senhas e ataques de ransomware – tornando-os mais danosos. Isso se deve às habilidades de programação impressionantes que os grandes modelos de linguagem, como o GPT-4, têm demonstrado. O mesmo sistema capaz de gerar softwares benignos pode gerar malware capaz de detectar vulnerabilidades e contornar medidas de proteção.
Para o Google Cybersecurity Forecast 2024, operações de extorsão seguirão sendo a forma mais impactante de cibercrime no mundo inteiro. Ferramentas de IA generativa de fácil utilização e baixo custo voltadas à criação de mídias sintéticas devem se disseminar com a mesma velocidade que as de texto, como ocorreu com o ChatGPT. Com isso, mais e mais pessoas terão acesso a essas tecnologias, aumentando a possibilidade de que alguém tente extorquir uma empresa ou algum de seus funcionários ameaçando divulgar conteúdo audiovisual falso que danificaria sua reputação.
Mesmo o phishing e o vishing podem se beneficiar da IA generativa, capaz de produzir um sem-número de mensagens personalizadas e que parecem legítimas – hoje existem ferramentas capazes clonar uma voz em tempo real, gravando-a por apenas cinco segundos – o que permite abordar eficazmente grande quantidade de vítimas em um curto espaço de tempo. O desenvolvimento de um modelo de negócios de Crime-como-Serviço (CaaS) no submundo digital, que estende essa capacidade a criminosos sem conhecimento tecnológico, só piora esse quadro.
Além de agir no mercado financeiro ou diretamente junto à empresa, delinquentes podem visar os consumidores. Concorrentes ou outros atores mal-intencionados podem promover campanhas de desinformação audiovisual em massa, procurando difamar um negócio ou simplesmente gerar confusão e perdas.
O que torna os deepfakes tão efetivos é o fato de que os seres humanos acreditam no que seus olhos e ouvidos lhes transmitem. Imagens, vídeos e áudios são recebidos como verdades sobre o mundo ao nosso redor, sendo muito mais difícil desconsiderar seu conteúdo. Imagens, em geral, são processadas pelo cérebro de maneira mais eficiente, provocando mais estímulos e se fixando em nossas memórias mais facilmente do que textos.
Isso explica por que as redes sociais estão abarrotadas de imagens e vídeos. Diversas pesquisas mostram que conteúdo visual tem mais chances de viralizar. Infográficos são curtidos e compartilhados três vezes mais do que qualquer outro tipo de conteúdo, tweets com ilustrações são retuitados 150% mais do que os sem, e publicações no Facebook com imagens geram mais do que o dobro de interações.
Se os deepfakes dificultam distinguir conteúdo real do sintético, e se tendem a ser mais compartilhados, assistidos e lembrados, seu potencial de enganar muita gente é enorme.
E, se estes forem polêmicos ou chocantes, esse potencial aumenta ainda mais. Publicações que apelam para emoções diversas ou que são surpreendentes atraem mais atenção, sendo comprovado que notícias falsas se espalham nas redes sociais de forma mais rápida e ampla do que as verdadeiras. Isso pode ser agravado pela ação dos bots, outros velhos conhecidos da internet que, com a IA generativa, serão aperfeiçoados e mais confundidos com pessoas. Quanto mais engajamento essas publicações obtiverem, mais os algoritmos das redes sociais – programados para reter os usuários a fim de gerar receita publicitária – lhes darão destaque. Deepfakes sensacionalistas podem, portanto, virar uma bomba nuclear de desinformação.
Esse é um perigo imenso em um ano como o atual, com eleições em todo o planeta, já que um deepfake que se alastre pelas redes sociais na véspera da votação pode ser decisivo. Ações desse tipo, além de prejudicar a democracia, trazem instabilidade para a economia e para os negócios. Estes podem sofrer, ainda, com diversos tipos de ataques diretos que se beneficiem da IA. Para mitigar o risco de serem vítimas de crimes cibernéticos, a implementação de novas tecnologias para detecção e prevenção de fraudes e de padrões de cibersegurança mais elevados devem ser prioridades para as empresas —para qualquer empresa — nesta nova era digital.
Eduardo Felipe Matias é autor dos livros A humanidade e suas fronteiras e A humanidade contra as cordas, ganhadores do Prêmio Jabuti, e coordenador do livro Marco Legal das Startups. Doutor em Direito Internacional pela USP, foi visiting scholar nas universidades de Columbia, em NY, e Berkeley e Stanford, na California, e é sócio da área empresarial de Elias, Matias Advogados e líder do Comitê de Startups da Associação Brasileira das Empresas de Software (ABES)
Publicado originalmente na edição de abril de 2024 da revista Exame, disponível online em: Os riscos dos deepfakes corporativos | Exame