Sistemas de monitoramento e vigilância podem mitigar roubos e furtos durante a folia do Carnaval
No Brasil, 47 dias antes da Páscoa, uma certeza se estabelece tão inabalável quanto a morte e os impostos: o aumento nos índices de crimes, especialmente roubos e furtos. Para abordar essa questão, hoje dispomos de uma ampla gama de inovações, com destaque para os sistemas de monitoramento e vigilância, considerados como respostas em potencial. Contudo, o debate sobre o uso desses recursos varia, abrangendo desde a expansão até a proibição.
Dentro deste debate, destaca-se a utilização de tecnologias de reconhecimento facial. Embora haja muitas preocupações significativas sobre o aproveitamento dessas tecnologias, os argumentos a favor tendem a ser apresentados primeiro, muitos dos quais enfatizam seus benefícios em termos de eficiência em segurança.
Inicialmente, é comum considerar a sua capacidade preventiva. Como já mencionei, no Carnaval, observa-se que os sistemas de reconhecimento podem, por exemplo, ser uma ferramenta valiosa para indicar potenciais ameaças em eventos de grande escala, no meio de grandes multidões de pessoas. Além disso, há a capacidade de garantir uma verificação mais rápida de identidade e acelerar processos de identificação em infraestruturas de transporte (aeroportos, portos, rodoviárias etc.), fronteiras, barreiras de segurança, mecanismos de controle de acesso e até mesmo entre Estados e países contra possíveis fugas, agindo como um potencial dissuasor de delitos.
Logo, esses sistemas também são vistos como proficientes na atuação repressiva em segurança pública, devido ao seu potencial de agilizar a identificação de situações de risco e o processo de investigação, a reação a atitudes suspeitas e a recuperação de objetos provenientes de roubos e furtos, como veículos (um exemplo prático). E haveria o bônus de impulsionar os investimentos em inteligência artificial.
Em outra perspectiva, há vários argumentos apresentados por defensores da eliminação das tecnologias de reconhecimento facial. Esses argumentos geralmente se baseiam em preocupações éticas, privacidade, preconceito e potenciais violações de direitos. Desde o princípio, há o temor do uso indiscriminado por governos ou empresas que inadvertidamente se unem para modernizar a gestão pública de segurança, o que pode levar a uma busca lombrosiana por aqueles propensos a cometer crimes e ao monitoramento em massa da população, gerando preocupações sobre um estado de vigilância discriminatório e um ambiente de risco à liberdade de expressão, respectivamente, e, entre outros.
Paulatinamente, percebe-se que algoritmos de verificação biométrica de faces têm demonstrado ter taxas de erro mais altas em determinadas populações, como minorias étnicas, migrantes e, consequentemente, comunidades e populações vulneráveis, ampliando intolerâncias e prejulgamentos devido aos vieses nos algoritmos. Além do ônus do “falso positivo” (aliás, mais que um erro, é arbitrário e, repetidas vezes, abusivo), haveria a falta de informações sobre a aplicação de tecnologias de reconhecimento, o que pode ser explorado por atores mal-intencionados para atividades criminosas, como violação da privacidade, fraudes e vigilância ilegal, e levanta questões sobre confidencialidade e controle sobre os próprios dados.
De fato, o debate em torno do uso de tecnologias de reconhecimento por imagens é complexo, com importantes considerações tanto a favor quanto contra. E, diante desse debate polarizado, é muito desconfortável se posicionar em uma zona até agora cinzenta. Encontrar cor envolve equilibrar os benefícios potenciais com as preocupações relacionadas à segurança, privacidade, controle e possíveis consequências individuais e sociais negativas.
Por mais incômodo que seja, devemos estar dispostos a dialogar, acolher o contraditório e verificar quando o meio-termo é possível. Alguns aspectos são mais propensos de estabelecer acordos.
Muitos concordam que as leis existentes são inadequadas para lidar com os desafios específicos apresentados pelos mecanismos de vigilância. Também encontramos convergência sobre a necessidade de estabelecer práticas regulatórias que promovam segurança jurídica e transparência para a governança do uso de algoritmos de identificação de pessoas, garantindo a proteção da privacidade e a minimização de possíveis excessos. Em ambos os casos, incentivando que os algoritmos sejam éticos, incluindo a opinião pública no processo de tomada de decisão sobre o seu uso e permitindo que as comunidades expressem suas preocupações.
Existe uma clara adesão à ideia de que as organizações que usufruem de dispositivos de reconhecimento facial devem ser compreensíveis em métodos, práticas e propósitos. No entanto, quando, como, onde, em que circunstâncias e a quem deve ser atribuída a responsabilidade por quaisquer falhas ou consequências adversas? Qual a amplitude das regulações? Mais ainda, deve-se restringir a sua exploração em contextos específicos ou banir seu emprego? É possível garantir que sua utilização seja proporcional à necessidade? É viável evitar a implementação em situações não críticas?
Já estive em diversos eventos nos quais essas questões surgiram e impossibilitaram a continuidade de argumentações proveitosas. Neste exato momento, volta e meia me pego pensando: “Um passo à frente e você não está mais no mesmo lugar. Eu só quero andar…” (Chico Science). E mal saímos da primeira marcha.
O desenvolvimento de tecnologias biométricas é inevitável e destaca a exigência por diálogos abertos sobre investimento, restrição, proibição e ética. A opacidade dos algoritmos empregados no reconhecimento facial é factual e levanta preocupações, dada a atual impossibilidade de compreender completamente como as decisões são tomadas e o perigo de injustiças. Enfim, ambas as situações, cada uma à sua maneira, estão relacionadas à percepção da necessidade de rápida evolução; portanto, é crucial observar um mínimo harmonia e uma máxima compreensão de que essa evolução nem sempre se traduz no conceito convencional de progresso.
Marcelo Batista Nery é pesquisador no Think Tank da ABES e na Cátedra Oscar Sala do Instituto de Estudos Avançados da USP (IEA-USP), coordenador de Transferência de Tecnologia e Head do Centro Colaborador da OPAS/OMS (BRA-61) do Núcleo de Estudos da Violência da Universidade de São Paulo.