por Loren Spindola*
A ética se concentra em identificar o que é certo ou errado, bom ou ruim, justo ou injusto nas ações humanas e nas relações interpessoais. Ao basear-se em valores universais como a justiça, a honestidade, a responsabilidade, a empatia e a dignidade humana, orienta a conduta humana em sociedade. Além disso, a ética também se preocupa em examinar as diferentes teorias morais e sistemas de valores que influenciam o comportamento humano, e em fornecer orientações para a tomada de decisões (éticas) em situações complexas e conflituosas.
A ética Kantiana, por exemplo, ensina que as ações humanas devem ser guiadas por princípios universais e racionais, independentemente das consequências ou resultados dessas ações. A moralidade é baseada na razão e na vontade de seguir princípios universais, como a obrigação de tratar as pessoas como fins em si mesmas e não apenas como meios para alcançar nossos próprios objetivos.
À luz deste brevíssimo – e, propositadamente, superficial – pano de fundo filosófico, inferimos que a ética é, antes de tudo, uma responsabilidade social, com foco na humanidade, e não uma questão técnica. No contexto da inteligência artificial, portanto, a responsabilidade pelas questões morais e éticas é fundamentalmente dos humanos, já que a IA não tem consciência.
Em novembro de 2021, durante a Conferência Geral da UNESCO, os 193 países-membros adotaram a Recomendação sobre Ética da Inteligência Artificial, que estabelece os primeiros padrões globais sobre o tema. Esse instrumento não só visa à proteção, mas também à promoção dos direitos humanos e da dignidade humana, e se coloca como referência ética e base normativa global para fortalecer o respeito ao Estado de Direito no mundo digital.
As recomendações da UNESCO incluem a contribuição para o desenvolvimento sustentável e bem-estar humano; transparência, explicabilidade e responsabilidade da IA; atendimento às necessidades humanas e capacitação dos usuários; respeito à privacidade e dados pessoais; promoção da paz, segurança e resiliência; proteção contra uso indevido, fraude e abuso.
No geral, as empresas estão pouco a pouco reconhecendo a importância da governança ética da inteligência artificial e adotando medidas para garantir que seu uso da IA se alinhe com práticas éticas e responsáveis definidas em ambiente global. Embora ainda haja muito trabalho a ser feito, o foco crescente na ética da Inteligência Artificial representa um desenvolvimento positivo que pode ajudar a promover a confiança e o uso responsável da tecnologia.
Falar em governança é pensar – e colocar em prática – um conjunto de princípios, políticas e práticas que têm como objetivo garantir que o desenvolvimento, a implementação e o uso da IA sejam realizados de maneira ética, responsável e transparente.
Para além de normas e padrões que orientem o desenvolvimento e uso ético da IA, é necessária a criação de mecanismos de supervisão e controle que viabilizem o cumprimento dessas normas. Isso inclui a identificação e gestão de riscos e potenciais impactos do uso da Inteligência Artificial.
Embora as especificidades da estrutura de governança ética de IA de cada empresa possam diferir, muitas adotaram diretrizes de ética de IA que descrevem seu compromisso de usar a tecnologia de maneira ética e responsável. Essas diretrizes geralmente abrangem questões como justiça, transparência, privacidade, segurança, prestação de contas, supervisão humana e responsabilidade social.
Indo um pouco mais além, algumas organizações estabeleceram comitês de ética de Inteligência Artificial ou estruturas semelhantes para supervisionar o desenvolvimento e a implementação de diretrizes de ética. Esses comitês podem incluir representantes de várias funções, como jurídica, compliance, privacidade de dados e tecnologia. Outro exemplo importante é o investimento em programas de treinamento e conscientização para garantir que os funcionários entendam as implicações éticas da IA e consigam implementar diretrizes de ética em IA em seu trabalho.
A colaboração com partes interessadas externas, como pesquisadores acadêmicos, grupos da sociedade civil e reguladores, para garantir que suas diretrizes de ética em IA estejam alinhadas com os valores e expectativas da sociedade, também ajuda a construir confiança com as partes interessadas externas e promover o uso responsável.
As empresas estão integrando considerações éticas desde o início do desenvolvimento de sistemas de Inteligência Artificial, em vez de tratá-las como uma reflexão tardia. Isso pode incluir medidas como a realização de avaliações de impacto e desenvolvimento de sistemas de IA com recursos que promovam justiça, transparência e supervisão humana.
O desenvolvimento responsável da IA exige um compromisso constante com a transparência, responsabilidade e respeito pelos valores universais que orientam o comportamento humano. Isso ajudará a garantir que a Inteligência Artificial seja uma ferramenta que beneficie a sociedade como um todo, sem prejudicar indivíduos ou grupos marginalizados.
A ética não é uma característica que se aplica diretamente a uma tecnologia, mas sim uma responsabilidade dos humanos envolvidos na sua criação e uso. A ética em Inteligência Artificial está cada vez mais em destaque, especialmente no contexto ESG, que busca investimentos sustentáveis e socialmente responsáveis. ESG tem sido um fator importante na tomada de decisão de investimentos, e a ética em IA pode ser vista como um componente crucial na análise de risco e oportunidade de investimentos em tecnologias disruptivas.
* Loren Spindola é líder do Grupo de Trabalho Inteligência Artificial da Associação Brasileira das Empresas de Software (ABES)
** Artigo originalmente publicado no portal IntegridadeESG em 30 de março de 2023.