Por Eduardo Paranhos
O avanço das tecnologias de inteligência artificial (IA) está no centro das atenções nos debates legislativos e na formulação de políticas públicas em diversos países. Com o desafio de mapear e compreender eventuais lacunas dos seus sistemas jurídicos, os modelos de regulação propostos têm caminhado em sentidos opostos.
Por um lado, há países que reconhecem o potencial transformador positivo da IA, buscando fomentar a adoção da tecnologia com uma gestão equilibrada dos riscos referentes a usos específicos. Em comum, estes países reconhecem o papel dos reguladores setoriais e das leis vigentes, sem gerar um ônus regulatório desproporcional para situações que possam ser tratadas pelos arcabouços legal e institucional já existentes. Os países que têm adotado uma visão evolutiva e balanceada da regulação são justamente aqueles com maior protagonismo em IA e inovação tecnológica, como os Estados Unidos, Reino Unido, Singapura, Coréia do Sul, Israel, Japão, entre outros.
Em outra vertente, observamos modelos de regulação prescritivos, cuja opção pela sobrecarga de governança e criação de direitos tem o potencial efeito colateral de desestimular o desenvolvimento e adoção da IA localmente. O exemplo mais marcante deste modelo é o recentemente aprovado AI Act da União Europeia.
No Brasil, o Senado está engajado na discussão de um possível Marco Legal de IA, em especial por meio do PL 2.338/23, de autoria do Sen. Rodrigo Pacheco, incorporando o texto do relatório de uma Comissão de Juristas constituída para este fim. Este PL é diretamente inspirado na estrutura de regulação proposta pela União Europeia, em que pesem as características completamente diversas da cultura jurídica e do ecossistema da tecnologia no nosso País (vale destacar que alguns países europeus, como a França, têm implementado programas de fomento e capacitação em IA com recursos expressivos, desde antes da aprovação do AI Act). Um recente estudo do ITS-Rio constatou que o PL 2.338 chega a ser mais prescritivo do que o modelo europeu que inspirou o seu texto, destacando que há “58 obrigações incluídas na proposta brasileira contra 39 na Lei de Inteligência Artificial Europeia”.
Por tais características, pelo foco excessivo em medidas coercitivas e/ou redundantes, e pela ausência de mecanismos efetivos de fomento e capacitação, vários setores produtivos no Brasil vêm expressando preocupação com os possíveis impactos para a inovação e inserção tecnológica da indústria local.
Um dos aspectos mais críticos na versão atualmente em discussão no Congresso diz respeito ao uso de materiais protegidos para treinamento de sistemas de IA. O texto do ‘relatório preliminar’ ao PL 2.338 apresentado pelo relator da matéria na Comissão Temporária Interna sobre IA (CTIA) do Senado traz limitações capazes de impactar de forma determinante a IA generativa no País, ao prever que “[o] titular dos direitos autorais e direitos relacionados poderá proibir o uso do conteúdo de sua propriedade no desenvolvimento de sistemas de inteligência artificial”.
Modelos de linguagem de grande escala (large language models ou, simplesmente, LLMs) muitas vezes dependem do acesso a uma quantidade massiva de dados de procedências diversas para serem capazes de gerar outputs no processo de criação. O processamento destas informações pode incluir acesso a bases de dados e a conteúdos individualizados contendo obras protegidas.
Em que medida os modelos podem ser treinados sem que tal ação configure uma violação dos direitos autorais? Trata-se de um ponto central de discussão não apenas no Brasil, com a complexidade adicional imposta pelas diferenças entre regimes que reconhecem a doutrina do ‘fair use’ – cuja elasticidade interpretativa possibilita o uso de obras protegidas em determinadas circunstâncias – e demais regimes caracterizados por previsões exaustivas de limitações aos direitos autorais.
O treinamento de modelos fundacionais como os LLMs não envolve necessariamente a replicação de obras protegidas, mas sim o aprendizado a partir de um volume gigantesco de dados, muitas vezes desestruturados, para a geração de novos conteúdos inspirados por uma multiplicidade de inputs, sem prejuízo à exploração dos materiais originais.
Enquanto a situação acima pode ser passível de interpretações, considerando inclusive as diferenças dos regimes jurídicos no que tange às limitações aos direitos autorais, vale destacar iniciativas como a do Japão, que alterou a sua legislação para permitir que modelos de machine learning usem obras protegidas por direitos autorais, ainda que para fins comerciais.
Impedir a utilização de materiais disponíveis para treinamento dos modelos fundacionais poderia diminuir a penetração da IA generativa, neutralizando os seus benefícios para a eficiência do trabalho (reconhecida, inclusive, pela Organização Internacional do Trabalho – OIT). É premente a reflexão sobre os possíveis efeitos de uma limitação desta natureza, tanto para desenvolvedores quanto para usuários da tecnologia. Neste contexto, o enfrentamento dos temas relativos aos direitos autorais e IA estaria mais bem posicionado em uma discussão específica –como no exemplo japonês– ao invés de integrar uma regulação geral de IA. De qualquer forma, é importante que os debates sobre todos os aspectos da IA sejam ampliados, inclusive por meio de consulta pública, para que uma futura regulação realmente reflita a visão plural da sociedade.
Eduardo Paranhos é líder do GT Inteligência Artificial da ABES.
*Artigo originalmente publicado no Mobile Time em 11 de junho de 2024.