Há momentos na história em que as decisões de um país definem não apenas sua economia, mas o seu lugar no futuro. A regulamentação da Inteligência Artificial é um desses momentos, e talvez o último lugar onde o Brasil deveria tentar “inovar”.
No filme Apollo 13, a frase “failure is not an option” virou símbolo da superação diante do risco. No nosso caso, errar na rota regulatória pode significar ficar fora do próximo ciclo tecnológico.
O Projeto de Lei 2338/2023, que pretende criar o marco regulatório da IA no Brasil, parte de boas intenções. Mas o texto atual ameaça transformar prudência em paralisia, e o que deveria proteger o futuro pode acabar inviabilizando a inovação.
O primeiro ponto preocupante é a exigência de rastrear todo conteúdo protegido por direitos autorais usado no treinamento de modelos de IA.
Obrigar que o desenvolvedor publique, em site de fácil acesso, um sumário com todos os conteúdos protegidos utilizados nos processos de desenvolvimento é, na prática, o mesmo que dizer: não faça nada no Brasil.
Modelos modernos são treinados com trilhões de dados. Nenhum país líder em tecnologia, como Estados Unidos, Japão ou Singapura, impõe obrigação semelhante, porque ela é tecnicamente inviável.
Insistir nisso é condenar o Brasil à dependência tecnológica: deixamos de produzir conhecimento e passamos a consumir o que os outros criam.
O segundo ponto é a inversão do ônus da prova.
À primeira vista, parece razoável que o juiz tenha o poder de inverter o ônus da prova quando a vítima for hipossuficiente ou quando as características do sistema de IA tornarem excessivamente difícil provar os requisitos da responsabilidade civil. Na prática, o desenvolvedor ou fornecedor passaria a ter de provar que não fez nada errado.
Em um sistema judicial já sobrecarregado, essa mudança abriria caminho para uma enxurrada de ações indenizatórias e aumento dos custos de seguro e conformidade para operar no Brasil.
O resultado seria desincentivar justamente quem investe, pesquisa e cria, o oposto do que o país precisa.
O terceiro ponto é a regulação genérica e horizontal, repleta de definições subjetivas de risco e obrigações, o que eleva o potencial de judicialização.
O texto determina que caberá às autoridades setoriais definir, futuramente, quando as obrigações poderão ser flexibilizadas ou dispensadas.
Na prática, impõe-se uma lista extensa de exigências desde o início, que encarecem o desenvolvimento e travam projetos, para depois, em algum momento, as agências digam o que nunca deveria ter sido obrigatório.
Não seria mais lógico que essas mesmas agências definissem, desde o começo, o que realmente faz sentido regular e o que pode ser flexibilizado?
Enquanto isso, o mundo segue outro caminho.
- Os Estados Unidos adotam o princípio do fair use, permitindo o treinamento de modelos sem travar a inovação.
- O Reino Unido aplica o modelo pro-innovation, com testes regulatórios e regras flexíveis por setor.
Japão e Singapura criaram exceções legais para mineração de dados, equilibrando proteção e competitividade. - A China, por sua vez, saiu na frente ao anunciar que concentrará seus investimentos em ciência e tecnologia — transformando a inovação em política de Estado.
- E até a União Europeia, antes vista como o modelo mais rígido do mundo, já começa a revisar seu AI Act para não se isolar na corrida global.
Vivemos hoje uma disputa silenciosa entre nações que competem não apenas por tecnologia, mas por atrair investimentos e talentos que moldarão a próxima era digital.
É uma corrida por criar regulações mais inteligentes, proporcionais e amigáveis à inovação.
E o Brasil?
Pois é… o Brasil segue na contramão — tentando erguer o marco mais restritivo do planeta, justo quando o mundo inteiro corre para abrir espaço à inovação.

Por Rodolfo Fücher, Rodolfo Fücher, vice-presidente do Conselho da Associação Brasileira das Empresas de Software (ABES)
*Artigo originalmente publicado no TI Expertise em 9 de dezembro de 2025


