O Futuro da Regulação de IA no Brasil: Tendências e Perspectivas

A regulação da inteligência artificial no Brasil caminha para um marco decisivo, com propostas legislativas que prometem transformar a forma como empresas e cidadãos interagem com sistemas automatizados de decisão.

O Cenário Atual da Regulação de IA no Brasil

Nos últimos anos, acompanhamos uma aceleração sem precedentes no uso de inteligência artificial em praticamente todos os setores da economia brasileira. Da análise de crédito bancário à triagem de currículos em processos seletivos, passando por diagnósticos médicos assistidos e sistemas de vigilância pública, a presença de algoritmos decisórios tornou-se ubíqua. Diante dessa realidade, o debate sobre a necessidade de um marco regulatório específico ganhou urgência no Congresso Nacional, resultando em múltiplas propostas legislativas que disputam a definição do modelo regulatório que o país adotará.

Observamos que o Brasil não parte do zero nessa discussão. A Lei Geral de Proteção de Dados (LGPD) já estabelece, em seu artigo 20, o direito do titular de solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais. Esse dispositivo, embora limitado em escopo, representou um primeiro passo na direção de garantir transparência algorítmica. No entanto, a LGPD não foi concebida para lidar com as complexidades específicas da inteligência artificial, como a opacidade de modelos de aprendizado profundo, os vieses sistêmicos em bases de treinamento e os riscos associados a sistemas autônomos de alta consequência.

O Projeto de Lei 2338/2023, que tramitou no Senado e segue em discussão na Câmara, consolidou-se como a principal proposta para criação de um marco legal abrangente. Esse projeto adota uma abordagem baseada em risco, classificando sistemas de IA em categorias conforme seu potencial de causar danos, e estabelece obrigações diferenciadas para desenvolvedores e operadores de acordo com essa classificação. Verificamos que essa estratégia segue a tendência internacional inaugurada pelo AI Act da União Europeia, adaptando-a às particularidades do ordenamento jurídico brasileiro.

Tendências Regulatórias: O Modelo Baseado em Risco

A adoção de uma abordagem regulatória baseada em risco constitui, sem dúvida, a tendência mais consolidada nas discussões legislativas brasileiras. Nesse modelo, a intensidade das obrigações regulatórias varia proporcionalmente ao nível de risco que o sistema de IA apresenta para direitos fundamentais, segurança pública e bem-estar social. Sistemas considerados de risco inaceitável (como aqueles que manipulam comportamento humano de forma subliminar ou que implementam pontuação social generalizada) seriam simplesmente proibidos. Já sistemas de alto risco, como os utilizados em decisões judiciais, concessão de benefícios previdenciários, seleção de pessoal e diagnósticos médicos, estariam sujeitos a exigências rigorosas de transparência, auditoria e governança.

Analisamos que essa categorização por risco traz implicações práticas significativas para diferentes setores. No âmbito previdenciário, por exemplo, sistemas de IA utilizados pelo INSS para análise automatizada de requerimentos de benefícios ou para detecção de fraudes enquadram-se naturalmente na categoria de alto risco, uma vez que suas decisões afetam diretamente direitos fundamentais como a subsistência e a dignidade de segurados e beneficiários. Isso significa que tais sistemas precisarão atender a requisitos específicos de explicabilidade (a capacidade de informar ao cidadão, em linguagem acessível, os fatores que influenciaram uma decisão algorítmica) e de supervisão humana efetiva.

No setor financeiro, a regulação setorial já avançou de forma autônoma. O Banco Central e a Comissão de Valores Mobiliários têm editado normativos que tratam do uso responsável de IA em análise de crédito, detecção de lavagem de dinheiro e negociação algorítmica. Identificamos uma tendência de que o marco regulatório geral funcione como uma “lei-quadro”, estabelecendo princípios e diretrizes gerais, enquanto reguladores setoriais (como o Banco Central para o setor financeiro, a ANVISA para saúde e a ANPD para proteção de dados) detalhem as exigências específicas para cada domínio de aplicação.

Outro aspecto relevante é a exigência de avaliação de impacto algorítmico. Assim como a LGPD prevê o Relatório de Impacto à Proteção de Dados Pessoais, as propostas regulatórias para IA contemplam a obrigatoriedade de que desenvolvedores e operadores de sistemas de alto risco realizem avaliações prévias que identifiquem e mitiguem riscos de discriminação, violação de privacidade e danos a grupos vulneráveis. Essa ferramenta, quando bem implementada, pode funcionar como um mecanismo preventivo eficaz.

A regulação de inteligência artificial no Brasil precisa equilibrar a proteção de direitos fundamentais com a necessidade de não sufocar a inovação tecnológica, especialmente em um país que busca se posicionar como protagonista na economia digital global.

Desafios da Implementação: Governança, Fiscalização e Capacitação

Reconhecemos que a aprovação de uma lei é apenas o primeiro passo de um processo regulatório complexo. A efetividade de qualquer marco legal para IA depende fundamentalmente da capacidade institucional de fiscalização e da existência de uma autoridade reguladora com competência técnica, independência funcional e recursos adequados. Nesse ponto, o debate brasileiro enfrenta um desafio significativo: a definição de qual órgão ou entidade exercerá a função de autoridade competente para supervisionar o cumprimento da lei.

As propostas variam entre a criação de uma autoridade específica para IA, a atribuição dessa competência à Autoridade Nacional de Proteção de Dados (ANPD) ou ainda a adoção de um modelo descentralizado com múltiplos reguladores setoriais coordenados por uma instância central. Cada alternativa apresenta vantagens e limitações. A ANPD, por exemplo, já acumula experiência relevante em temas como decisões automatizadas e proteção de dados, mas sua estrutura e seu orçamento atuais são insuficientes para absorver a magnitude das novas atribuições que a regulação de IA demandaria. Por outro lado, a criação de uma autoridade inteiramente nova implica custos fiscais e um período de maturação institucional que pode retardar a efetividade da regulação.

A questão da capacitação técnica merece atenção especial. Para que auditores e fiscais consigam avaliar a conformidade de sistemas de IA com as exigências legais, é necessário investir massivamente em formação interdisciplinar que combine conhecimentos jurídicos, estatísticos e computacionais. Verificamos que esse desafio não é exclusivo do Brasil: mesmo jurisdições mais avançadas, como a União Europeia, enfrentam dificuldades para constituir quadros técnicos capazes de auditar sistemas complexos de aprendizado de máquina.

Outro desafio prático diz respeito à regulação de sistemas de IA desenvolvidos no exterior, mas amplamente utilizados no Brasil. Grandes modelos de linguagem, sistemas de reconhecimento facial e plataformas de recomendação algorítmica são, em sua maioria, criados por empresas sediadas nos Estados Unidos ou na China. A aplicação extraterritorial da legislação brasileira, embora prevista em tese (a exemplo do que ocorre com a LGPD), enfrenta obstáculos concretos de enforcement quando o desenvolvedor do sistema não possui estabelecimento ou representante no país.

Perspectivas para Setores Específicos

Analisamos que a regulação de IA terá impactos diferenciados conforme o setor de aplicação. No campo da saúde, a tendência é que a ANVISA assuma papel central na certificação de sistemas de IA utilizados como dispositivos médicos ou auxiliares de diagnóstico. Já existem discussões sobre a criação de categorias regulatórias específicas para softwares baseados em IA, com requisitos de validação clínica e monitoramento pós-mercado adaptados à natureza dinâmica desses sistemas (que, diferentemente de dispositivos médicos tradicionais, podem ter seu comportamento alterado por atualizações de modelo).

No setor público, a regulação de IA tem implicações diretas para a efetivação de direitos. Sistemas de IA utilizados em processos administrativos (como a análise de requerimentos de benefícios previdenciários, a priorização de fiscalizações tributárias ou a alocação de vagas em creches públicas) precisam atender a princípios constitucionais como a motivação dos atos administrativos, o contraditório e a ampla defesa. Constatamos que a mera indicação de que “o algoritmo decidiu” não satisfaz o dever de motivação, sendo necessário que o cidadão tenha acesso a uma explicação compreensível dos fatores que determinaram a decisão que o afeta.

No âmbito trabalhista, a utilização de IA em processos de recrutamento, monitoramento de produtividade e gestão algorítmica de trabalhadores de plataformas digitais suscita questões complexas sobre discriminação, privacidade e subordinação. A tendência regulatória aponta para a exigência de transparência nos critérios utilizados por algoritmos de seleção e avaliação, bem como para a garantia de que decisões automatizadas com impacto significativo na relação de trabalho estejam sujeitas a revisão humana qualificada.

Para o setor jurídico propriamente dito, observamos o crescimento acelerado de ferramentas de IA aplicadas à pesquisa jurisprudencial, análise de contratos, predição de resultados judiciais e automação de peças processuais. A regulação dessas ferramentas deverá considerar questões como a responsabilidade profissional do advogado que utiliza IA em sua prática, a confiabilidade das bases de dados utilizadas para treinamento dos modelos e o risco de perpetuação de vieses presentes em decisões judiciais históricas.

O Papel do Brasil no Cenário Internacional

Verificamos que o Brasil ocupa uma posição estratégica no debate global sobre regulação de IA. Como maior economia da América Latina e membro do G20, as decisões regulatórias brasileiras tendem a influenciar a abordagem de outros países da região. O país já demonstrou capacidade de produzir legislação inovadora em temas tecnológicos (como o Marco Civil da Internet e a LGPD), e há expectativa de que o marco regulatório de IA mantenha esse padrão de protagonismo.

A participação brasileira em fóruns internacionais, como a Parceria Global sobre Inteligência Artificial (GPAI) e os grupos de trabalho da OCDE sobre IA, tem contribuído para a troca de experiências e para a busca de interoperabilidade regulatória. Consideramos que a harmonização internacional é particularmente relevante em um campo onde a tecnologia não conhece fronteiras e onde a fragmentação regulatória pode criar tanto barreiras ao comércio quanto lacunas de proteção.

A tendência que identificamos para os próximos anos é a de uma convergência gradual entre os diferentes modelos regulatórios nacionais, com a consolidação de princípios comuns (como transparência, responsabilidade, não discriminação e supervisão humana) e a preservação de margens de adaptação às realidades socioeconômicas e culturais de cada país. Para o Brasil, o desafio será construir um arcabouço regulatório que proteja efetivamente direitos fundamentais, promova a confiança da sociedade nos sistemas de IA e, simultaneamente, preserve as condições para que o ecossistema nacional de inovação possa competir globalmente.

Perguntas Frequentes

Quando a regulação de IA deve ser aprovada no Brasil?

Embora não exista uma data definitiva, o Projeto de Lei 2338/2023 segue em tramitação na Câmara dos Deputados e representa a proposta mais avançada. A expectativa é de que o Brasil conte com um marco regulatório aprovado nos próximos anos, considerando o ritmo das discussões legislativas e a pressão crescente da sociedade civil e do setor produtivo por segurança jurídica nessa área.

A regulação de IA pode afetar a análise de benefícios previdenciários pelo INSS?

Sim, de forma significativa. Sistemas de IA utilizados pelo INSS para análise automatizada de requerimentos serão provavelmente classificados como de alto risco, o que exigirá transparência sobre os critérios algorítmicos, possibilidade de revisão humana e garantia de que o segurado compreenda os fatores que influenciaram a decisão sobre seu benefício. Isso representa um avanço na proteção dos direitos dos segurados frente a decisões automatizadas.

Qual é a diferença entre a abordagem brasileira e a europeia para regular IA?

Ambas adotam o modelo baseado em risco como eixo central, mas existem diferenças relevantes. O AI Act europeu é mais detalhado e prescritivo, com listas extensas de sistemas proibidos e de alto risco. A proposta brasileira tende a ser mais principiológica, delegando maior espaço para reguladores setoriais detalharem as exigências específicas para cada área de aplicação, o que pode conferir maior flexibilidade adaptativa ao modelo brasileiro.

As informações deste artigo são de caráter informativo e não substituem consulta jurídica individualizada.

Ficou com dúvidas? Fale com um advogado especialista.

📱 Falar pelo WhatsApp

As informações deste artigo são de caráter informativo e não substituem consulta jurídica individualizada.

Posts Similares