Marco Legal da Inteligência Artificial no Brasil: PL 2338/2023

O Brasil avança para regulamentar a inteligência artificial com o PL 2338/2023, um marco legislativo que definirá direitos, responsabilidades e limites para o uso de sistemas automatizados em setores que afetam diretamente a vida dos cidadãos.

O que é o PL 2338/2023 e por que ele importa

O Projeto de Lei 2338/2023, aprovado pelo Senado Federal em dezembro de 2024 e encaminhado à Câmara dos Deputados, representa a principal iniciativa legislativa brasileira para disciplinar o desenvolvimento, a implantação e o uso de sistemas de inteligência artificial no país. Trata-se de uma proposta abrangente, inspirada em modelos regulatórios internacionais, que busca equilibrar a inovação tecnológica com a proteção de direitos fundamentais.

Analisamos o texto do projeto e verificamos que ele parte de uma lógica baseada em riscos: quanto maior o potencial de dano que um sistema de inteligência artificial pode causar, mais rigorosas são as exigências para sua utilização. Essa abordagem diferencia usos de baixo impacto daqueles que interferem em decisões críticas sobre saúde, emprego, crédito, segurança pública e outros domínios sensíveis.

Para o cidadão comum, a relevância prática é imediata. Algoritmos já determinam se uma pessoa recebe crédito bancário, se é chamada para uma entrevista de emprego, se recebe determinado benefício social ou até qual tratamento médico é recomendado. Sem um marco regulatório claro, essas decisões ocorrem em um vácuo normativo que fragiliza os direitos individuais.

A regulamentação da inteligência artificial não é apenas uma questão tecnológica: é, antes de tudo, uma escolha sobre quais valores uma sociedade deseja proteger quando máquinas passam a decidir sobre a vida das pessoas.

Estrutura do projeto: categorias de risco e obrigações correspondentes

O PL 2338/2023 organiza os sistemas de inteligência artificial em três categorias principais, conforme o nível de risco que apresentam. Compreender essa classificação é fundamental para entender como o projeto funcionará na prática.

Sistemas de risco excessivo

Na categoria mais restritiva, encontram-se usos considerados inaceitáveis ou de risco excessivo. O projeto proíbe, por exemplo, a utilização de sistemas de pontuação social generalizada que avaliem comportamentos de cidadãos para fins de acesso a serviços públicos ou privados. Da mesma forma, veda o uso de técnicas de manipulação subliminar que exploram vulnerabilidades psicológicas sem que a pessoa perceba a influência sofrida.

Verificamos que o texto também restringe fortemente o reconhecimento facial em espaços públicos para fins de vigilância em tempo real, salvo em hipóteses específicas e com autorização judicial. Essa previsão tem grande impacto sobre políticas de segurança pública que já utilizam essa tecnologia em algumas cidades brasileiras.

Sistemas de alto risco

A segunda categoria abrange sistemas que podem causar danos significativos, mas cujo uso não é proibido, desde que acompanhado de salvaguardas adequadas. Nessa faixa estão incluídos sistemas utilizados em infraestruturas críticas (energia, transporte, água), em processos seletivos de emprego, na concessão de crédito, na educação, na administração da justiça e no acesso a benefícios sociais.

Para esses sistemas, o projeto exige medidas como avaliação de impacto antes da implantação, adoção de mecanismos de supervisão humana, documentação técnica transparente e canais para que os afetados possam questionar as decisões. A lógica é que, quando um algoritmo decide algo relevante na vida de uma pessoa, ela precisa ter ao menos a possibilidade de entender como essa decisão foi tomada e de contestá-la.

Sistemas de risco limitado ou mínimo

A maior parte dos sistemas de inteligência artificial utilizados cotidianamente, como assistentes virtuais, filtros de spam, recomendações de conteúdo e sistemas de tradução automática, situa-se nas categorias de risco limitado ou mínimo. Para esses usos, as obrigações são menores, concentrando-se principalmente em transparência: o usuário precisa saber quando está interagindo com uma máquina, não com um ser humano.

Direitos dos cidadãos previstos no projeto

Um dos aspectos mais relevantes do PL 2338/2023, sob a perspectiva do cidadão, é o conjunto de direitos que ele pretende assegurar. Analisamos as disposições e identificamos os principais pontos.

Direito à explicação

Quando um sistema automatizado tomar uma decisão que afete direitos ou interesses de uma pessoa, seja a negativa de um empréstimo, a reprovação em um processo seletivo ou a negativa de um benefício, o projeto garante o direito de exigir uma explicação compreensível sobre os critérios utilizados. Isso representa um avanço concreto em relação ao cenário atual, no qual algoritmos funcionam frequentemente como caixas-pretas.

Direito à revisão humana

Para decisões de alto risco, o projeto assegura o direito de solicitar que um ser humano revise a conclusão produzida pelo sistema automatizado. Esse mecanismo funciona como uma válvula de segurança, impedindo que erros algorítmicos ou vieses computacionais causem danos irreparáveis sem possibilidade de correção.

Proteção contra discriminação algorítmica

O projeto veda expressamente o uso de sistemas de inteligência artificial que produzam discriminação com base em raça, cor, origem étnica, gênero, religião, orientação sexual, deficiência ou outros critérios protegidos pela Constituição Federal. Verificamos que essa previsão é especialmente relevante porque vieses discriminatórios podem ser reproduzidos e amplificados por algoritmos treinados com dados históricos que refletem desigualdades estruturais da sociedade.

Garantir que algoritmos não reproduzam discriminações históricas é uma das tarefas mais complexas e urgentes da regulação de inteligência artificial no contexto brasileiro.

Governança e fiscalização: quem será o responsável

A efetividade de qualquer marco regulatório depende da existência de uma autoridade capaz de fiscalizar seu cumprimento. O PL 2338/2023 propõe a criação de um sistema de governança que envolve diferentes órgãos, sem criar uma agência reguladora específica para inteligência artificial.

A proposta atribui papel central à Autoridade Nacional de Proteção de Dados (ANPD), já existente, bem como a outros órgãos setoriais que regulam áreas específicas, como saúde, finanças e telecomunicações. A ideia é que cada setor mantenha sua supervisão especializada, com coordenação entre as autoridades para evitar lacunas e conflitos normativos.

Além disso, o projeto prevê a criação de um Conselho Nacional de Inteligência Artificial, com participação de representantes do governo, da sociedade civil, da academia e do setor privado. Esse conselho teria funções consultivas e de monitoramento, contribuindo para que a regulação evolua junto com a tecnologia, que avança em ritmo acelerado.

No campo das responsabilidades, o texto estabelece que os desenvolvedores e os operadores de sistemas de inteligência artificial respondem pelos danos causados, ainda que não haja culpa comprovada nos casos de alto risco. Trata-se de uma forma de responsabilidade objetiva que distribui os riscos de forma mais equânime, colocando o ônus da prevenção sobre quem lucra com a tecnologia.

Impactos setoriais esperados

A aprovação definitiva do projeto e sua regulamentação posterior terão efeitos práticos distintos conforme o setor de atividade. Identificamos os contextos em que as mudanças serão mais sentidas.

No setor financeiro, bancos e fintechs que utilizam algoritmos para concessão de crédito precisarão garantir transparência nos critérios de decisão e disponibilizar mecanismos de contestação para os consumidores. A relação com a regulação do Banco Central e do Conselho Monetário Nacional precisará ser harmonizada.

Na área da saúde, sistemas de apoio ao diagnóstico e de triagem de pacientes serão classificados como de alto risco, exigindo validação clínica, supervisão médica e documentação rigorosa. O impacto será significativo para hospitais e operadoras de planos de saúde que já adotam essas ferramentas.

No campo do trabalho, plataformas que usam algoritmos para seleção, avaliação e demissão de trabalhadores estarão sujeitas a obrigações de transparência e revisão humana, o que poderá alterar práticas disseminadas na economia de plataforma.

Na administração pública, o projeto tem especial relevância porque órgãos governamentais utilizam sistemas automatizados em áreas sensíveis como previdência social, assistência social e segurança pública. Analisamos que as obrigações de transparência e avaliação de impacto se aplicam também ao Estado, o que representa um avanço em termos de controle democrático sobre o uso de tecnologia pelo poder público.

Perguntas Frequentes

O PL 2338/2023 já está em vigor no Brasil?

Não. O projeto foi aprovado pelo Senado Federal em dezembro de 2024 e seguiu para a Câmara dos Deputados, onde precisa ser votado antes de ser sancionado pelo Presidente da República e entrar em vigor. O processo legislativo ainda está em curso, portanto as regras previstas no texto ainda não são obrigatórias. Acompanhar a tramitação é importante porque a Câmara pode propor alterações ao texto aprovado pelo Senado.

Como um cidadão pode contestar uma decisão tomada por inteligência artificial que o prejudicou?

Quando o PL 2338/2023 estiver em vigor, o cidadão afetado por uma decisão automatizada de alto risco, como a negativa de crédito ou de um benefício social, poderá solicitar ao responsável pelo sistema uma explicação sobre os critérios utilizados e pedir revisão por um ser humano. Se esses direitos não forem respeitados, caberá reclamação perante a autoridade competente. Antes da vigência do projeto, já é possível invocar o Código de Defesa do Consumidor e a Lei Geral de Proteção de Dados Pessoais (LGPD) em situações específicas.

Quais setores serão mais afetados pela regulação de inteligência artificial?

Os setores com maior impacto serão aqueles que já utilizam ou pretendem utilizar sistemas automatizados em decisões que afetam diretamente os cidadãos: instituições financeiras (concessão de crédito e seguros), planos e serviços de saúde (triagem e diagnóstico), plataformas de trabalho (seleção e gestão de trabalhadores), empresas de segurança (reconhecimento facial e monitoramento) e órgãos da administração pública (benefícios sociais, previdência e segurança pública). Esses setores precisarão adaptar seus processos às novas exigências de transparência, documentação e supervisão humana.

O reconhecimento facial em espaços públicos será proibido pelo projeto?

O PL 2338/2023 não proíbe de forma absoluta o reconhecimento facial em espaços públicos, mas impõe restrições severas ao seu uso para vigilância em tempo real. A utilização para fins de segurança pública em tempo real somente seria permitida em hipóteses específicas previstas em lei, com autorização judicial prévia e mediante supervisão adequada. O uso indiscriminado e sem salvaguardas, como já ocorre em alguns sistemas municipais, seria incompatível com as exigências do projeto.

As informações deste artigo são de caráter informativo e não substituem consulta jurídica individualizada.

Ficou com dúvidas? Fale com um advogado especialista.

📱 Falar pelo WhatsApp

As informações deste artigo são de caráter informativo e não substituem consulta jurídica individualizada.

Posts Similares