Viés Algorítmico e Discriminação: Aspectos Jurídicos
“`html
Sistemas de inteligência artificial tomam decisões que afetam empregos, crédito, saúde e liberdade. Quando esses sistemas reproduzem ou amplificam preconceitos históricos, surge o chamado viés algorítmico, um dos problemas jurídicos mais urgentes da era digital. Neste artigo, examinamos os fundamentos técnicos do fenômeno, sua interface com o direito antidiscriminatório brasileiro e os caminhos que a regulação nacional e internacional vem trilhando para enfrentar esse desafio.
O Que é Viés Algorítmico e Por Que Ele Importa Juridicamente
Algoritmos de aprendizado de máquina aprendem padrões a partir de dados históricos. O problema central é que esses dados históricos frequentemente registram desigualdades sociais consolidadas: discriminações no mercado de trabalho, disparidades no acesso ao crédito, sub-representação de grupos vulneráveis em posições de prestígio. Quando um sistema de IA é treinado com esses dados, ele não apenas aprende os padrões legítimos, mas também absorve os preconceitos embutidos nas escolhas humanas passadas.
O resultado é o que pesquisadores denominam viés algorítmico: a tendência sistemática de um sistema automatizado de produzir resultados que favorecem ou prejudicam determinados grupos de forma desproporcional. A discriminação deixa de ser um ato intencional praticado por uma pessoa identificável e passa a ser um efeito difuso, produzido por linhas de código e conjuntos de dados, tornando-se muito mais difícil de detectar, contestar e responsabilizar.
Do ponto de vista jurídico, o problema se agrava porque o direito antidiscriminatório tradicional foi construído em torno da ideia de intenção discriminatória ou, ao menos, de um agente humano identificável. Quando um algoritmo nega crédito a uma pessoa com base em variáveis que funcionam como proxies para raça ou gênero, sem que nenhum gestor humano tenha conscientemente escolhido discriminar, surgem lacunas sérias nas categorias jurídicas existentes.
Casos documentados internacionalmente ilustram a gravidade do fenômeno. Ferramentas de recrutamento automatizadas que penalizavam currículos contendo a palavra “feminino”, sistemas de avaliação de risco criminal utilizados no sistema de justiça norte-americano que atribuíam pontuações mais altas a réus negros, algoritmos de reconhecimento facial com taxas de erro drasticamente superiores para mulheres negras: esses exemplos não são ficção científica, mas episódios concretos que motivaram litígios, investigações regulatórias e reformas legislativas.
A discriminação algorítmica é especialmente insidiosa porque se apresenta com a aparência de objetividade científica, ocultando sob camadas de matemática as mesmas desigualdades que o direito busca combater.
O Marco Jurídico Brasileiro Aplicável
O Brasil possui um conjunto normativo robusto que, ainda que não tenha sido elaborado especificamente para a realidade algorítmica, oferece bases sólidas para o enfrentamento do problema.
A Constituição Federal de 1988 estabelece como objetivos fundamentais da República a promoção do bem de todos, sem preconceitos de origem, raça, sexo, cor, idade e quaisquer outras formas de discriminação. O princípio da igualdade, inscrito no artigo 5º, projeta efeitos tanto nas relações com o Estado quanto, de forma mediada, nas relações entre particulares, fenômeno que a doutrina denomina eficácia horizontal dos direitos fundamentais.
A Lei nº 7.716/1989 tipifica crimes resultantes de discriminação ou preconceito de raça, cor, etnia, religião ou procedência nacional. A Lei nº 9.029/1995 veda práticas discriminatórias nas relações de trabalho. O Estatuto da Igualdade Racial (Lei nº 12.288/2010) proíbe a discriminação étnico-racial em qualquer atividade. Essas normas, em princípio, alcançam decisões automatizadas que produzam discriminação, ainda que o legislador não as tivesse em mente ao redigi-las.
A Lei Geral de Proteção de Dados Pessoais (LGPD, Lei nº 13.709/2018) trouxe avanços específicos para o contexto algorítmico. O artigo 20 assegura ao titular de dados pessoais o direito de solicitar revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluindo decisões que definam seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade. Esse dispositivo é a porta de entrada mais direta do ordenamento brasileiro para o combate ao viés algorítmico.
Importante observar que o artigo 20 da LGPD garante o direito à revisão, mas não necessariamente à explicação detalhada do funcionamento do algoritmo. A questão de até onde vai o direito à explicabilidade no direito brasileiro permanece em aberto e é objeto de intenso debate doutrinário. A Autoridade Nacional de Proteção de Dados (ANPD) tem competência regulatória para disciplinar o tema e já demonstrou interesse em avançar nessa agenda.
O Código de Defesa do Consumidor (Lei nº 8.078/1990) também se aplica quando o viés algorítmico se manifesta em relações de consumo: recusa de crédito, precificação dinâmica discriminatória, personalização de ofertas que exclua sistematicamente grupos vulneráveis. O princípio da boa-fé objetiva e a vedação a práticas abusivas são ferramentas relevantes nesse contexto.
No campo trabalhista, o uso de algoritmos para seleção, avaliação de desempenho e desligamento de trabalhadores levanta questões sérias sobre discriminação indireta. Quando um sistema de pontuação de produtividade sistematicamente atribui notas menores a trabalhadoras em período de licença-maternidade ou a trabalhadores mais velhos, está-se diante de discriminação indireta vedada pela legislação, mesmo que o algoritmo não mencione explicitamente essas características protegidas.
Discriminação Direta, Indireta e Estrutural nos Algoritmos
A doutrina antidiscriminatória distingue três modalidades que se manifestam de forma particular nos sistemas algorítmicos.
A discriminação direta ocorre quando o algoritmo utiliza explicitamente uma característica protegida como variável de decisão: raça, gênero, religião, origem, entre outras. Essa modalidade é a mais facilmente identificável e, em tese, a mais simples de corrigir tecnicamente, bastando remover a variável protegida do modelo.
A discriminação indireta, porém, é muito mais prevalente e difícil de combater. Ela ocorre quando o algoritmo não utiliza a característica protegida diretamente, mas emprega variáveis que funcionam como seus proxies, ou seja, que se correlacionam fortemente com ela. O CEP de residência correlaciona-se com raça em cidades com histórico de segregação habitacional. O tipo de escola frequentada correlaciona-se com renda e, indiretamente, com classe social. O histórico de crédito correlaciona-se com desigualdades históricas de gênero. Remover a variável protegida não basta se o modelo ainda aprende o mesmo padrão discriminatório por meio de seus substitutos.
A discriminação estrutural, por sua vez, aponta para algo ainda mais profundo: algoritmos treinados em dados históricos podem perpetuar e até amplificar estruturas de desigualdade social consolidadas ao longo de décadas ou séculos. Um algoritmo de concessão de crédito que aprende a partir de dados de um sistema financeiro que historicamente excluiu mulheres negras aprenderá, por construção, a excluí-las, mesmo sem qualquer intenção discriminatória de seus criadores.
Essa terceira modalidade desafia profundamente as categorias jurídicas tradicionais, pois não há agente com intenção discriminatória, não há vítima individual facilmente identificável, e o dano é difuso, estatístico e sistêmico. O direito precisará desenvolver instrumentos coletivos e estruturais de resposta, e não apenas remédios individuais.
Corrigir o viés algorítmico não é apenas uma questão técnica de ajustar parâmetros matemáticos: é uma escolha política sobre quais valores a sociedade quer que seus sistemas automatizados reflitam.
Regulação Internacional e o Caminho Brasileiro
O cenário regulatório internacional oferece referências importantes para o Brasil. A União Europeia aprovou o Regulamento de Inteligência Artificial (AI Act), que entrou em vigor em 2024 e estabelece um sistema de classificação de risco para sistemas de IA. Sistemas utilizados em decisões sobre emprego, crédito, acesso a serviços essenciais e administração da justiça são classificados como de alto risco e sujeitos a obrigações rigorosas de transparência, documentação, avaliação de conformidade e supervisão humana. A proibição de viés discriminatório é um requisito explícito para esses sistemas.
Nos Estados Unidos, agências regulatórias como a Equal Employment Opportunity Commission (EEOC) e o Consumer Financial Protection Bureau (CFPB) já emitiram orientações sobre a aplicação das leis antidiscriminatórias existentes a sistemas automatizados. A teoria do disparate impact, consagrada na legislação de direitos civis norte-americana, tem sido invocada para responsabilizar empresas por resultados discriminatórios de seus algoritmos, independentemente de intenção.
No Brasil, o principal instrumento regulatório em elaboração é o Projeto de Lei nº 2.338/2023, denominado Marco Legal da Inteligência Artificial, que tramita no Senado Federal. O projeto adota uma abordagem baseada em risco semelhante à europeia e prevê obrigações específicas para sistemas de IA de alto risco, entre elas a de não discriminação e a obrigação de transparência sobre o funcionamento dos sistemas. O projeto também trata da responsabilidade civil por danos causados por sistemas de IA e estabelece a possibilidade de revisão humana de decisões automatizadas significativas.
A ANPD, como já mencionado, tem papel central nesse ecossistema regulatório. Sua competência sobre decisões automatizadas com base em dados pessoais coloca-a na linha de frente do enfrentamento do viés algorítmico, e a articulação entre a ANPD e eventuais autoridades regulatórias de IA será fundamental para a coerência do sistema.
No plano judicial, começa a surgir no Brasil jurisprudência relevante sobre o tema. Ações civis públicas questionando o uso de sistemas de reconhecimento facial em segurança pública, decisões sobre o direito à portabilidade e explicabilidade de scores de crédito, e litígios trabalhistas envolvendo gerenciamento algorítmico são fronteiras em expansão que os tribunais brasileiros precisarão enfrentar com crescente frequência nos próximos anos.
O que posso fazer se acreditar que fui vítima de discriminação por um algoritmo?
Com base na LGPD, você pode solicitar ao controlador dos dados (empresa, banco, plataforma) revisão de decisão tomada unicamente com base em tratamento automatizado, conforme prevê o artigo 20. Você tem direito a receber informações claras sobre os critérios e procedimentos utilizados. Se a empresa não atender ao pedido ou a resposta for insatisfatória, você pode registrar reclamação na ANPD. Em casos de discriminação em relações de consumo, também é possível acionar os órgãos de defesa do consumidor (Procon). Em contextos trabalhistas, a Justiça do Trabalho é o caminho para buscar reparação. Em todos os casos, a documentação das interações com o sistema e dos danos sofridos é fundamental para sustentar a reclamação.
Empresas podem ser responsabilizadas civilmente por viés algorítmico no Brasil?
Sim. A responsabilidade civil por danos causados por sistemas algorítmicos discriminatórios pode ser fundamentada em diferentes bases: a LGPD prevê responsabilização do controlador e do operador por danos decorrentes do tratamento de dados pessoais; o Código de Defesa do Consumidor estabelece responsabilidade objetiva do fornecedor por danos causados ao consumidor; e as leis antidiscriminatórias preveem responsabilidade em suas respectivas esferas. O desafio prático é a prova do nexo causal entre o funcionamento do algoritmo e o dano sofrido, especialmente em sistemas de aprendizado de máquina complexos, onde a relação entre input e output pode ser opaca. A tendência regulatória é no sentido de inverter o ônus da prova ou exigir das empresas documentação que facilite a demonstração dessa relação.
O que é auditoria algorítmica e ela é obrigatória no Brasil?
Auditoria algorítmica é o processo de avaliação independente de um sistema de IA para verificar se ele produz resultados discriminatórios, se opera conforme declarado, e se respeita direitos fundamentais. Atualmente, a LGPD não impõe explicitamente a obrigação de auditoria algorítmica, mas o direito à revisão do artigo 20 implica que as empresas devem ter condições de explicar suas decisões automatizadas. O Marco Legal da IA em tramitação prevê avaliações de impacto e documentação técnica para sistemas de alto risco, o que se aproxima de exigências de auditoria. Na União Europeia, o AI Act já torna obrigatória a avaliação de conformidade prévia para sistemas de alto risco. A tendência é que a auditoria algorítmica se torne progressivamente uma obrigação legal para sistemas com impacto significativo sobre direitos das pessoas.
Sistemas de reconhecimento facial podem ser usados pelo poder público sem restrições?
Não. O uso de reconhecimento facial pelo poder público envolve tratamento de dados biométricos, que são dados pessoais sensíveis nos termos da LGPD. Além disso, sistemas de reconhecimento facial têm apresentado taxas de erro sistematicamente mais altas para pessoas negras e mulheres, conforme demonstrado por pesquisas acadêmicas. A utilização desses sistemas em contextos de segurança pública, onde erros podem resultar em prisões indevidas, levanta graves questões constitucionais relacionadas à presunção de inocência, ao devido processo legal e à proibição de discriminação. Diversas cidades no mundo já proibiram o uso de reconhecimento facial por agências governamentais, e no Brasil há projetos de lei e ações judiciais questionando essas práticas. O tema ainda não tem resposta legislativa ou jurisprudencial consolidada no país, mas caminha para uma regulação mais restritiva.
Este artigo tem caráter exclusivamente informativo e educativo, não constituindo aconselhamento jurídico. Cada situação concreta apresenta particularidades que exigem análise individualizada por profissional habilitado. As informações aqui apresentadas refletem o estado do ordenamento jurídico e do debate doutrinário até a data de publicação, podendo ser alteradas por novas legislações, regulamentos ou decisões judiciais.
“`
Receba novidades no WhatsApp e/ou e-mail
Cadastre-se gratuitamente para receber nossos novos artigos.
Seus dados estão protegidos conforme a LGPD.
Ficou com dúvidas? Fale com um advogado especialista.
📱 Falar pelo WhatsAppAs informações deste artigo são de caráter informativo e não substituem consulta jurídica individualizada.