IA em RH: Regulação de Algoritmos de Recrutamento
Algoritmos de inteligência artificial já decidem quem avança em processos seletivos, e a ausência de regulação específica no Brasil coloca em risco direitos fundamentais de milhões de candidatos.
O Avanço da Inteligência Artificial nos Processos de Recrutamento
Nos últimos anos, presenciamos uma transformação profunda na forma como empresas conduzem seus processos seletivos. Ferramentas baseadas em inteligência artificial passaram a ser utilizadas em larga escala para triagem de currículos, análise de perfis comportamentais, avaliação de vídeo-entrevistas e até mesmo para a tomada de decisão final sobre contratações. Segundo estimativas de consultorias especializadas em recursos humanos, uma parcela significativa das grandes empresas brasileiras já utiliza algum tipo de automação algorítmica em pelo menos uma etapa do recrutamento.
Essa adoção acelerada traz benefícios inegáveis do ponto de vista operacional. Empresas conseguem processar milhares de candidaturas em questão de horas, reduzindo custos administrativos e acelerando o preenchimento de vagas. Os sistemas prometem, ainda, maior objetividade na seleção, eliminando supostamente vieses humanos que historicamente prejudicam determinados grupos de candidatos. No entanto, analisamos que a realidade se mostra bem mais complexa do que essa promessa inicial sugere.
O problema central reside no fato de que algoritmos de recrutamento não operam em um vácuo neutro. Eles são treinados com dados históricos que frequentemente reproduzem padrões discriminatórios preexistentes. Se uma empresa historicamente contratou majoritariamente homens para cargos de liderança, o algoritmo tende a aprender que o perfil masculino é “preferível” para aquelas posições. Dessa forma, a ferramenta que deveria eliminar o viés acaba por automatizá-lo e amplificá-lo em escala sem precedentes.
O Cenário Regulatório Internacional e as Lições para o Brasil
Verificamos que diversas jurisdições ao redor do mundo já começaram a enfrentar o desafio de regular o uso de inteligência artificial em processos de recrutamento. A União Europeia, por meio do AI Act (Regulamento de Inteligência Artificial), classificou os sistemas de IA utilizados em recrutamento e gestão de trabalhadores como de “alto risco”, sujeitando-os a requisitos rigorosos de transparência, documentação técnica, supervisão humana e avaliação de conformidade antes da colocação no mercado.
Nos Estados Unidos, a cidade de Nova York implementou a Local Law 144, que entrou em vigor em 2023 e exige que empregadores realizem auditorias anuais de viés em ferramentas automatizadas de decisão de emprego. A legislação obriga, ainda, que os candidatos sejam notificados sobre o uso dessas ferramentas e tenham a possibilidade de solicitar métodos alternativos de avaliação. Illinois, Maryland e outros estados também aprovaram legislações específicas sobre o uso de IA em entrevistas por vídeo e análise facial de candidatos.
No Brasil, o cenário regulatório ainda se encontra em fase de construção. O Marco Legal da Inteligência Artificial (PL 2338/2023, aprovado pelo Senado e em tramitação na Câmara dos Deputados) propõe uma abordagem baseada em riscos, semelhante ao modelo europeu, e classifica sistemas de IA usados em contextos laborais como de alto risco. A Lei Geral de Proteção de Dados (LGPD) já oferece alguma proteção, especialmente por meio do artigo 20, que garante ao titular o direito de solicitar revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais. Contudo, a aplicação prática desse dispositivo no contexto de recrutamento ainda é incipiente.
Observamos que a Consolidação das Leis do Trabalho (CLT) e a própria Constituição Federal já vedam qualquer forma de discriminação no acesso ao emprego, seja por motivo de sexo, origem, raça, cor, estado civil, situação familiar, deficiência, reabilitação profissional, idade ou qualquer outro fator. O desafio está em aplicar essas proteções consolidadas a um contexto tecnológico em que a discriminação ocorre de maneira opaca, embutida em modelos matemáticos que poucos conseguem auditar ou compreender.
Automatizar decisões de recrutamento sem transparência algorítmica equivale a transferir o poder de admissão e exclusão para sistemas que ninguém fiscaliza e poucos compreendem.
Riscos Jurídicos Concretos para Empresas e Candidatos
Analisamos que os riscos jurídicos decorrentes do uso de algoritmos discriminatórios em recrutamento se desdobram em múltiplas frentes. Para as empresas, a utilização de ferramentas que produzem impacto desproporcional sobre grupos protegidos pode configurar discriminação indireta, passível de responsabilização tanto na esfera trabalhista quanto na esfera cível. A empresa não pode se eximir de responsabilidade alegando desconhecimento sobre o funcionamento interno do algoritmo, pois responde objetivamente pelos resultados produzidos por suas ferramentas de seleção.
Discriminação Algorítmica e Seus Impactos
A discriminação algorítmica no recrutamento pode se manifestar de diversas formas. Sistemas de triagem de currículos podem penalizar candidatos que apresentem lacunas no histórico profissional (prejudicando desproporcionalmente mulheres que se afastaram para cuidar de filhos), que tenham frequentado determinadas instituições de ensino (reproduzindo estratificação socioeconômica) ou que residam em determinados bairros ou regiões (configurando discriminação geográfica com forte correlação racial). Ferramentas de análise de vídeo-entrevista podem avaliar negativamente expressões faciais, tons de voz ou padrões de fala que variam conforme a cultura, a neurodiversidade e outras características protegidas.
Para os candidatos, o principal obstáculo reside na dificuldade de comprovar a discriminação. Diferentemente de uma entrevista presencial onde comentários inadequados podem ser testemunhados e relatados, a decisão algorítmica ocorre de maneira silenciosa e automatizada. O candidato rejeitado frequentemente sequer sabe que foi avaliado por um sistema de IA, muito menos quais critérios levaram à sua eliminação. Essa assimetria informacional compromete gravemente o exercício do direito de defesa e o acesso à justiça.
A Responsabilidade dos Fornecedores de Tecnologia
Constatamos que a cadeia de responsabilidade se estende também aos desenvolvedores e fornecedores das soluções de IA. Empresas de tecnologia que comercializam ferramentas de recrutamento algorítmico podem ser responsabilizadas solidariamente quando seus produtos apresentam vieses discriminatórios documentados. A relação entre a empresa contratante e o fornecedor de tecnologia, nesses casos, não isenta nenhuma das partes da obrigação de garantir que o processo seletivo respeite os direitos fundamentais dos candidatos.
Caminhos para uma Regulação Eficiente e Equilibrada
Entendemos que a regulação dos algoritmos de recrutamento deve buscar um equilíbrio entre a promoção da inovação tecnológica e a proteção de direitos fundamentais dos trabalhadores e candidatos. Não se trata de proibir o uso de inteligência artificial em processos seletivos, mas de estabelecer parâmetros claros que garantam transparência, equidade e responsabilização.
O primeiro pilar de uma regulação eficiente é a obrigatoriedade de auditorias de viés. Assim como empresas realizam auditorias contábeis e de conformidade, os sistemas de IA utilizados em recrutamento devem ser submetidos a avaliações periódicas e independentes que verifiquem se produzem impacto desproporcional sobre grupos protegidos. Essas auditorias devem analisar tanto os dados de treinamento quanto os resultados efetivos do sistema, comparando taxas de aprovação entre diferentes grupos demográficos.
O segundo pilar é a transparência. Candidatos devem ser informados, de maneira clara e acessível, quando estiverem sendo avaliados por sistemas automatizados. Devem saber quais tipos de dados são coletados, quais critérios são utilizados na avaliação e ter acesso a explicações compreensíveis sobre os motivos de eventual rejeição. O direito à explicação, já previsto no artigo 20 da LGPD, precisa ser regulamentado de forma mais detalhada para o contexto específico do recrutamento.
O terceiro pilar é a garantia de supervisão humana significativa. A decisão final sobre a contratação ou rejeição de um candidato não deve ser delegada integralmente a um sistema automatizado. Deve haver intervenção humana qualificada, capaz de questionar e reverter decisões algorítmicas quando necessário. Essa supervisão não pode ser meramente formal (um “carimbo” humano em decisões já tomadas pela máquina), mas sim substantiva, com poder real de alteração do resultado.
Por fim, consideramos essencial a criação de mecanismos acessíveis de contestação. Candidatos que se sintam prejudicados por decisões algorítmicas devem ter canais claros para apresentar reclamações e solicitar reavaliação humana de seus perfis. A inversão do ônus da prova em casos de suspeita de discriminação algorítmica, já admitida em alguns contextos pela jurisprudência trabalhista brasileira para casos de discriminação, pode ser um instrumento valioso para equilibrar a assimetria informacional inerente a esses sistemas.
Perspectivas para o Direito do Trabalho na Era Algorítmica
Reconhecemos que a regulação de algoritmos de recrutamento é apenas uma faceta de um desafio muito mais amplo que o Direito do Trabalho enfrenta na era digital. A inteligência artificial já é utilizada não apenas na admissão, mas também na gestão de desempenho, na definição de remuneração variável, na alocação de tarefas e até mesmo na decisão sobre demissões. Cada uma dessas aplicações levanta questões jurídicas específicas que demandam atenção regulatória.
O Ministério Público do Trabalho tem demonstrado crescente interesse no tema, e verificamos que inquéritos civis já foram instaurados para investigar práticas de empresas que utilizam algoritmos em decisões trabalhistas. A Justiça do Trabalho, por sua vez, começa a se deparar com demandas envolvendo discriminação algorítmica, exigindo dos magistrados uma compreensão técnica mínima sobre o funcionamento desses sistemas.
A formação de profissionais do Direito capacitados para lidar com essas questões é uma necessidade urgente. Advogados trabalhistas precisam compreender, ao menos em nível conceitual, como funcionam os algoritmos de aprendizado de máquina, quais são suas limitações e como identificar indícios de viés discriminatório em seus resultados. Da mesma forma, desenvolvedores e engenheiros de IA precisam incorporar princípios de equidade e não discriminação desde a fase de concepção dos sistemas (o chamado “fairness by design”).
Avaliamos que o futuro da regulação nessa área será necessariamente multidisciplinar, envolvendo não apenas juristas, mas também cientistas da computação, estatísticos, sociólogos e representantes dos trabalhadores. Somente um diálogo amplo e informado será capaz de produzir marcos regulatórios que protejam efetivamente os direitos fundamentais sem sufocar a inovação tecnológica que, quando bem direcionada, pode contribuir para processos seletivos mais justos e inclusivos.
Perguntas Frequentes
Empresas são obrigadas a informar candidatos sobre o uso de IA no processo seletivo?
A LGPD já estabelece princípios de transparência no tratamento de dados pessoais, e o artigo 20 garante o direito de solicitar revisão de decisões automatizadas. Embora ainda não exista uma lei específica que obrigue a notificação prévia sobre o uso de IA em recrutamento no Brasil, o Marco Legal da IA em tramitação prevê obrigações de transparência para sistemas classificados como de alto risco, incluindo aqueles utilizados em contextos laborais.
O que um candidato pode fazer se suspeitar de discriminação algorítmica em um processo seletivo?
O candidato pode exercer o direito previsto no artigo 20 da LGPD, solicitando ao controlador dos dados a revisão da decisão automatizada e informações sobre os critérios utilizados. Caso identifique indícios de discriminação, pode registrar denúncia junto ao Ministério Público do Trabalho ou à Autoridade Nacional de Proteção de Dados, além de buscar orientação jurídica especializada para avaliar a viabilidade de uma ação judicial.
Quais são os principais riscos legais para empresas que usam IA no recrutamento sem auditoria de viés?
As empresas podem ser responsabilizadas por discriminação indireta na esfera trabalhista, com possibilidade de condenação em danos morais individuais e coletivos. Além disso, podem sofrer sanções administrativas por violação à LGPD (incluindo multas de até 2% do faturamento), ações civis públicas promovidas pelo Ministério Público do Trabalho e danos reputacionais significativos perante o mercado e a sociedade.
As informações deste artigo são de caráter informativo e não substituem consulta jurídica individualizada.
Receba novidades no WhatsApp e/ou e-mail
Cadastre-se gratuitamente para receber nossos novos artigos.
Seus dados estão protegidos conforme a LGPD.
Ficou com dúvidas? Fale com um advogado especialista.
📱 Falar pelo WhatsAppAs informações deste artigo são de caráter informativo e não substituem consulta jurídica individualizada.





