Direito de Explicação em Decisões Automatizadas
Decisões automatizadas já definem se você recebe crédito, passa em processos seletivos ou tem benefícios negados, e a lei garante que você entenda o porquê.
O que é o direito de explicação em decisões automatizadas
Vivemos em uma era na qual algoritmos e sistemas de inteligência artificial tomam decisões que afetam diretamente a vida das pessoas. Desde a análise de crédito bancário até a triagem de currículos em processos seletivos, passando pela concessão ou negativa de benefícios previdenciários, as decisões automatizadas estão cada vez mais presentes no cotidiano. Diante desse cenário, surge uma questão fundamental: o cidadão tem o direito de saber como e por que uma máquina decidiu algo sobre sua vida?
A resposta é afirmativa. O ordenamento jurídico brasileiro reconhece o chamado direito de explicação, que consiste na prerrogativa de qualquer pessoa solicitar informações claras e adequadas sobre os critérios e procedimentos utilizados em decisões tomadas exclusivamente com base em tratamento automatizado de dados pessoais. Esse direito está expressamente previsto na Lei Geral de Proteção de Dados (LGPD), em seu artigo 20, que assegura ao titular dos dados o poder de solicitar a revisão de decisões automatizadas que afetem seus interesses.
Quando analisamos o direito de explicação sob a ótica da due diligence de dados, percebemos que ele funciona como uma ferramenta essencial de governança. Empresas e órgãos públicos que utilizam sistemas automatizados de decisão precisam estar preparados para fornecer explicações transparentes, sob pena de responderem administrativa e judicialmente. A due diligence, nesse contexto, exige que as organizações mapeiem seus processos decisórios automatizados, identifiquem os riscos envolvidos e estabeleçam mecanismos eficazes de prestação de contas.
Fundamentos legais no Brasil e referências internacionais
O principal marco normativo brasileiro sobre o tema é a LGPD (Lei nº 13.709/2018), especialmente os artigos 20 e 21. O artigo 20 estabelece que o titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade. Já o artigo 21 determina que os dados pessoais referentes ao exercício regular de direitos pelo titular não podem ser utilizados em seu prejuízo.
Verificamos que a Constituição Federal também oferece fundamentos relevantes. O princípio do devido processo legal (artigo 5º, inciso LIV) e o direito à ampla defesa e ao contraditório (artigo 5º, inciso LV) são perfeitamente aplicáveis ao contexto das decisões automatizadas. Afinal, como exercer o contraditório contra uma decisão cujos critérios são desconhecidos? A transparência algorítmica é, portanto, uma exigência constitucional.
No cenário internacional, o Regulamento Geral de Proteção de Dados da União Europeia (GDPR) foi pioneiro ao estabelecer, em seus artigos 13, 14, 15 e 22, o direito dos titulares de dados a obter informações significativas sobre a lógica envolvida em decisões automatizadas, bem como o direito de não se sujeitar a decisões baseadas exclusivamente em tratamento automatizado. Esse modelo europeu serviu de inspiração direta para a legislação brasileira e continua sendo referência para a interpretação e aplicação do direito de explicação no Brasil.
A Autoridade Nacional de Proteção de Dados (ANPD) tem papel central na regulamentação e fiscalização do direito de explicação. Compete à ANPD editar normas complementares sobre os padrões técnicos para o cumprimento dessa obrigação, definindo o nível de detalhe e a forma como as explicações devem ser fornecidas. Acompanhamos com atenção as manifestações da ANPD sobre o tema, pois elas orientam tanto os titulares quanto os controladores de dados sobre seus direitos e obrigações.
Due diligence de dados e a transparência algorítmica
A due diligence de dados aplicada às decisões automatizadas compreende um conjunto de práticas voltadas a identificar, avaliar e mitigar riscos associados ao uso de algoritmos e sistemas de inteligência artificial. Quando conduzimos uma análise de due diligence nesse campo, examinamos diversos aspectos críticos: a qualidade e a origem dos dados utilizados no treinamento dos modelos, a existência de vieses discriminatórios nos algoritmos, a adequação dos mecanismos de explicação disponíveis e a conformidade do sistema com a legislação vigente.
Um dos desafios mais relevantes que identificamos na prática é o chamado problema da “caixa preta”. Muitos sistemas de inteligência artificial, especialmente aqueles baseados em redes neurais profundas, operam de forma tão complexa que mesmo seus desenvolvedores têm dificuldade em explicar como uma determinada decisão foi alcançada. Isso cria um conflito direto com o direito de explicação, pois a lei exige transparência onde a tecnologia frequentemente oferece opacidade.
Para enfrentar esse desafio, as organizações devem adotar uma abordagem proativa de governança algorítmica. Isso inclui a realização de auditorias periódicas nos sistemas automatizados, a documentação detalhada dos processos decisórios (incluindo os dados de entrada, os critérios de ponderação e os resultados possíveis), a implementação de mecanismos de explicabilidade (como relatórios de impacto algorítmico) e o treinamento das equipes responsáveis pelo atendimento às solicitações dos titulares de dados.
A due diligence também deve contemplar a análise dos riscos de discriminação algorítmica. Sistemas automatizados podem perpetuar ou amplificar preconceitos existentes nos dados históricos utilizados em seu treinamento. Por exemplo, um algoritmo de análise de crédito treinado com dados que refletem desigualdades socioeconômicas pode sistematicamente negar crédito a determinados grupos populacionais, sem que haja justificativa legítima para essa diferenciação. O direito de explicação, nesse contexto, funciona como uma ferramenta de detecção e combate à discriminação algorítmica.
A transparência algorítmica não é apenas uma exigência legal, é uma condição essencial para que o cidadão possa exercer seus direitos fundamentais diante de decisões que afetam sua vida sem qualquer intervenção humana.
Aplicações práticas e setores mais impactados
Observamos que o direito de explicação em decisões automatizadas tem relevância especial em determinados setores da economia e da administração pública. No setor financeiro, por exemplo, instituições bancárias utilizam amplamente sistemas automatizados para análise de crédito, detecção de fraudes e precificação de produtos. Quando um consumidor tem seu pedido de crédito negado por um algoritmo, ele tem o direito de saber quais critérios foram utilizados nessa avaliação e como seus dados pessoais influenciaram o resultado.
No âmbito previdenciário, a questão ganha contornos ainda mais sensíveis. Sistemas automatizados são utilizados pelo INSS para análise de requerimentos de benefícios, cruzamento de dados cadastrais e até mesmo para a identificação de indícios de irregularidades. Quando um segurado tem seu benefício negado ou cessado com base em análise automatizada, o direito de explicação se torna essencial para que ele possa compreender a decisão e exercer seu direito de recurso de forma efetiva.
Na área trabalhista, algoritmos de triagem de currículos e sistemas de avaliação de desempenho automatizados levantam preocupações significativas. Candidatos preteridos em processos seletivos conduzidos por inteligência artificial podem questionar os critérios utilizados, especialmente quando há suspeita de viés discriminatório relacionado a gênero, raça, idade ou outras características protegidas pela legislação.
O setor de saúde também merece atenção especial. Sistemas de apoio à decisão clínica, algoritmos de triagem de pacientes e ferramentas de diagnóstico assistido por inteligência artificial estão cada vez mais presentes na prática médica. A explicabilidade dessas decisões é fundamental não apenas do ponto de vista jurídico, mas também ético, pois afeta diretamente a saúde e a vida das pessoas.
Na administração pública em geral, o uso de decisões automatizadas para alocação de recursos, fiscalização tributária, controle de políticas públicas e outras finalidades exige um nível de transparência compatível com os princípios constitucionais da publicidade, da motivação e da eficiência. O cidadão tem o direito de compreender como as decisões que o afetam são tomadas, independentemente de serem realizadas por agentes humanos ou por sistemas automatizados.
Como exercer o direito de explicação na prática
Entendemos que é fundamental orientar os titulares de dados sobre como exercer efetivamente o direito de explicação. O primeiro passo é identificar a organização responsável pela decisão automatizada (o controlador de dados, na terminologia da LGPD) e encaminhar uma solicitação formal, preferencialmente por escrito, requerendo informações sobre os critérios e procedimentos utilizados na decisão.
A solicitação deve ser clara e específica, indicando qual decisão se questiona, quando ela foi tomada e quais dados pessoais do titular estavam envolvidos. O controlador de dados tem a obrigação de responder de forma clara, adequada e em prazo razoável. Caso a resposta seja insatisfatória ou não seja fornecida, o titular pode recorrer à ANPD, aos órgãos de defesa do consumidor ou ao Poder Judiciário.
Recomendamos que as organizações que utilizam sistemas automatizados de decisão estabeleçam canais específicos para o recebimento e o tratamento dessas solicitações. A designação de um encarregado de proteção de dados (DPO) capacitado para lidar com questões de explicabilidade algorítmica é uma medida importante. Além disso, a elaboração de relatórios de impacto à proteção de dados pessoais (RIPD) que contemplem especificamente os riscos associados às decisões automatizadas é uma prática recomendada pela LGPD.
Quando a explicação fornecida revela que a decisão automatizada foi baseada em critérios discriminatórios, dados incorretos ou procedimentos inadequados, o titular tem direito não apenas à revisão da decisão, mas também à correção dos dados utilizados e, conforme o caso, à reparação por eventuais danos sofridos. Essa possibilidade de responsabilização reforça a importância de as organizações investirem em governança algorítmica e due diligence de dados como medidas preventivas.
Destacamos ainda que o direito de explicação não se confunde com o direito de acesso ao código-fonte do algoritmo ou aos segredos comerciais da organização. A LGPD estabelece, em seu artigo 20, §1º, que a autoridade competente poderá realizar auditoria para verificação de aspectos discriminatórios em tratamento automatizado de dados pessoais, resguardado o segredo comercial e industrial. Existe, portanto, um equilíbrio a ser buscado entre a transparência devida ao titular e a proteção legítima da propriedade intelectual do controlador.
Perguntas Frequentes
O que fazer quando uma empresa nega explicações sobre uma decisão automatizada?
Caso a empresa se recuse a fornecer explicações ou apresente uma resposta insatisfatória, o titular dos dados pode registrar uma reclamação junto à Autoridade Nacional de Proteção de Dados (ANPD), buscar orientação nos órgãos de defesa do consumidor (como o Procon) ou ingressar com ação judicial para garantir o exercício do seu direito. É importante documentar todas as tentativas de contato e as respostas recebidas, pois esses registros serão fundamentais em qualquer procedimento administrativo ou judicial.
O direito de explicação se aplica a decisões do INSS tomadas por sistemas automatizados?
Sim, o direito de explicação previsto na LGPD se aplica tanto ao setor privado quanto ao setor público, incluindo o INSS. Quando um benefício previdenciário é negado ou cessado com base em análise automatizada de dados, o segurado tem o direito de solicitar informações claras sobre os critérios utilizados na decisão. Essa transparência é essencial para que o segurado possa avaliar se a decisão foi correta e, caso discorde, exercer seu direito de recurso administrativo ou judicial de forma fundamentada.
Empresas são obrigadas a revelar o código-fonte dos seus algoritmos?
Não necessariamente. O direito de explicação não equivale ao direito de acesso ao código-fonte ou aos segredos comerciais da empresa. A obrigação é fornecer informações claras e adequadas sobre os critérios e a lógica geral utilizada na decisão automatizada, de forma que o titular consiga compreender como seus dados influenciaram o resultado. Caso haja suspeita de discriminação algorítmica, a ANPD pode realizar auditorias nos sistemas, resguardando o sigilo comercial e industrial da organização.
As informações deste artigo são de caráter informativo e não substituem consulta jurídica individualizada.
Receba novidades no WhatsApp e/ou e-mail
Cadastre-se gratuitamente para receber nossos novos artigos.
Seus dados estão protegidos conforme a LGPD.
Ficou com dúvidas? Fale com um advogado especialista.
📱 Falar pelo WhatsAppAs informações deste artigo são de caráter informativo e não substituem consulta jurídica individualizada.






