Direito à Explicação Algorítmica: Fundamentação Jurídica
“`html
O Problema da Caixa-Preta Algorítmica
Vivemos em um momento em que sistemas automatizados de tomada de decisão permeiam praticamente todas as esferas da vida social e econômica. Um algoritmo analisa seu histórico de crédito e decide se você receberá um empréstimo. Outro avalia seu currículo antes mesmo que um recrutador humano o leia. Sistemas de pontuação determinam se você terá acesso a um plano de saúde com determinada cobertura, ou se pagará mais por um seguro de automóvel.
O problema fundamental desses sistemas é o que especialistas em tecnologia e direito chamam de opacidade algorítmica, popularmente conhecida como o fenômeno da “caixa-preta”. O processo interno pelo qual o sistema chega a uma conclusão permanece completamente invisível para o cidadão afetado. Ele recebe apenas o resultado, sem qualquer informação sobre os critérios utilizados, os dados considerados ou a lógica seguida.
Essa opacidade não é apenas um inconveniente técnico. Ela representa uma ruptura com princípios fundamentais do Estado de Direito, como o contraditório, a ampla defesa e a motivação dos atos que produzem efeitos jurídicos sobre terceiros. Quando um banco nega um financiamento com base em um modelo estatístico e simplesmente informa ao cliente que “o perfil não atende aos critérios internos”, estamos diante de um ato com sérias implicações jurídicas e uma fundamentação totalmente inacessível ao afetado.
É nesse contexto que surge o chamado direito à explicação algorítmica: a prerrogativa do indivíduo de compreender, de forma inteligível, como uma decisão automatizada foi tomada e quais fatores determinaram o resultado que lhe foi aplicado.
Fundamentos Jurídicos no Ordenamento Brasileiro
No Brasil, o direito à explicação algorítmica encontra ancoragem em ao menos três grandes eixos normativos: a Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/2018), o Código de Defesa do Consumidor (Lei nº 8.078/1990) e os princípios constitucionais que regem os direitos fundamentais e a atividade administrativa.
A LGPD é o ponto de partida mais direto. O artigo 20 da lei estabelece expressamente que o titular dos dados tem direito a solicitar revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses. Esse dispositivo vai além do simples direito de revisão: ele impõe ao controlador a obrigação de fornecer, quando solicitado, informações claras e adequadas sobre os critérios e procedimentos utilizados para a decisão automatizada.
O parágrafo segundo do mesmo artigo dispõe que o controlador deverá, sempre que possível, fornecer informações sobre os critérios e os procedimentos utilizados para a decisão automatizada, observados os segredos comercial e industrial. Esse ponto é central: a LGPD reconhece a tensão entre o direito à explicação e a proteção da propriedade intelectual corporativa, mas não permite que o sigilo comercial se torne um escudo absoluto contra a prestação de contas ao cidadão.
Já o Código de Defesa do Consumidor, muito anterior à era da inteligência artificial, contém princípios que se aplicam plenamente a esse contexto. O direito à informação adequada e clara sobre produtos e serviços, previsto no artigo 6º, inciso III, abrange os serviços digitais que utilizam algoritmos para tomar decisões que afetam o consumidor. A prática de negar crédito ou serviço com base em critérios opacos pode configurar prática abusiva nos termos do artigo 39 do CDC, especialmente quando há disparidade de informações entre a empresa e o consumidor.
No plano constitucional, o princípio da dignidade da pessoa humana (artigo 1º, inciso III, da Constituição Federal) fundamenta a ideia de que nenhum indivíduo pode ser reduzido a um conjunto de variáveis estatísticas sem ter o direito de questionar e compreender esse processo. A decisão automatizada que afeta direitos subjetivos sem qualquer possibilidade de explicação ou contestação viola a autonomia informacional do cidadão, que é um dos desdobramentos contemporâneos da dignidade humana.
O Direito à Explicação na Atividade Administrativa
Quando falamos de decisões automatizadas no setor público, a exigência de fundamentação ganha contornos ainda mais rígidos. A Lei nº 14.129/2021, conhecida como Lei do Governo Digital, estabelece princípios para o uso de tecnologias digitais pela administração pública e, embora não trate especificamente de explicabilidade algorítmica de forma detalhada, reforça as exigências de transparência, participação social e proteção de dados no contexto dos serviços públicos digitais.
O princípio da motivação dos atos administrativos, consagrado no artigo 50 da Lei nº 9.784/1999 (Lei do Processo Administrativo Federal), impõe que os atos que neguem, limitem ou afetem direitos ou interesses sejam devidamente motivados. Quando essa decisão é delegada a um sistema automatizado, a motivação não pode simplesmente desaparecer: ela precisa ser traduzida em linguagem compreensível e acessível ao cidadão.
O Superior Tribunal de Justiça já enfrentou questões relacionadas ao uso de sistemas de pontuação em relações de consumo, reconhecendo que a utilização de scores e modelos preditivos sem transparência pode configurar dano moral indenizável quando causa restrição injustificada de direitos. A evolução dessa jurisprudência no contexto da inteligência artificial ainda está em construção, mas os fundamentos estão postos.
No âmbito das contratações públicas, o uso crescente de sistemas automatizados para triagem de fornecedores, análise de propostas ou gestão de contratos coloca questões urgentes sobre como garantir que os princípios da isonomia, publicidade e motivação sejam preservados quando a decisão é gerada por um modelo computacional. O direito à explicação, nesse contexto, é também um instrumento de controle da legalidade dos atos administrativos.
Limites, Tensões e o Caminho para Regulação Efetiva
O exercício prático do direito à explicação algorítmica enfrenta obstáculos significativos. O primeiro deles é técnico: muitos modelos de aprendizado de máquina, especialmente as redes neurais profundas, operam de forma genuinamente difícil de explicar mesmo para seus criadores. A chamada “explicabilidade” nesses casos exige o desenvolvimento de técnicas específicas, como os métodos LIME e SHAP, que aproximam o comportamento do modelo de forma interpretável, sem revelar com exatidão o que ocorre internamente.
O segundo obstáculo é o já mencionado sigilo comercial. Empresas argumentam, com alguma razão jurídica, que a divulgação detalhada de seus modelos pode permitir que concorrentes reproduzam sua propriedade intelectual ou que usuários manipulem o sistema de forma fraudulenta. A LGPD reconhece esse argumento ao mencionar o “segredo comercial e industrial”, mas a autoridade reguladora competente, a Autoridade Nacional de Proteção de Dados (ANPD), tem o papel de estabelecer até onde esse argumento pode ir.
O terceiro obstáculo é institucional: a ANPD ainda está em processo de consolidação como órgão regulador efetivo, e a regulamentação específica do artigo 20 da LGPD sobre decisões automatizadas ainda carece de detalhamento normativo que defina, de forma operacional, como as empresas devem cumprir essa obrigação.
No cenário internacional, o Regulamento Geral de Proteção de Dados da União Europeia (GDPR) foi pioneiro ao consagrar o direito de não ser submetido a decisões exclusivamente automatizadas com efeitos jurídicos significativos (artigo 22). O AI Act europeu, aprovado em 2024, avança na classificação de sistemas de IA por risco e impõe obrigações adicionais de transparência e auditabilidade para sistemas de alto risco. Essa experiência regulatória oferece referências valiosas para o debate brasileiro, embora precise ser adaptada às especificidades do nosso ordenamento.
No Brasil, tramitam no Congresso Nacional projetos de lei sobre regulação da inteligência artificial que tratam, em maior ou menor grau, da questão da explicabilidade e da responsabilidade civil por danos causados por sistemas automatizados. A construção de um marco regulatório robusto que equilibre inovação tecnológica, proteção de direitos e segurança jurídica é um dos desafios legislativos mais importantes da presente década.
Do ponto de vista prático, o que observamos é que o direito à explicação algorítmica já existe no ordenamento jurídico brasileiro, fundado na LGPD e nos princípios constitucionais. O que falta é maior clareza sobre como esse direito se exerce concretamente: quais informações devem ser fornecidas, em qual formato, em qual prazo e quais são as consequências do descumprimento. Enquanto essa regulamentação não vem, cabe ao titular dos dados invocar os instrumentos já disponíveis, como o direito de petição à ANPD, as ações civis por danos morais e materiais, e os mecanismos de defesa do consumidor.
O que é o direito à explicação algorítmica e onde ele está previsto na lei brasileira?
O direito à explicação algorítmica é a prerrogativa do cidadão de obter informações claras e compreensíveis sobre como uma decisão automatizada foi tomada e quais critérios influenciaram o resultado que lhe foi aplicado. No Brasil, esse direito está ancorado principalmente no artigo 20 da Lei Geral de Proteção de Dados Pessoais (LGPD, Lei nº 13.709/2018), que assegura ao titular dos dados o direito de solicitar revisão de decisões automatizadas e de receber informações sobre os critérios e procedimentos utilizados. O direito também se fundamenta nos princípios constitucionais da dignidade da pessoa humana, do contraditório e da ampla defesa, bem como nas disposições do Código de Defesa do Consumidor sobre informação adequada e práticas abusivas.
Uma empresa pode se recusar a explicar sua decisão algorítmica alegando segredo comercial?
A LGPD reconhece a existência do segredo comercial e industrial como um limite ao dever de explicação, mas não permite que ele funcione como uma barreira absoluta. A empresa deve fornecer, “sempre que possível”, informações sobre os critérios e procedimentos utilizados. Isso significa que o sigilo comercial pode justificar a não divulgação do código-fonte ou dos pesos específicos do modelo, mas não pode ser usado para simplesmente negar qualquer explicação ao cidadão afetado. A Autoridade Nacional de Proteção de Dados (ANPD) tem competência para fiscalizar o cumprimento dessa obrigação e pode determinar medidas corretivas quando verificar que o argumento do sigilo está sendo invocado de forma abusiva para encobrir descumprimento da lei.
Como um cidadão pode exercer na prática o direito à explicação algorítmica?
O cidadão pode exercer esse direito de várias formas. A primeira é diretamente junto ao controlador dos dados, por meio de uma requisição formal invocando o artigo 20 da LGPD, solicitando informações sobre a decisão automatizada que lhe afetou. O controlador tem prazo para responder a requisições de titulares previsto na regulamentação da ANPD. Caso o controlador não responda de forma adequada, o titular pode apresentar petição de reclamação à ANPD. Em situações de dano concreto causado pela decisão automatizada, é possível buscar reparação na esfera judicial, com base na LGPD, no CDC ou no Código Civil. Para relações de consumo, o PROCON também pode ser acionado. Recomendamos documentar cuidadosamente a decisão recebida, as tentativas de obter explicação e os danos sofridos antes de buscar qualquer medida formal.
O direito à explicação se aplica apenas ao setor privado ou também à administração pública?
O direito à explicação se aplica a ambos os setores, mas com fundamentos e intensidades diferentes. No setor privado, a base principal é a LGPD e o CDC. No setor público, além da LGPD, entram em cena o princípio da motivação dos atos administrativos (Lei nº 9.784/1999), o princípio da publicidade consagrado no artigo 37 da Constituição Federal e a Lei do Governo Digital (Lei nº 14.129/2021). Para a administração pública, as exigências são em geral mais rígidas, pois o ato administrativo que afeta direitos do cidadão precisa ser motivado independentemente da forma como foi gerado. A delegação da decisão a um sistema automatizado não elimina o dever de fundamentação do ato.
“`
Receba novidades no WhatsApp e/ou e-mail
Cadastre-se gratuitamente para receber nossos novos artigos.
Seus dados estão protegidos conforme a LGPD.
Ficou com dúvidas? Fale com um advogado especialista.
📱 Falar pelo WhatsAppAs informações deste artigo são de caráter informativo e não substituem consulta jurídica individualizada.