home office, person, work, web design, business, workplace, monitor, computer, k

Regulação de Sistemas de Scoring Social

Sistemas de scoring social já avaliam milhões de brasileiros em decisões de crédito, emprego e serviços públicos, mas a regulação dessa prática ainda engatinha no país.

O que são sistemas de scoring social e por que precisam de regulação

Quando falamos em sistemas de scoring social, nos referimos a mecanismos automatizados que atribuem pontuações a indivíduos com base em seus comportamentos, históricos e características pessoais. Essas pontuações são utilizadas para tomar decisões que afetam diretamente a vida das pessoas, desde a concessão de crédito até a priorização em filas de atendimento público. Diferentemente do scoring de crédito tradicional, que analisa predominantemente o histórico financeiro, os sistemas de scoring social podem incorporar dados de navegação na internet, interações em redes sociais, padrões de consumo, localização geográfica e até vínculos pessoais.

No Brasil, observamos uma expansão acelerada dessas tecnologias tanto no setor privado quanto na administração pública. Empresas de tecnologia financeira utilizam algoritmos de scoring que vão muito além da análise creditícia convencional, incorporando variáveis comportamentais que muitas vezes o próprio titular dos dados desconhece. No setor público, verificamos iniciativas que empregam pontuações automatizadas para triagem de beneficiários de programas sociais, priorização de fiscalizações e até alocação de recursos em políticas de segurança. Essa disseminação levanta questões profundas sobre discriminação algorítmica, transparência e devido processo legal.

A necessidade de regulação específica decorre do potencial desses sistemas para perpetuar e amplificar desigualdades estruturais. Algoritmos treinados com dados históricos tendem a reproduzir vieses presentes na sociedade, penalizando desproporcionalmente populações vulneráveis. Uma pessoa que mora em determinado bairro periférico, por exemplo, pode receber automaticamente uma pontuação inferior, não por qualquer comportamento individual, mas pela correlação estatística entre sua localização e indicadores socioeconômicos. Essa dinâmica transforma preconceitos sociais em decisões aparentemente objetivas e técnicas.

O panorama regulatório brasileiro e internacional

A Lei Geral de Proteção de Dados (LGPD, Lei nº 13.709/2018) representa o principal marco normativo brasileiro aplicável aos sistemas de scoring social. O artigo 20 da LGPD garante ao titular dos dados o direito de solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais, incluindo aquelas destinadas a definir perfis pessoais, profissionais, de consumo e de crédito. Esse dispositivo estabelece uma salvaguarda essencial, embora sua aplicação prática ainda enfrente desafios consideráveis, especialmente no que diz respeito à efetividade da revisão e à transparência dos critérios utilizados.

Além da LGPD, a Lei do Cadastro Positivo (Lei nº 12.414/2011, alterada pela Lei Complementar nº 166/2019) regulamenta especificamente o scoring de crédito, estabelecendo regras sobre a formação de bancos de dados, os direitos dos cadastrados e as responsabilidades dos gestores. Contudo, essa legislação foi concebida para o modelo tradicional de análise creditícia e não abrange adequadamente as novas modalidades de scoring que incorporam variáveis comportamentais e dados não financeiros. Identificamos, portanto, uma lacuna regulatória significativa entre o que a legislação vigente prevê e a realidade tecnológica atual.

No cenário internacional, encontramos abordagens diversas que podem inspirar o legislador brasileiro. A União Europeia, por meio do AI Act (Regulamento de Inteligência Artificial), classificou os sistemas de scoring social operados por autoridades públicas como de risco inaceitável, proibindo-os expressamente. A legislação europeia também impõe obrigações rigorosas de transparência e avaliação de impacto para sistemas de IA utilizados em decisões que afetam direitos fundamentais. Nos Estados Unidos, a regulação permanece fragmentada, com iniciativas estaduais e setoriais, como a Lei de Relatórios de Crédito Justos (Fair Credit Reporting Act), que oferece proteções limitadas diante da sofisticação dos novos sistemas.

O Marco Legal da Inteligência Artificial no Brasil (PL 2338/2023) representa uma tentativa de preencher essas lacunas. O projeto de lei prevê a classificação de sistemas de IA por níveis de risco, com obrigações proporcionais de transparência, auditabilidade e prestação de contas. Sistemas de scoring social utilizados para decisões em áreas como crédito, emprego, educação e serviços públicos tendem a ser classificados como de alto risco, sujeitando-se a requisitos mais rigorosos. Acompanhamos com atenção a tramitação desse projeto, que pode representar um avanço significativo na proteção dos direitos dos cidadãos frente à automação decisória.

A ausência de regulação específica para scoring social não significa ausência de direitos: a LGPD, o Código de Defesa do Consumidor e a própria Constituição Federal já oferecem fundamentos para questionar decisões algorítmicas discriminatórias.

Riscos concretos e impactos nos direitos fundamentais

Os sistemas de scoring social apresentam riscos tangíveis que afetam diretamente direitos constitucionalmente protegidos. O primeiro e mais evidente é o risco de discriminação algorítmica. Quando algoritmos utilizam variáveis correlacionadas com raça, gênero, classe social ou localização geográfica, produzem resultados que, embora formalmente neutros, geram impacto desproporcional sobre grupos historicamente marginalizados. Analisamos casos em que sistemas de scoring atribuem pontuações inferiores a moradores de determinadas regiões, trabalhadores informais ou pessoas com padrões de consumo associados a faixas de renda mais baixas, criando barreiras adicionais de acesso a crédito, emprego e serviços.

O segundo risco relevante envolve a opacidade dos critérios decisórios. A maioria dos sistemas de scoring social opera como “caixas-pretas”, nas quais os critérios de pontuação são protegidos como segredo comercial ou simplesmente são complexos demais para serem explicados de forma compreensível ao titular dos dados. Essa opacidade compromete o exercício do direito de defesa e do contraditório, pois como contestar uma decisão cujos fundamentos são inacessíveis? A jurisprudência brasileira vem gradualmente reconhecendo que a transparência algorítmica é condição para o exercício efetivo de direitos, embora os contornos dessa exigência ainda estejam em construção.

Verificamos também o risco de efeitos cascata. Uma pontuação baixa em determinado sistema pode alimentar outros sistemas, criando um ciclo de exclusão progressiva. Uma pessoa que recebe score desfavorável em uma plataforma de crédito pode, em consequência, ter dificuldade para alugar um imóvel, o que por sua vez pode afetar sua pontuação em outros contextos. Esse fenômeno de retroalimentação negativa é particularmente grave porque opera de forma invisível para o indivíduo afetado, que muitas vezes desconhece a origem das restrições que enfrenta.

Do ponto de vista dos direitos fundamentais, os sistemas de scoring social intersectam garantias previstas nos artigos 1º e 5º da Constituição Federal, incluindo a dignidade da pessoa humana, a igualdade, a privacidade, a liberdade e o devido processo legal. Quando um algoritmo determina, sem intervenção humana significativa, que uma pessoa não merece crédito, não deve ser contratada ou não tem prioridade em um serviço público, estamos diante de uma restrição de direitos que demanda justificação adequada e possibilidade real de contestação.

Caminhos para uma regulação efetiva no Brasil

A construção de um marco regulatório adequado para sistemas de scoring social no Brasil exige a articulação de diferentes instrumentos normativos e institucionais. Em primeiro lugar, consideramos essencial a aprovação de uma legislação específica sobre inteligência artificial que contemple obrigações claras de transparência algorítmica. Isso significa não apenas o direito de saber que uma decisão foi tomada por um sistema automatizado, mas também o direito de compreender, em termos acessíveis, quais fatores influenciaram a pontuação atribuída e como esses fatores foram ponderados.

Em segundo lugar, defendemos a obrigatoriedade de avaliações de impacto algorítmico para sistemas de scoring social que afetem direitos fundamentais. Essas avaliações, análogas ao Relatório de Impacto à Proteção de Dados Pessoais previsto na LGPD, devem ser realizadas previamente à implementação do sistema e atualizadas periodicamente. Devem contemplar testes de viés e discriminação, análise de proporcionalidade entre os dados utilizados e a finalidade pretendida, e mecanismos de correção para distorções identificadas.

A criação de mecanismos efetivos de contestação e revisão humana constitui outro pilar fundamental. O direito à revisão previsto no artigo 20 da LGPD precisa ser regulamentado de forma a garantir que a revisão seja substancial (e não meramente formal) e que o ônus de demonstrar a correção da decisão recaia sobre o operador do sistema, não sobre o indivíduo afetado. Essa inversão do ônus probatório é coerente com os princípios do Código de Defesa do Consumidor e com a lógica de proteção da parte vulnerável na relação.

Por fim, entendemos que a Autoridade Nacional de Proteção de Dados (ANPD) deve desempenhar papel central na fiscalização e regulamentação dos sistemas de scoring social. A ANPD já possui competência para atuar nessa seara com base na LGPD, mas necessita de recursos técnicos e humanos compatíveis com a complexidade da tarefa. A cooperação com órgãos como o Ministério Público, os Procons e o CADE pode potencializar a capacidade de fiscalização e garantir uma abordagem multidisciplinar que contemple tanto os aspectos de proteção de dados quanto as dimensões concorrenciais e consumeristas do problema.

Como o cidadão pode se proteger hoje

Enquanto a regulação específica não se consolida, os cidadãos brasileiros já dispõem de instrumentos jurídicos para questionar decisões baseadas em scoring social. O primeiro passo é exercer o direito de acesso aos dados, previsto na LGPD, solicitando ao responsável pelo tratamento informações sobre quais dados pessoais são utilizados, como a pontuação é calculada e quais foram os fatores determinantes para a decisão. Esse pedido pode ser feito diretamente ao controlador dos dados e, em caso de recusa ou resposta insatisfatória, pode ser levado à ANPD por meio de petição de titular.

Quando identificamos que uma decisão automatizada produziu resultado discriminatório ou desproporcional, é possível buscar a revisão judicial com fundamento na LGPD, no Código de Defesa do Consumidor e na Constituição Federal. A tutela coletiva, por meio de ações civis públicas promovidas pelo Ministério Público ou por associações de defesa do consumidor, mostra-se particularmente adequada quando o sistema de scoring afeta um grupo amplo de pessoas de forma sistemática.

Recomendamos também atenção às práticas de coleta de dados. Muitos sistemas de scoring social alimentam-se de dados coletados por aplicativos, plataformas digitais e dispositivos conectados, frequentemente com base em termos de uso extensos que poucos leem integralmente. Revisar as permissões concedidas a aplicativos, limitar o compartilhamento de dados quando possível e exercer regularmente o direito de eliminação de dados desnecessários são medidas preventivas que podem reduzir a exposição a sistemas de pontuação indesejados.

Perguntas Frequentes

Scoring social e scoring de crédito são a mesma coisa?

Não. O scoring de crédito tradicional analisa predominantemente o histórico financeiro do consumidor (pagamentos, dívidas, consultas), enquanto o scoring social incorpora variáveis comportamentais mais amplas, como padrões de navegação, interações em redes sociais, localização e vínculos pessoais. O scoring social pode influenciar decisões que vão além do crédito, alcançando áreas como emprego, moradia e acesso a serviços públicos.

Posso solicitar a revisão de uma decisão tomada por um sistema de scoring automatizado?

Sim. O artigo 20 da LGPD garante ao titular dos dados o direito de solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado, incluindo decisões de scoring. O pedido deve ser feito ao controlador dos dados e, caso não seja atendido satisfatoriamente, pode ser encaminhado à Autoridade Nacional de Proteção de Dados (ANPD) ou ao Poder Judiciário.

Sistemas de scoring social são proibidos no Brasil?

Atualmente não existe uma proibição expressa e generalizada de sistemas de scoring social no Brasil. Diferentemente da União Europeia (que proibiu o scoring social governamental no AI Act), o Brasil ainda não possui legislação específica sobre inteligência artificial. Contudo, a LGPD, o Código de Defesa do Consumidor e a Constituição Federal impõem limites ao uso desses sistemas, especialmente quando produzem resultados discriminatórios ou quando operam sem transparência adequada.

As informações deste artigo são de caráter informativo e não substituem consulta jurídica individualizada.

Ficou com dúvidas? Fale com um advogado especialista.

📱 Falar pelo WhatsApp

As informações deste artigo são de caráter informativo e não substituem consulta jurídica individualizada.

Posts Similares