Regulação de IA em Sistemas de Crédito e Microfinanças
A inteligência artificial já decide quem recebe crédito no Brasil, e a ausência de regulação específica coloca em risco milhões de consumidores vulneráveis no setor de microfinanças.
O Avanço da Inteligência Artificial na Concessão de Crédito
Nos últimos anos, observamos uma transformação profunda na forma como instituições financeiras avaliam pedidos de crédito. Modelos de inteligência artificial passaram a ocupar o centro das decisões que antes dependiam exclusivamente de analistas humanos, processando volumes massivos de dados para classificar consumidores em categorias de risco. Essa mudança trouxe ganhos operacionais evidentes para bancos, fintechs e cooperativas de crédito, mas também inaugurou um cenário jurídico repleto de lacunas e incertezas que precisamos examinar com rigor.
No segmento de microfinanças, essa realidade ganha contornos ainda mais sensíveis. Estamos falando de populações que historicamente enfrentam barreiras de acesso ao sistema financeiro formal: trabalhadores informais, microempreendedores individuais, agricultores familiares e comunidades periféricas. Quando algoritmos assumem a função de aprovar ou negar microcrédito para essas pessoas, as consequências de eventuais falhas ou vieses discriminatórios se multiplicam de forma desproporcional. Um erro algorítmico que nega crédito a um grande empresário representa um inconveniente; o mesmo erro aplicado a um microempreendedor pode significar o encerramento de sua atividade econômica.
Verificamos que o mercado brasileiro de crédito digital cresceu exponencialmente nos últimos anos, impulsionado pela expansão do Pix, pelo open finance e pela popularização de aplicativos de serviços financeiros. Nesse ecossistema, os modelos de IA utilizam desde dados cadastrais tradicionais até informações comportamentais coletadas em redes sociais, padrões de navegação e geolocalização. A pergunta que se impõe é clara: qual o limite legal para essa coleta e uso de dados na tomada de decisão creditícia?
O Marco Legal Brasileiro e Suas Lacunas
Analisamos o arcabouço normativo vigente e constatamos que o Brasil ainda não possui uma legislação específica sobre inteligência artificial em vigor, embora o Projeto de Lei nº 2338/2023 esteja em tramitação avançada no Congresso Nacional. Esse projeto estabelece princípios gerais para o desenvolvimento e uso de IA no país, classificando sistemas de crédito automatizado como de “alto risco”, o que exigiria maior transparência e supervisão humana. Contudo, até sua eventual aprovação e regulamentação, dependemos de um mosaico de normas que, combinadas, oferecem proteção parcial ao consumidor.
A Lei Geral de Proteção de Dados (Lei nº 13.709/2018) é hoje o principal instrumento de proteção nesse contexto. Seu artigo 20 garante ao titular o direito de solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais, incluindo aquelas destinadas a definir perfis de crédito. Esse dispositivo é fundamental, mas apresenta limitações práticas: muitos consumidores desconhecem esse direito, e as instituições financeiras frequentemente alegam segredo comercial para não revelar os critérios utilizados por seus algoritmos.
No campo regulatório financeiro, o Banco Central do Brasil editou a Resolução nº 4.893/2021 sobre política de segurança cibernética e a Resolução nº 4.949/2021 sobre contratação de serviços de processamento e armazenamento de dados em nuvem. O Conselho Monetário Nacional, por sua vez, mantém normas sobre critérios de concessão de crédito que foram concebidas em uma era pré-algoritmos. Identificamos, portanto, uma defasagem normativa significativa entre a velocidade da inovação tecnológica e a capacidade de resposta do regulador.
O Código de Defesa do Consumidor (Lei nº 8.078/1990) também oferece bases importantes, especialmente nos dispositivos que tratam de práticas abusivas e do direito à informação adequada. Quando um consumidor é recusado por um sistema automatizado sem receber explicação compreensível sobre os motivos da recusa, verificamos potencial violação dos princípios consumeristas de transparência e boa-fé objetiva.
Vieses Algorítmicos e Discriminação no Microcrédito
Um dos problemas mais graves que identificamos no uso de IA para concessão de crédito é a reprodução e amplificação de discriminações históricas. Os algoritmos aprendem a partir de dados passados, e quando esses dados refletem desigualdades estruturais (raciais, de gênero, regionais), o sistema tende a perpetuar essas mesmas desigualdades em suas decisões futuras. No universo das microfinanças, esse risco é particularmente agudo.
A automação de decisões creditícias sem supervisão adequada transforma desigualdades históricas em exclusões algorítmicas, afetando justamente quem mais precisa de acesso ao crédito.
Consideremos o caso de modelos que utilizam CEP ou bairro de residência como variável preditiva de inadimplência. Embora essa prática possa parecer neutra do ponto de vista técnico, ela funciona como proxy para raça e classe social em um país com segregação urbana tão marcante quanto o Brasil. Um morador de uma comunidade periférica pode apresentar histórico de pagamentos impecável e, ainda assim, receber pontuação inferior à de um residente de bairro nobre com perfil financeiro semelhante. Essa prática configura, em nossa análise, discriminação indireta vedada pela Constituição Federal e pela legislação antidiscriminatória.
No setor de microfinanças, analisamos que a questão se agrava pela natureza da clientela atendida. Microempreendedores informais frequentemente não possuem comprovação de renda nos moldes tradicionais, histórico bancário extenso ou garantias reais para oferecer. Quando o algoritmo é treinado majoritariamente com dados de clientes do sistema bancário convencional, ele tende a classificar esses perfis como de alto risco, independentemente de sua real capacidade de pagamento. Trata-se de um paradoxo: a ferramenta que deveria democratizar o acesso ao crédito acaba reforçando as barreiras de entrada.
A questão de gênero também merece atenção especial nessa discussão. Dados internacionais demonstram que mulheres empreendedoras apresentam taxas de inadimplência iguais ou inferiores às de homens em operações de microcrédito, mas frequentemente recebem condições menos favoráveis nos sistemas automatizados. Quando variáveis correlacionadas a gênero (como tipo de atividade econômica, faixa de renda ou estado civil) influenciam o modelo preditivo, o resultado pode ser uma discriminação sistêmica invisível aos olhos do operador humano.
Transparência Algorítmica e Direito à Explicação
Um pilar essencial de qualquer regulação efetiva de IA em sistemas de crédito é o direito à explicação. Quando um consumidor tem seu pedido de crédito negado por um sistema automatizado, entendemos que ele possui o direito de compreender, em linguagem acessível, quais fatores determinaram essa decisão. Esse direito vai além da mera indicação genérica de “perfil incompatível” ou “score insuficiente”, práticas que ainda predominam no mercado brasileiro.
A transparência algorítmica enfrenta, contudo, resistências legítimas por parte das instituições financeiras. Os modelos de IA representam investimentos significativos em pesquisa e desenvolvimento, e a divulgação detalhada de seus parâmetros poderia comprometer a propriedade intelectual das empresas ou facilitar a manipulação dos sistemas por fraudadores. Reconhecemos que esse é um dilema real, mas argumentamos que existem formas de conciliar transparência e proteção da propriedade intelectual.
A abordagem mais promissora, em nossa avaliação, é a chamada “explicabilidade por camadas”. No primeiro nível, o consumidor receberia uma explicação simplificada dos principais fatores que influenciaram a decisão (positiva ou negativamente). No segundo nível, disponível mediante solicitação formal, a instituição forneceria detalhamento técnico mais aprofundado. No terceiro nível, voltado para órgãos reguladores e o Poder Judiciário, os parâmetros completos do modelo seriam acessíveis para fins de auditoria e controle. Essa estrutura equilibra o direito à informação do consumidor com a proteção do segredo industrial da instituição.
No âmbito das microfinanças, a transparência assume importância adicional por uma razão prática: o consumidor que compreende os motivos da recusa pode tomar providências para melhorar seu perfil creditício. Quando o sistema simplesmente nega o crédito sem explicação, perpetua-se um ciclo de exclusão financeira que contraria os próprios objetivos das políticas de microcrédito estabelecidas pelo poder público.
Caminhos Regulatórios e Perspectivas Futuras
Ao examinarmos as experiências internacionais, encontramos referências importantes para o debate brasileiro. A União Europeia aprovou o AI Act (Regulamento de Inteligência Artificial), que classifica sistemas de pontuação de crédito como de alto risco e impõe obrigações rigorosas de avaliação de impacto, documentação técnica e supervisão humana. Nos Estados Unidos, o Equal Credit Opportunity Act e o Fair Credit Reporting Act estabelecem obrigações de não discriminação e transparência que se aplicam também a decisões algorítmicas, embora a fiscalização desses dispositivos no contexto de IA ainda esteja em desenvolvimento.
Para o cenário brasileiro, propomos que a regulação de IA em sistemas de crédito e microfinanças contemple, no mínimo, cinco elementos essenciais. Primeiro, a obrigatoriedade de avaliação de impacto algorítmico antes da implantação de novos modelos, incluindo análise de potenciais vieses discriminatórios. Segundo, a garantia do direito à explicação em linguagem acessível para todo consumidor afetado por decisão automatizada. Terceiro, a manutenção de canal efetivo para revisão humana de decisões algorítmicas contestadas. Quarto, a realização de auditorias periódicas independentes dos modelos em operação, com atenção especial a indicadores de equidade. Quinto, a criação de mecanismos de responsabilização civil e administrativa claros para casos de danos causados por decisões algorítmicas discriminatórias ou incorretas.
No campo das microfinanças especificamente, entendemos que a regulação deve considerar a assimetria de poder entre as instituições financeiras (que controlam os algoritmos) e os tomadores de microcrédito (que frequentemente pertencem a grupos vulneráveis). Medidas como a inversão do ônus da prova em casos de alegada discriminação algorítmica e a criação de programas de educação financeira digital podem contribuir para equilibrar essa relação.
Concluímos que a regulação de inteligência artificial em sistemas de crédito não é um obstáculo à inovação, mas uma condição para que a inovação produza benefícios genuinamente inclusivos. No setor de microfinanças, onde o crédito funciona como instrumento de transformação social, garantir que os algoritmos operem com justiça, transparência e responsabilidade é uma exigência que não podemos postergar.
Perguntas Frequentes
A inteligência artificial pode negar crédito sem dar explicações ao consumidor?
Não. O artigo 20 da Lei Geral de Proteção de Dados garante ao consumidor o direito de solicitar a revisão de decisões automatizadas, incluindo aquelas relacionadas à concessão de crédito. A instituição financeira deve fornecer informações claras e adequadas sobre os critérios utilizados na decisão, respeitados os limites do segredo comercial e industrial.
Como saber se um algoritmo de crédito está praticando discriminação?
A discriminação algorítmica pode ser identificada quando grupos específicos (por raça, gênero, região ou faixa etária) recebem sistematicamente condições de crédito menos favoráveis sem justificativa financeira objetiva. O consumidor que suspeitar de tratamento discriminatório pode registrar reclamação junto ao Procon, ao Banco Central ou à Autoridade Nacional de Proteção de Dados, que possuem competência para investigar práticas abusivas em sistemas automatizados.
Quais direitos o tomador de microcrédito possui diante de decisões automatizadas?
O tomador de microcrédito possui os mesmos direitos de qualquer consumidor financeiro, incluindo o acesso a informações claras sobre os critérios de avaliação, o direito à revisão de decisões automatizadas e a proteção contra práticas discriminatórias. Além disso, as políticas públicas de microcrédito produtivo orientado estabelecem que a análise creditícia deve considerar as particularidades do público atendido, o que limita a aplicação de critérios padronizados que desconsiderem a realidade de microempreendedores e trabalhadores informais.
As informações deste artigo são de caráter informativo e não substituem consulta jurídica individualizada.
Receba novidades no WhatsApp e/ou e-mail
Cadastre-se gratuitamente para receber nossos novos artigos.
Seus dados estão protegidos conforme a LGPD.
Ficou com dúvidas? Fale com um advogado especialista.
📱 Falar pelo WhatsAppAs informações deste artigo são de caráter informativo e não substituem consulta jurídica individualizada.





