IA e Direito Penal: Policiamento Preditivo e Garantias
O uso de inteligência artificial no policiamento preditivo levanta questões urgentes sobre garantias penais fundamentais e o risco de discriminação algorítmica em massa.
O Avanço do Policiamento Preditivo no Brasil e no Mundo
Nos últimos anos, observamos uma expansão significativa do uso de sistemas de inteligência artificial voltados à segurança pública. O chamado policiamento preditivo consiste na utilização de algoritmos que analisam grandes volumes de dados (históricos criminais, geolocalização, padrões de comportamento) para tentar antecipar onde e quando crimes poderão ocorrer, ou até mesmo quem poderia cometê-los. Essa abordagem, que ganhou força inicialmente nos Estados Unidos com programas como o PredPol, vem sendo estudada e, em alguns casos, implementada de forma experimental em diversas cidades brasileiras.
Verificamos que a promessa central desses sistemas é a otimização dos recursos policiais. Em vez de distribuir efetivos de forma uniforme ou baseada apenas na experiência dos comandantes, a tecnologia indicaria os chamados “hotspots”, zonas com maior probabilidade estatística de ocorrências. Contudo, a aparente neutralidade dos números esconde camadas de complexidade que precisamos examinar com rigor jurídico. Os dados utilizados para treinar esses algoritmos são, em grande medida, reflexo de práticas policiais históricas, que carregam vieses estruturais de raça, classe social e geografia.
No cenário brasileiro, a questão ganha contornos ainda mais delicados. Vivemos em um país marcado por desigualdades profundas, onde o sistema de justiça criminal historicamente incide de forma desproporcional sobre populações negras e periféricas. Quando alimentamos algoritmos com dados gerados por esse sistema, corremos o risco concreto de automatizar e amplificar discriminações já existentes, conferindo-lhes uma falsa legitimidade técnica.
Garantias Constitucionais em Risco: Presunção de Inocência e Devido Processo Legal
Ao analisarmos o policiamento preditivo sob a ótica do Direito Penal brasileiro, identificamos tensões diretas com princípios constitucionais basilares. O primeiro e mais evidente é a presunção de inocência, consagrada no artigo 5º, inciso LVII, da Constituição Federal. Quando um sistema algorítmico classifica determinada pessoa como “de alto risco” para a prática de crimes futuros, estamos diante de uma inversão lógica que se aproxima perigosamente de uma presunção de culpa automatizada.
O devido processo legal (artigo 5º, inciso LIV, da Constituição Federal) também se encontra ameaçado. Decisões que afetam a liberdade e a dignidade das pessoas, como o direcionamento ostensivo de policiamento para determinados indivíduos ou comunidades, passam a ser tomadas por sistemas cujo funcionamento interno é frequentemente opaco. Conhecemos essa opacidade como o problema da “caixa-preta” algorítmica: nem mesmo os desenvolvedores conseguem, em muitos casos, explicar com precisão por que o sistema chegou a determinada conclusão.
Essa falta de transparência colide frontalmente com o direito à ampla defesa e ao contraditório. Se uma pessoa é abordada, investigada ou presa com base em indicações algorítmicas, como poderá exercer plenamente sua defesa sem conhecer os critérios que a colocaram sob suspeita? Entendemos que o princípio da motivação das decisões estatais exige que qualquer ato que restrinja direitos fundamentais seja fundamentado de forma clara e acessível, algo que algoritmos proprietários de empresas privadas dificilmente proporcionam.
Ainda no campo das garantias, precisamos considerar o princípio da legalidade penal (artigo 5º, inciso XXXIX, da Constituição Federal). O Direito Penal trabalha com a ideia de que só há crime mediante lei anterior que o defina. O policiamento preditivo, ao direcionar a atuação estatal com base em probabilidades estatísticas e não em condutas efetivamente praticadas, opera numa lógica que se afasta desse fundamento. Não punimos probabilidades; punimos condutas típicas, antijurídicas e culpáveis.
A automatização da suspeita por algoritmos representa um dos maiores desafios contemporâneos para o sistema de garantias penais construído ao longo de séculos de evolução jurídica.
Discriminação Algorítmica e o Princípio da Igualdade
Um dos aspectos mais preocupantes do policiamento preditivo é seu potencial discriminatório. Estudos conduzidos em diversos países demonstram que esses sistemas tendem a reproduzir e intensificar padrões de discriminação racial e socioeconômica. O mecanismo é relativamente simples de compreender: se historicamente a polícia atuou com mais intensidade em bairros periféricos e sobre populações negras, os dados refletirão essa realidade. O algoritmo, treinado com esses dados, “aprenderá” que essas áreas e perfis populacionais são mais propensos à criminalidade, direcionando ainda mais policiamento para esses locais, gerando mais dados enviesados num ciclo que se retroalimenta.
No Brasil, onde a seletividade do sistema penal é amplamente documentada pela criminologia crítica, a introdução de ferramentas preditivas sem salvaguardas robustas poderia agravar um quadro já preocupante. Analisamos que o princípio da igualdade (artigo 5º, caput, da Constituição Federal) impõe ao Estado o dever de não discriminar, inclusive quando utiliza tecnologias aparentemente neutras. A chamada discriminação indireta, que ocorre quando critérios formalmente neutros produzem efeitos desproporcionais sobre grupos vulneráveis, é plenamente aplicável ao contexto algorítmico.
A Lei Geral de Proteção de Dados (Lei nº 13.709/2018) trouxe avanços relevantes nessa discussão. O artigo 20 da LGPD garante ao titular o direito de solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais, incluindo aquelas destinadas a definir perfis pessoais, profissionais, de consumo e de crédito ou aspectos de personalidade. Embora a aplicação direta desse dispositivo ao contexto da segurança pública apresente nuances (considerando que o artigo 4º da LGPD exclui parcialmente o tratamento de dados para fins de segurança pública), entendemos que o espírito protetivo da norma deve orientar a interpretação de todo o ordenamento jurídico.
Marco Regulatório da IA no Brasil e Perspectivas para o Direito Penal
O debate sobre a regulação da inteligência artificial no Brasil vem ganhando densidade nos últimos anos. Projetos de lei em tramitação no Congresso Nacional buscam estabelecer princípios, direitos e deveres para o desenvolvimento e uso de sistemas de IA. Entre os pontos centrais dessas propostas legislativas, encontramos a exigência de transparência algorítmica, a realização de avaliações de impacto para sistemas de alto risco e a responsabilização por danos causados por decisões automatizadas.
Consideramos que o policiamento preditivo se enquadra claramente na categoria de sistemas de IA de alto risco, seguindo a tendência internacional consolidada pelo AI Act da União Europeia. Isso significa que, independentemente do modelo regulatório que o Brasil venha a adotar, a utilização dessas ferramentas na segurança pública deverá estar sujeita a controles rigorosos, incluindo auditorias independentes, avaliações periódicas de impacto sobre direitos fundamentais e mecanismos efetivos de contestação por parte dos cidadãos afetados.
No plano processual penal, verificamos a necessidade de debater como as provas obtidas ou influenciadas por sistemas preditivos devem ser tratadas. Se uma investigação é iniciada com base em indicação algorítmica e essa indicação se revela contaminada por viés discriminatório, podemos estar diante de uma hipótese de prova ilícita por derivação (a chamada teoria dos frutos da árvore envenenada), conforme o artigo 5º, inciso LVI, da Constituição Federal e o artigo 157 do Código de Processo Penal.
O Papel do Poder Judiciário e do Ministério Público
Entendemos que o Poder Judiciário terá papel central na definição dos limites constitucionais do policiamento preditivo. Caberá aos magistrados avaliar, caso a caso, se a utilização de sistemas algorítmicos na persecução penal respeita as garantias fundamentais. Isso exigirá dos operadores do Direito uma compreensão mínima sobre o funcionamento dessas tecnologias, seus limites e seus vieses potenciais.
O Ministério Público, por sua vez, na condição de fiscal da ordem jurídica e titular da ação penal, deverá exercer controle rigoroso sobre a qualidade das evidências produzidas com auxílio de IA. Não basta que um sistema aponte probabilidades; é necessário que existam elementos concretos, verificáveis e juridicamente válidos para fundamentar qualquer medida restritiva de direitos.
Caminhos para uma Implementação Responsável
Reconhecemos que a tecnologia, por si só, não é boa nem má. O policiamento preditivo pode, em tese, contribuir para uma alocação mais eficiente de recursos de segurança pública, desde que cercado das salvaguardas adequadas. Entre as medidas que consideramos essenciais, destacamos: a obrigatoriedade de auditorias independentes e periódicas dos algoritmos utilizados; a publicação de relatórios de impacto sobre direitos fundamentais antes da implementação de qualquer sistema; a criação de mecanismos acessíveis de contestação para cidadãos afetados; a vedação do uso de sistemas preditivos como fundamento único para medidas restritivas de direitos; e a formação contínua de policiais, promotores e juízes sobre os limites e riscos dessas tecnologias.
Também avaliamos como fundamental que o desenvolvimento e a implementação desses sistemas contem com a participação efetiva da sociedade civil, de organizações de direitos humanos e das comunidades mais diretamente afetadas pela atuação policial. A governança algorítmica no campo penal não pode ser tratada como questão meramente técnica; é, antes de tudo, uma questão de direitos fundamentais e democracia.
Perguntas Frequentes
O policiamento preditivo é legal no Brasil?
Atualmente, não existe legislação específica no Brasil que proíba ou regulamente expressamente o policiamento preditivo. Contudo, sua utilização deve respeitar as garantias constitucionais (presunção de inocência, devido processo legal, igualdade) e a legislação de proteção de dados. Projetos de lei em tramitação buscam estabelecer um marco regulatório para sistemas de IA, o que deverá incluir regras específicas para aplicações de alto risco na segurança pública.
Como o policiamento preditivo pode gerar discriminação?
Os algoritmos de policiamento preditivo são treinados com dados históricos de atuação policial, que frequentemente refletem vieses raciais e socioeconômicos preexistentes. Quando o sistema utiliza esses dados enviesados para direcionar a atividade policial, tende a concentrar ainda mais a vigilância sobre comunidades já marginalizadas, criando um ciclo de retroalimentação que amplifica a discriminação estrutural sob uma aparência de objetividade técnica.
Uma pessoa pode ser presa com base apenas em indicação de algoritmo preditivo?
Não. O ordenamento jurídico brasileiro exige, para qualquer prisão (salvo flagrante delito), ordem escrita e fundamentada da autoridade judiciária competente, conforme o artigo 5º, inciso LXI, da Constituição Federal. Uma mera indicação algorítmica de probabilidade não constitui fundamento jurídico válido para prisão, sendo indispensável a existência de elementos concretos que demonstrem a prática de conduta criminosa tipificada em lei.
As informações deste artigo são de caráter informativo e não substituem consulta jurídica individualizada.
Receba novidades no WhatsApp e/ou e-mail
Cadastre-se gratuitamente para receber nossos novos artigos.
Seus dados estão protegidos conforme a LGPD.
Ficou com dúvidas? Fale com um advogado especialista.
📱 Falar pelo WhatsAppAs informações deste artigo são de caráter informativo e não substituem consulta jurídica individualizada.





