IA e Mercado de Seguros: Precificação Algorítmica

“`html

A inteligência artificial já transformou profundamente a forma como as seguradoras avaliam riscos e definem prêmios. A precificação algorítmica promete tarifas mais justas e personalizadas, mas levanta questões sérias sobre discriminação, privacidade e transparência que o ordenamento jurídico brasileiro ainda enfrenta com dificuldade.

Como a Precificação Algorítmica Funciona no Setor de Seguros

Durante décadas, o cálculo de prêmios de seguro seguiu uma lógica estatística relativamente simples: agrupavam-se pessoas com características semelhantes em categorias de risco, e o preço cobrado de cada segurado refletia a sinistralidade histórica do grupo ao qual ele pertencia. Um motorista jovem pagava mais pelo seguro automotivo porque, estatisticamente, motoristas jovens se envolvem em mais acidentes. Um fumante pagava mais pelo seguro de vida porque dados atuariais confirmavam maior risco de morte prematura.

A inteligência artificial não abandonou essa lógica estatística, mas a radicalizou. Algoritmos modernos de machine learning são capazes de processar milhares de variáveis simultaneamente, identificar correlações imperceptíveis para análise humana e calcular perfis de risco com granularidade sem precedente. Em vez de classificar um segurado em uma categoria ampla, o sistema produz um score individualizado, atualizado em tempo real à medida que novos dados são incorporados.

No seguro automotivo, dispositivos telemáticos instalados nos veículos capturam velocidade, aceleração, frenagem, horário de uso e até localização geográfica. Seguradoras ao redor do mundo já oferecem modelos de precificação baseados em comportamento real do motorista, e não apenas em seu histórico declarado. No seguro de vida e saúde, wearables e aplicativos monitoram batimentos cardíacos, qualidade do sono, níveis de atividade física e padrões alimentares. No seguro residencial, sensores conectados detectam umidade, temperatura e movimentação para avaliar riscos de sinistro.

No Brasil, o mercado segurador já experimenta essas tecnologias. A Superintendência de Seguros Privados (SUSEP) acompanha essas tendências e publicou, nos últimos anos, normativos que buscam adaptar o marco regulatório à realidade tecnológica, mas o campo permanece em rápida evolução e as respostas regulatórias ainda correm atrás dos fatos.

Discriminação Algorítmica: Quando o Dado Correto Produz o Resultado Errado

O argumento central em favor da precificação algorítmica é a precisão: um sistema que avalia individualmente cada segurado seria mais justo do que um sistema que distribui riscos coletivamente. Quem dirige bem paga menos; quem cuida da saúde paga menos. A personalização seria, em tese, a forma mais equânime de precificação.

Esse argumento, porém, esconde uma armadilha. Algoritmos são treinados com dados históricos, e dados históricos refletem desigualdades históricas. Se moradoras de determinados bairros periféricos tiveram, historicamente, mais sinistros, o algoritmo aprende que o CEP é um preditor de risco. Se pessoas de determinada faixa de renda apresentaram mais inadimplência, a variável socioeconômica se torna fator de precificação. O sistema não discrimina intencionalmente por raça ou origem, mas pode produzir resultados que penalizam sistematicamente grupos historicamente marginalizados, fenômeno que a literatura técnica denomina discriminação algorítmica indireta ou viés de proxy.

Um algoritmo não precisa usar raça como variável para discriminar racialmente. Basta que ele use variáveis correlacionadas com raça em contextos onde essa correlação reflete desigualdade histórica, não diferença de risco real.

No direito brasileiro, essa questão encontra ancoragem em múltiplos dispositivos normativos. A Constituição Federal proíbe discriminação por origem, raça, cor e outros fatores. O Código de Defesa do Consumidor veda práticas abusivas e discriminatórias nas relações de consumo. A Lei Geral de Proteção de Dados Pessoais (LGPD) estabelece, em seu artigo 20, o direito do titular de obter revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluindo decisões destinadas a definir seu perfil pessoal, profissional, de consumo e de crédito.

O direito à revisão previsto na LGPD é particularmente relevante para o mercado segurador. Uma pessoa que recebe uma cotação de seguro com prêmio elevado sem entender os motivos tem, em princípio, o direito de questionar se a decisão foi tomada de forma automatizada e de solicitar que um ser humano revise o caso. Na prática, porém, esse direito ainda encontra enormes barreiras operacionais: as seguradoras raramente informam ao consumidor que a precificação foi feita algoritmicamente, e os sistemas de atendimento não estão preparados para processar esses pedidos de revisão de forma eficaz.

Privacidade, Consentimento e os Limites do Dado Relevante

A precificação baseada em dados comportamentais levanta uma segunda ordem de problemas: quais dados podem ser coletados, como o consentimento deve ser obtido, e onde termina o “dado de risco legítimo” e começa a invasão à privacidade?

A LGPD exige que o tratamento de dados pessoais tenha base legal adequada. No contexto dos contratos de seguro, a base mais frequentemente invocada é a execução do contrato ou o legítimo interesse do controlador. Mas o uso de dados de saúde, localização e comportamento cotidiano para precificação de seguros envolve dados sensíveis, que a LGPD sujeita a regime mais restritivo. Dados sobre saúde só podem ser tratados com consentimento específico ou em hipóteses taxativas previstas em lei.

O consentimento, por sua vez, raramente é livre e informado no contexto securitário. Quando uma seguradora oferece desconto de 30% no prêmio para segurados que instalam um dispositivo telemático ou compartilham dados de wearable, o consumidor está tecnicamente consentindo. Mas a assimetria econômica é evidente: recusar o consentimento significa pagar mais. Há consenso crescente na doutrina de proteção de dados de que consentimentos obtidos sob pressão econômica desta natureza não satisfazem o requisito de liberdade previsto na LGPD.

Além disso, surge a questão das variáveis utilizadas pelo algoritmo. Seguradoras norte-americanas já experimentaram usar o histórico de navegação em redes sociais, o nível educacional e até a forma como o consumidor preenche formulários online (velocidade de digitação, tempo de leitura dos termos) como preditores de risco. No Brasil, embora esse nível de sofisticação ainda não seja generalizado, a tendência aponta nessa direção, e o arcabouço regulatório precisa estar preparado para traçar limites antes que as práticas se consolidem.

A SUSEP, por meio do Sandbox Regulatório e de outros instrumentos, tem buscado criar espaços para inovação controlada no setor. A Circular SUSEP 667/2022 e normativos subsequentes trouxeram maior flexibilidade para modelos de precificação baseados em uso e comportamento. Mas a supervisão da conformidade com a LGPD nesse contexto envolve necessariamente a Autoridade Nacional de Proteção de Dados (ANPD), criando um campo de regulação bifronte que ainda não encontrou coordenação institucional adequada entre as duas autarquias.

Transparência Algorítmica e o Desafio da Explicabilidade

Um dos maiores desafios jurídicos da precificação algorítmica é a opacidade dos modelos mais sofisticados. Algoritmos de aprendizado profundo (deep learning) e redes neurais artificiais podem atingir altíssima acurácia preditiva, mas funcionam como “caixas-pretas”: produzem resultados sem que seja possível identificar com clareza quais variáveis pesaram mais em cada decisão individual.

Do ponto de vista jurídico, isso cria um problema sério. Se o consumidor tem direito à revisão de decisões automatizadas, e se a empresa responsável não consegue explicar os fundamentos da decisão em linguagem compreensível, o direito se torna letra morta. A LGPD exige, no artigo 20, parágrafo 1º, que o controlador forneça “informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão automatizada”. A lei usa a expressão “informações claras”, mas não especifica o nível de detalhe exigido nem define o que conta como explicação suficiente.

A explicabilidade não é apenas uma exigência técnica: é um requisito de cidadania. Sem ela, o consumidor não pode contestar uma decisão que o prejudica, e o Estado não pode supervisionar se o sistema opera dentro dos limites legais.

A discussão internacional sobre explicabilidade de IA é vasta. O Regulamento Europeu de Proteção de Dados (GDPR) e, mais recentemente, o AI Act europeu constroem um arcabouço que distingue sistemas de IA de alto risco (que exigem transparência reforçada e avaliações de impacto) de sistemas de menor risco. Seguros de saúde e de vida estão listados como domínios de alto risco no AI Act. No Brasil, o Projeto de Lei nº 2338/2023, em tramitação no Senado Federal como marco legal de IA, adota abordagem semelhante e classifica sistemas de IA usados na precificação de seguros como de risco elevado, sujeitos a obrigações reforçadas de transparência e avaliação de impacto algorítmico.

Enquanto o marco legal de IA não é aprovado, a regulação do setor segurador fica dependente da combinação entre as normas da SUSEP, a LGPD e os princípios gerais do Código de Defesa do Consumidor. Essa combinação, embora não seja vazia, apresenta lacunas que precisam ser endereçadas por regulamentação específica.

Uma seguradora pode usar meus dados de saúde para calcular o prêmio do seguro?

Dados de saúde são considerados dados sensíveis pela LGPD e só podem ser tratados com consentimento específico e destacado do titular, ou nas hipóteses taxativas previstas no artigo 11 da lei. Para uso na precificação de seguros, a base legal mais aplicável é o consentimento. Isso significa que a seguradora deve obter sua autorização expressa antes de usar esses dados, informar claramente como serão utilizados, e você tem o direito de revogar esse consentimento a qualquer momento, ainda que isso possa afetar as condições do contrato. A coleta de dados de saúde via wearables ou aplicativos para fins de precificação está sujeita a esse regime mais restritivo, e qualquer uso não consentido ou além do finalidade declarada pode configurar violação à LGPD passível de sanção pela ANPD.

Tenho direito de saber por que meu prêmio de seguro foi calculado de determinada forma?

Sim. O artigo 20 da LGPD estabelece o direito de obter revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais, incluindo decisões que afetem seu perfil de consumo. Você pode solicitar ao controlador (a seguradora) informações claras sobre os critérios e procedimentos utilizados na decisão algorítmica. A empresa tem a obrigação de fornecer essas informações, ainda que possa resguardar segredos comerciais em relação a detalhes técnicos específicos do modelo. Além disso, pelo Código de Defesa do Consumidor, você tem direito à informação adequada e clara sobre produtos e serviços, o que inclui as condições de precificação. Se a seguradora se recusar a fornecer essas informações ou se as explicações forem insuficientes, é possível registrar reclamação na SUSEP, na ANPD ou nos órgãos de defesa do consumidor.

O que muda com o Marco Legal de IA para o setor de seguros?

O Projeto de Lei nº 2338/2023, em tramitação no Senado, propõe classificar sistemas de IA utilizados em decisões que afetam direitos de pessoas físicas em domínios como seguros, crédito e saúde como sistemas de risco elevado. Para esses sistemas, o projeto prevê obrigações específicas: avaliação de impacto algorítmico antes da implantação, registro em autoridade competente, transparência sobre o funcionamento do sistema, mecanismos de contestação das decisões, e responsabilidade objetiva do fornecedor pelos danos causados. Embora o projeto ainda esteja em tramitação e seu texto final possa sofrer alterações, ele sinaliza a direção do ordenamento brasileiro e serve desde já como parâmetro interpretativo. Seguradoras que implementam sistemas algorítmicos de precificação têm interesse estratégico em se antecipar a essas exigências, tanto para reduzir riscos regulatórios quanto para ganhar confiança dos consumidores.

É possível contestar judicialmente uma precificação que considero discriminatória?

Sim, é juridicamente possível. A discriminação algorítmica indireta, quando demonstrável, pode configurar violação ao princípio da igualdade previsto na Constituição, prática abusiva nos termos do Código de Defesa do Consumidor, e violação às finalidades e princípios da LGPD. O maior desafio prático é a prova: demonstrar que um algoritmo produz resultados discriminatórios requer análise técnica especializada dos dados e do modelo, o que pode ser custoso e complexo. Algumas estratégias incluem solicitar administrativamente os critérios de precificação via LGPD, registrar reclamação nos órgãos regulatórios para desencadear investigação com poder de requisição de informações, e, em casos com indícios sólidos, ajuizar ação com pedido de tutela antecipada para acesso à documentação técnica. O campo ainda é incipiente na jurisprudência brasileira, mas casos envolvendo discriminação em crédito e seguros estão começando a chegar ao Judiciário, construindo precedentes que orientarão as decisões futuras.

Este artigo tem finalidade exclusivamente informativa e educacional, não constituindo aconselhamento jurídico para casos concretos. A legislação sobre inteligência artificial e proteção de dados encontra-se em rápida evolução, e as informações aqui apresentadas refletem o estado do ordenamento jurídico brasileiro na data de publicação. Para análise de situações específicas envolvendo precificação algorítmica, discriminação de dados ou direitos de consumidores de seguros, recomendamos consulta a advogado especializado.

“`

Ficou com dúvidas? Fale com um advogado especialista.

📱 Falar pelo WhatsApp

As informações deste artigo são de caráter informativo e não substituem consulta jurídica individualizada.

Posts Similares