bitcoin, blockchain, cryptocurrency, currency, e-commerce, bitcoin, bitcoin, bit

IA e Seguros de Saúde: Subscrição Algorítmica e Discriminação

Algoritmos de inteligência artificial já decidem quem paga mais caro pelo plano de saúde, e essa triagem invisível pode configurar discriminação ilegal contra milhões de brasileiros.

Como Funciona a Subscrição Algorítmica em Seguros de Saúde

A subscrição algorítmica representa uma transformação profunda no modo como operadoras de planos de saúde e seguradoras avaliam o risco de cada beneficiário. Tradicionalmente, a análise de risco dependia de questionários de saúde, exames admissionais e tabelas atuariais relativamente padronizadas. Com a adoção de sistemas de inteligência artificial, esse processo passou a incorporar volumes massivos de dados que vão muito além do histórico clínico declarado pelo contratante.

Esses sistemas processam informações de diversas origens: dados de wearables e aplicativos de saúde, histórico de compras em farmácias, padrões de geolocalização, informações de redes sociais e até dados socioeconômicos inferidos a partir do CEP de residência. A partir dessas variáveis, os algoritmos calculam um “score de risco” que determina o valor do prêmio, as coberturas disponíveis e, em casos extremos, a própria aceitação ou recusa do contratante.

Quando analisamos o cenário brasileiro, verificamos que a adoção dessas tecnologias pelas operadoras de saúde suplementar vem crescendo de forma acelerada. Grandes operadoras já utilizam modelos preditivos para gestão de sinistros e precificação de produtos individuais. O problema central é que esses modelos operam como “caixas-pretas”, cujos critérios de decisão permanecem opacos tanto para os consumidores quanto para os órgãos reguladores.

A opacidade algorítmica gera um desequilíbrio informacional grave. Enquanto a operadora detém acesso a centenas de variáveis sobre o consumidor, este sequer sabe quais dados foram utilizados na composição do preço que lhe foi apresentado. Essa assimetria compromete a capacidade do beneficiário de contestar decisões que o prejudiquem, violando princípios fundamentais das relações de consumo.

Discriminação Algorítmica: Quando a Tecnologia Reproduz Desigualdades

O risco mais grave da subscrição algorítmica reside na sua capacidade de perpetuar e amplificar discriminações estruturais existentes na sociedade. Sistemas de IA aprendem a partir de dados históricos, e esses dados frequentemente refletem desigualdades raciais, socioeconômicas e de gênero que se acumularam ao longo de décadas no sistema de saúde brasileiro.

Consideremos um exemplo concreto: se um algoritmo utiliza o CEP como variável preditiva de risco, populações de periferias urbanas (majoritariamente negras e de baixa renda) serão sistematicamente classificadas como “alto risco”, não por suas condições individuais de saúde, mas por correlações estatísticas que refletem a segregação socioespacial. Dessa forma, a tecnologia transforma desigualdade social em critério aparentemente “técnico” e “objetivo” de precificação.

A discriminação por proxy é particularmente insidiosa porque não utiliza diretamente categorias protegidas (raça, gênero, idade) como variáveis. Em vez disso, emprega indicadores fortemente correlacionados a essas categorias, produzindo resultados discriminatórios sem que a discriminação apareça de forma explícita no código do algoritmo. Essa característica dificulta enormemente a identificação e a prova da prática discriminatória em processos administrativos e judiciais.

No campo da saúde da mulher, verificamos riscos adicionais. Algoritmos que processam dados de aplicativos de ciclo menstrual, histórico reprodutivo e padrões de consumo podem inferir gestações planejadas ou condições ginecológicas, utilizando essas informações para majorar prêmios ou restringir coberturas. Trata-se de uma forma sofisticada de discriminação de gênero que se esconde por trás de modelos matemáticos.

Pessoas com deficiência e portadoras de doenças crônicas também figuram entre os grupos mais vulneráveis à subscrição algorítmica. A capacidade dos sistemas de IA de cruzar dados de múltiplas fontes permite identificar condições preexistentes que o consumidor sequer declarou (ou sequer conhece), criando uma assimetria de informação que inverte a lógica protetiva do Código de Defesa do Consumidor.

A subscrição algorítmica transforma desigualdades sociais em critérios aparentemente técnicos de precificação, perpetuando discriminações que a legislação brasileira expressamente proíbe.

O Marco Legal Brasileiro e os Limites à Precificação Algorítmica

O ordenamento jurídico brasileiro oferece um conjunto robusto de normas que, embora nem sempre pensadas especificamente para a inteligência artificial, aplicam-se diretamente à subscrição algorítmica em seguros de saúde. A Constituição Federal, em seu artigo 5º, consagra o princípio da igualdade e proíbe qualquer forma de discriminação. O Código de Defesa do Consumidor reforça essa proteção ao vedar práticas abusivas e garantir a transparência nas relações de consumo.

A Lei Geral de Proteção de Dados (Lei 13.709/2018) representa o instrumento normativo mais relevante para o enfrentamento da discriminação algorítmica. O artigo 20 da LGPD garante ao titular o direito de solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais, incluindo decisões destinadas a definir perfis pessoais, profissionais, de consumo e de crédito. Esse dispositivo é diretamente aplicável às decisões de subscrição algorítmica em planos de saúde.

Além disso, a LGPD classifica dados relativos à saúde como dados pessoais sensíveis (artigo 5º, inciso II), submetendo seu tratamento a um regime jurídico mais restritivo. O artigo 11 estabelece bases legais específicas e mais limitadas para o tratamento de dados sensíveis, exigindo, em regra, o consentimento específico e destacado do titular. A utilização de dados de saúde para fins de subscrição algorítmica sem o consentimento adequado configura violação direta da LGPD.

No âmbito setorial, a Agência Nacional de Saúde Suplementar (ANS) dispõe de competência regulatória para disciplinar as práticas de precificação das operadoras. A regulamentação vigente já proíbe a seleção de risco com base em determinadas condições (como idade avançada, com as limitações legais de reajuste) e veda a exclusão de cobertura para doenças e lesões preexistentes após o cumprimento dos períodos de carência. A aplicação de algoritmos que contornem essas proteções por vias indiretas configura fraude regulatória.

Quando analisamos o Marco Legal da Inteligência Artificial em discussão no Congresso Nacional, verificamos a tendência de classificar sistemas de IA aplicados à saúde e seguros como “alto risco”, sujeitando-os a obrigações mais rigorosas de transparência, auditabilidade e supervisão humana. Essa classificação, se consolidada, exigirá das operadoras a implementação de avaliações de impacto algorítmico e a demonstração de que seus sistemas não produzem resultados discriminatórios.

Caminhos para a Regulação e a Proteção do Consumidor

O enfrentamento da discriminação algorítmica em seguros de saúde exige uma abordagem multidimensional que combine regulação setorial, fiscalização ativa e empoderamento do consumidor. Em primeiro lugar, defendemos a necessidade de que a ANS estabeleça normas específicas sobre o uso de inteligência artificial na subscrição e precificação de planos de saúde, exigindo transparência sobre os critérios utilizados pelos algoritmos.

A obrigatoriedade de auditorias algorítmicas periódicas constitui medida essencial. Essas auditorias devem avaliar se os modelos preditivos utilizados pelas operadoras produzem disparidades injustificadas entre grupos populacionais definidos por raça, gênero, idade, renda ou localização geográfica. Os resultados dessas auditorias devem ser publicados e submetidos à apreciação dos órgãos reguladores.

Do ponto de vista do consumidor, é fundamental garantir o direito à explicação das decisões algorítmicas. Quando um beneficiário recebe uma proposta de preço ou tem sua adesão recusada, ele deve ter acesso a uma explicação compreensível dos fatores que determinaram aquela decisão. Essa explicação não pode se limitar a termos técnicos incompreensíveis, devendo ser apresentada em linguagem acessível que permita ao consumidor avaliar se seus direitos foram respeitados.

A criação de mecanismos de contestação efetivos também se mostra indispensável. O consumidor que se sentir prejudicado por uma decisão algorítmica deve ter à disposição canais acessíveis para solicitar a revisão humana da decisão, conforme já previsto no artigo 20 da LGPD. Essa revisão deve ser realizada por profissionais qualificados, com autonomia para reverter decisões automatizadas que se revelem injustas ou discriminatórias.

No plano coletivo, o papel do Ministério Público, da Defensoria Pública e das associações de defesa do consumidor é crucial para a identificação e o combate a padrões discriminatórios sistêmicos. Inquéritos civis e ações civis públicas podem ser instrumentos eficazes para obrigar operadoras a revelar seus algoritmos e corrigir práticas discriminatórias que afetem grupos vulneráveis de forma desproporcional.

Perspectivas e Desafios para o Futuro

O avanço da inteligência artificial no setor de saúde suplementar é irreversível, e não se trata de impedir a inovação tecnológica, mas de garantir que ela opere dentro dos limites constitucionais e legais. A experiência internacional oferece lições valiosas: a União Europeia, por meio do AI Act, classificou sistemas de IA em seguros de saúde como alto risco, impondo obrigações rigorosas de conformidade. Os Estados Unidos, embora com abordagem mais fragmentada, têm intensificado a fiscalização de práticas discriminatórias algorítmicas no setor de seguros.

Para o contexto brasileiro, acreditamos que o caminho mais promissor envolve a articulação entre a LGPD, a regulação setorial da ANS e o futuro Marco Legal da IA. Essa convergência normativa deve assegurar que os algoritmos utilizados na subscrição de planos de saúde sejam transparentes, auditáveis, não discriminatórios e passíveis de contestação pelo consumidor. A proteção da saúde como direito fundamental não pode ser subordinada à lógica de otimização de lucros das operadoras, ainda que mediada por sofisticados modelos de inteligência artificial.

Reconhecemos que o equilíbrio entre inovação e proteção de direitos é complexo. Algoritmos bem projetados podem, inclusive, contribuir para a detecção precoce de doenças, a personalização de programas preventivos e a redução de custos operacionais que beneficiem o consumidor. O desafio regulatório consiste precisamente em distinguir usos legítimos de usos discriminatórios da tecnologia, criando incentivos para que as operadoras adotem práticas responsáveis de inteligência artificial.

Perguntas Frequentes

O plano de saúde pode usar inteligência artificial para definir o valor da minha mensalidade?

A utilização de IA para precificação não é proibida em si, mas deve respeitar os limites legais estabelecidos pela LGPD, pelo Código de Defesa do Consumidor e pela regulamentação da ANS. Caso o algoritmo produza resultados discriminatórios baseados em raça, gênero, condição socioeconômica ou outros critérios protegidos, a prática será considerada ilegal. O consumidor tem o direito de solicitar a revisão de qualquer decisão tomada de forma automatizada, conforme o artigo 20 da LGPD.

Como posso saber se fui discriminado por um algoritmo na contratação do plano de saúde?

Sinais de possível discriminação algorítmica incluem preços significativamente mais altos do que os praticados para pessoas com perfil de saúde semelhante, recusas de adesão sem justificativa clínica clara, ou exclusões de cobertura não previstas em contrato. O consumidor pode solicitar à operadora uma explicação detalhada sobre os critérios utilizados na decisão e, caso não obtenha resposta satisfatória, registrar reclamação junto à ANS ou ao Procon.

Quais dados pessoais as operadoras de saúde podem utilizar em seus algoritmos de precificação?

De acordo com a LGPD, dados relativos à saúde são classificados como dados pessoais sensíveis e só podem ser tratados com consentimento específico do titular ou em hipóteses legais restritas. A operadora deve informar de forma clara e acessível quais dados coleta, para quais finalidades os utiliza e com quem os compartilha. A coleta de dados de fontes externas (como redes sociais, aplicativos ou históricos de compras) sem o conhecimento e consentimento do consumidor configura violação da legislação de proteção de dados.

As informações deste artigo são de caráter informativo e não substituem consulta jurídica individualizada.

Ficou com dúvidas? Fale com um advogado especialista.

📱 Falar pelo WhatsApp

As informações deste artigo são de caráter informativo e não substituem consulta jurídica individualizada.

Posts Similares