Regulação de IA em Testes Genéticos e Medicina Personalizada
A inteligência artificial aplicada a testes genéticos e medicina personalizada avança rapidamente, mas o arcabouço regulatório brasileiro ainda busca acompanhar os desafios éticos e jurídicos dessa revolução na saúde.
O Avanço da Inteligência Artificial na Genômica e seus Reflexos Jurídicos
Nos últimos anos, presenciamos uma transformação profunda na forma como a medicina utiliza dados genéticos para diagnósticos, prognósticos e tratamentos individualizados. Algoritmos de inteligência artificial passaram a desempenhar papel central na interpretação de sequenciamentos genômicos, na identificação de variantes patogênicas e na sugestão de terapias personalizadas com base no perfil genético de cada paciente. Esse cenário, que há pouco tempo parecia restrito à ficção científica, já é realidade em laboratórios e centros de pesquisa no Brasil e no mundo.
Do ponto de vista jurídico, a convergência entre IA e genômica levanta questões que atravessam múltiplas áreas do direito. Estamos diante de um campo em que proteção de dados pessoais sensíveis, direito à privacidade, regulação sanitária, responsabilidade civil e bioética se entrelaçam de maneira complexa. A Lei Geral de Proteção de Dados (LGPD, Lei nº 13.709/2018) classifica dados genéticos como dados pessoais sensíveis, o que impõe obrigações mais rigorosas para seu tratamento, armazenamento e compartilhamento. Entretanto, a legislação vigente não foi concebida para lidar especificamente com as particularidades dos sistemas de IA que processam essas informações.
Observamos que o Projeto de Lei nº 2.338/2023, que busca estabelecer o Marco Legal da Inteligência Artificial no Brasil, traz disposições relevantes sobre classificação de risco de sistemas de IA. Aplicações na área de saúde, especialmente aquelas que envolvem diagnósticos e decisões clínicas, tendem a ser enquadradas como sistemas de alto risco, exigindo maior transparência, rastreabilidade e supervisão humana. No entanto, a regulamentação específica para o uso de IA em testes genéticos ainda carece de detalhamento normativo.
Dados Genéticos como Dados Sensíveis: Implicações para Sistemas de IA
Quando analisamos o tratamento de dados genéticos por sistemas de inteligência artificial, identificamos uma camada adicional de complexidade em relação a outros dados de saúde. Informações genéticas possuem características únicas: são imutáveis ao longo da vida do indivíduo, revelam predisposições a doenças futuras, têm implicações diretas para familiares biológicos (que não consentiram com o tratamento) e podem ser utilizadas para finalidades discriminatórias em contextos como seguros, emprego e crédito.
A LGPD estabelece, em seu artigo 11, que o tratamento de dados sensíveis somente pode ocorrer com consentimento específico e destacado do titular ou, sem consentimento, em hipóteses taxativas como proteção da vida, tutela da saúde e realização de estudos por órgão de pesquisa. Contudo, verificamos que a aplicação dessas bases legais ao contexto de sistemas de IA que processam dados genéticos apresenta lacunas significativas. Como garantir que o consentimento seja verdadeiramente informado quando o próprio funcionamento do algoritmo é opaco? Como assegurar a minimização de dados quando os modelos de machine learning frequentemente demandam volumes massivos de informações para operar com precisão?
A Autoridade Nacional de Proteção de Dados (ANPD) tem emitido orientações sobre o uso de IA em relação a dados pessoais, mas até o momento não publicou regulamentação específica sobre dados genéticos processados por algoritmos. Esse vácuo regulatório cria insegurança jurídica tanto para empresas de biotecnologia quanto para profissionais de saúde que utilizam ferramentas baseadas em IA para interpretar resultados de testes genéticos. Consideramos essencial que a regulamentação futura contemple regras claras sobre anonimização efetiva de dados genômicos (cuja reidentificação é tecnicamente possível mesmo após processos de desidentificação), períodos de retenção, direito ao apagamento e portabilidade de dados genéticos entre plataformas.
Responsabilidade Civil e Supervisão Humana em Decisões Clínicas Algorítmicas
Um dos pontos mais sensíveis na regulação de IA em medicina personalizada diz respeito à responsabilidade civil quando um sistema algorítmico contribui para uma decisão clínica equivocada. Se um algoritmo de IA interpreta incorretamente uma variante genética e sugere um tratamento inadequado (ou deixa de identificar uma predisposição relevante), quem responde pelo dano ao paciente? O médico que confiou na ferramenta? O laboratório que a adotou? O desenvolvedor do software? O hospital que implementou o sistema?
O ordenamento jurídico brasileiro, por meio do Código de Defesa do Consumidor e do Código Civil, já oferece instrumentos para a responsabilização em relações de consumo e prestação de serviços de saúde. No entanto, a introdução de um agente algorítmico na cadeia de decisão clínica torna a aferição de nexo causal e a identificação do responsável consideravelmente mais difíceis. Analisamos que o PL 2.338/2023 propõe a responsabilidade do fornecedor do sistema de IA, mas a delimitação dessa responsabilidade em contextos médicos ainda demanda debate aprofundado.
A exigência de supervisão humana significativa (e não meramente formal) é outro aspecto que merece atenção regulatória. Não basta que um profissional de saúde “valide” automaticamente os resultados gerados pela IA sem compreender o raciocínio subjacente. A supervisão deve ser efetiva, o que pressupõe que o médico tenha acesso a explicações compreensíveis sobre como o algoritmo chegou àquela conclusão. Nesse sentido, o direito à explicação previsto na LGPD (artigo 20) ganha relevância especial: o titular dos dados tem direito a solicitar a revisão de decisões automatizadas que afetem seus interesses, incluindo informações sobre os critérios e procedimentos utilizados.
Verificamos que organismos internacionais, como a Organização Mundial da Saúde (OMS), já publicaram diretrizes sobre ética e governança de IA em saúde, enfatizando a necessidade de transparência algorítmica, equidade no acesso e proteção contra vieses discriminatórios. Esses princípios, embora não vinculantes, servem como referência para a construção de marcos regulatórios nacionais mais robustos.
A regulação de IA em testes genéticos precisa equilibrar o estímulo à inovação com a proteção de direitos fundamentais, garantindo que o avanço tecnológico não se sobreponha à dignidade e à autodeterminação informacional dos pacientes.
Vieses Algorítmicos e Equidade em Saúde Genômica
Uma preocupação central que identificamos na aplicação de IA à genômica diz respeito aos vieses presentes nos dados de treinamento dos algoritmos. Historicamente, os grandes bancos de dados genômicos foram construídos com predominância de amostras de populações de ascendência europeia. Isso significa que modelos de IA treinados nesses conjuntos de dados podem apresentar desempenho inferior ao analisar genomas de indivíduos de outras ancestralidades, incluindo a população brasileira (caracterizada por alta diversidade genética e miscigenação).
Esse viés não é apenas uma questão técnica; é uma questão de justiça e de direitos fundamentais. Se um sistema de IA falha em identificar uma variante patogênica em um paciente por causa de sua ancestralidade, estamos diante de uma forma de discriminação algorítmica com consequências potencialmente graves para a saúde e a vida desse indivíduo. A Constituição Federal de 1988 consagra o direito à saúde (artigo 196) e o princípio da igualdade (artigo 5º), e qualquer sistema tecnológico utilizado no âmbito da saúde deve operar em conformidade com esses mandamentos constitucionais.
Consideramos que a regulação brasileira de IA em genômica deve incorporar obrigações específicas de auditoria de vieses, com avaliações periódicas do desempenho dos algoritmos em diferentes grupos populacionais. A Agência Nacional de Vigilância Sanitária (ANVISA), responsável pelo registro de dispositivos médicos (incluindo softwares como dispositivos médicos, os chamados SaMD), precisa desenvolver critérios técnicos que contemplem a diversidade genética da população brasileira nos processos de validação e aprovação de sistemas de IA para diagnóstico genético.
Além disso, a transparência sobre as limitações dos modelos de IA é fundamental. Profissionais de saúde e pacientes precisam ser informados quando um sistema algorítmico tem desempenho validado apenas em determinados grupos populacionais, para que possam tomar decisões clínicas com plena ciência dessas restrições.
Perspectivas Regulatórias e Caminhos para o Futuro
Ao examinarmos o cenário regulatório internacional, percebemos que diferentes jurisdições estão adotando abordagens distintas para a regulação de IA em saúde e genômica. A União Europeia, por meio do AI Act (Regulamento de Inteligência Artificial), classificou aplicações de IA em saúde como alto risco e estabeleceu requisitos detalhados de conformidade, incluindo avaliações de impacto, documentação técnica obrigatória e monitoramento pós-comercialização. Os Estados Unidos, por sua vez, têm adotado uma abordagem mais setorial, com a FDA (Food and Drug Administration) desenvolvendo frameworks específicos para a aprovação de softwares de IA como dispositivos médicos.
No Brasil, entendemos que a regulação eficaz de IA em testes genéticos e medicina personalizada exige uma abordagem multissetorial e coordenada. A ANPD, a ANVISA, o Conselho Federal de Medicina (CFM) e o Ministério da Saúde precisam atuar de forma articulada para construir um arcabouço normativo que contemple as múltiplas dimensões do problema: proteção de dados, segurança do paciente, qualidade do dispositivo médico, ética profissional e acesso equitativo.
Destacamos alguns elementos que consideramos essenciais para uma regulação adequada nesse campo. Em primeiro lugar, a exigência de avaliações de impacto algorítmico antes da implantação de sistemas de IA em contextos de diagnóstico genético, com análise de riscos para diferentes grupos populacionais. Em segundo lugar, a criação de sandboxes regulatórios que permitam a experimentação controlada de novas tecnologias, com supervisão das autoridades competentes. Em terceiro lugar, o estabelecimento de padrões de interoperabilidade e portabilidade de dados genômicos, para evitar o aprisionamento tecnológico (lock-in) e garantir a autonomia dos pacientes sobre suas próprias informações genéticas.
Por fim, ressaltamos que a regulação de IA em genômica não pode ser pensada isoladamente do debate mais amplo sobre acesso à saúde e justiça social. A medicina personalizada baseada em IA tem o potencial de beneficiar enormemente a sociedade, mas também corre o risco de aprofundar desigualdades se permanecer acessível apenas a uma parcela privilegiada da população. Uma regulação verdadeiramente comprometida com o interesse público deve contemplar mecanismos que promovam a democratização dessas tecnologias no âmbito do Sistema Único de Saúde (SUS), garantindo que os avanços da genômica computacional alcancem todos os brasileiros.
Perguntas Frequentes
Os dados genéticos analisados por inteligência artificial são protegidos pela LGPD?
Sim, a LGPD classifica dados genéticos como dados pessoais sensíveis (artigo 5º, inciso II), o que impõe regras mais rigorosas para seu tratamento. Isso significa que o uso de IA para processar informações genômicas exige, em regra, consentimento específico e destacado do titular, além de medidas reforçadas de segurança, transparência sobre a finalidade do tratamento e garantia do direito à revisão de decisões automatizadas.
Quem é responsável se um sistema de IA errar na interpretação de um teste genético?
A responsabilidade pode recair sobre diferentes agentes da cadeia, incluindo o desenvolvedor do software, o laboratório que adotou a ferramenta e o profissional de saúde que utilizou o resultado sem a devida supervisão crítica. O ordenamento brasileiro prevê responsabilidade objetiva nas relações de consumo e a legislação em discussão sobre IA (PL 2.338/2023) propõe regras específicas de responsabilização, mas a definição precisa dependerá das circunstâncias de cada caso e da evolução normativa.
Os algoritmos de IA em genômica podem apresentar vieses discriminatórios?
Sim, e esse é um dos principais desafios regulatórios na área. Muitos algoritmos foram treinados predominantemente com dados de populações de ascendência europeia, o que pode comprometer a precisão dos resultados para indivíduos de outras ancestralidades. No contexto brasileiro, com sua alta diversidade genética, esse viés é especialmente preocupante e demanda que a regulação exija auditorias periódicas de desempenho em diferentes grupos populacionais.
As informações deste artigo são de caráter informativo e não substituem consulta jurídica individualizada.
Receba novidades no WhatsApp e/ou e-mail
Cadastre-se gratuitamente para receber nossos novos artigos.
Seus dados estão protegidos conforme a LGPD.
Ficou com dúvidas? Fale com um advogado especialista.
📱 Falar pelo WhatsAppAs informações deste artigo são de caráter informativo e não substituem consulta jurídica individualizada.





