hail damage, automobile, car roof, paint damage, bumps, dents, hailbones, hail d

Regulação de IA em Serviços de Emergência e Resgate

A inteligência artificial já auxilia no atendimento de chamadas de emergência e na coordenação de resgates, mas a ausência de regulação específica coloca em risco direitos fundamentais dos cidadãos.

O Avanço da Inteligência Artificial nos Serviços de Emergência

Nos últimos anos, presenciamos uma transformação significativa na forma como os serviços de emergência e resgate operam ao redor do mundo. Sistemas baseados em inteligência artificial passaram a ser utilizados para triagem de chamadas em centrais de atendimento (como o 192 do SAMU e o 193 do Corpo de Bombeiros), para a otimização de rotas de ambulâncias em tempo real, para a análise preditiva de áreas com maior probabilidade de desastres naturais e até mesmo para o direcionamento de drones em operações de busca e salvamento. Essa integração tecnológica promete maior agilidade, melhor alocação de recursos e, em última instância, a possibilidade de salvar mais vidas.

Entretanto, quando analisamos esse cenário sob a perspectiva jurídica, percebemos que a velocidade da inovação tecnológica supera largamente a capacidade de resposta do ordenamento jurídico. No Brasil, ainda não dispomos de uma legislação consolidada que trate especificamente do uso de inteligência artificial em serviços essenciais de emergência. O Marco Legal da Inteligência Artificial (PL 2338/2023), em tramitação no Congresso Nacional, aborda o tema de sistemas de IA de alto risco, categoria na qual os serviços de emergência se enquadram com clareza, mas seus dispositivos ainda carecem de regulamentação detalhada para o setor.

Consideramos fundamental compreender que a aplicação de IA em contextos de emergência envolve decisões que afetam diretamente a vida, a integridade física e a dignidade das pessoas. Quando um algoritmo prioriza o atendimento de determinada ocorrência em detrimento de outra, ou quando um sistema automatizado avalia a gravidade de um chamado, estamos diante de escolhas que tradicionalmente cabiam a profissionais humanos treinados. A transferência dessas decisões para sistemas automatizados exige, portanto, um arcabouço regulatório robusto que garanta transparência, responsabilização e respeito aos direitos fundamentais.

Desafios Regulatórios e o Enquadramento Jurídico Atual

O principal desafio regulatório reside na classificação dos sistemas de IA utilizados em emergências como sistemas de alto risco. Essa classificação, já presente em propostas legislativas brasileiras e em regulamentos internacionais como o AI Act da União Europeia, impõe requisitos mais rigorosos de governança, testes, auditoria e supervisão humana. No contexto brasileiro, a Constituição Federal de 1988 assegura o direito à vida (art. 5º, caput), à saúde (art. 196) e à segurança pública (art. 144), todos diretamente implicados quando falamos de serviços de emergência automatizados.

Verificamos que a Lei Geral de Proteção de Dados (Lei 13.709/2018) já oferece uma base normativa relevante, especialmente em seu artigo 20, que garante ao titular o direito de solicitar revisão de decisões tomadas unicamente com base em tratamento automatizado de dados. Quando um sistema de IA em uma central de emergência classifica a prioridade de um chamado com base em dados pessoais do solicitante (localização, histórico médico, perfil socioeconômico da região), essa decisão automatizada precisa ser passível de revisão humana significativa, não meramente formal.

Outro ponto crítico envolve a responsabilidade civil por falhas. Se um sistema de IA atrasa o envio de uma ambulância por erro de triagem algorítmica, ou se um drone de resgate orientado por IA falha em identificar uma vítima, quem responde pelos danos? O Código de Defesa do Consumidor (Lei 8.078/1990) e o Código Civil (Lei 10.406/2002) estabelecem regras de responsabilidade objetiva para prestadores de serviços, mas a cadeia de responsabilização em sistemas de IA é complexa. Ela pode envolver o desenvolvedor do algoritmo, o fornecedor da infraestrutura tecnológica, o órgão público que contratou a solução e o gestor que decidiu implementá-la sem as devidas salvaguardas.

Observamos ainda a necessidade de regulação quanto ao viés algorítmico. Sistemas de IA treinados com dados históricos podem reproduzir e amplificar desigualdades preexistentes. Se os dados de treinamento refletem um padrão de atendimento mais lento em bairros periféricos, o algoritmo pode perpetuar essa disparidade, violando o princípio da igualdade e da universalidade do atendimento de emergência. Esse risco é particularmente grave no Brasil, onde as desigualdades regionais e socioeconômicas são profundas.

A utilização de inteligência artificial em serviços de emergência exige supervisão humana efetiva e mecanismos claros de responsabilização, pois decisões algorítmicas nesse contexto afetam diretamente o direito à vida.

Supervisão Humana e Governança Algorítmica

Um dos pilares de qualquer regulação de IA em serviços de emergência deve ser a exigência de supervisão humana significativa. Não basta que um operador humano esteja presente na sala enquanto o sistema toma decisões automaticamente. A supervisão precisa ser efetiva, com capacidade real de intervenção, correção e sobreposição às decisões algorítmicas. O conceito de “human-in-the-loop” (humano no circuito decisório) precisa ser traduzido em obrigações regulatórias concretas, com requisitos mínimos de treinamento para os operadores e protocolos claros de quando e como a decisão humana prevalece sobre a sugestão algorítmica.

Analisamos que a governança algorítmica em serviços de emergência deve contemplar, no mínimo, quatro dimensões essenciais. A primeira é a transparência: os critérios utilizados pelo sistema para classificar e priorizar ocorrências precisam ser documentados e acessíveis para auditoria. A segunda é a explicabilidade: deve ser possível compreender, em termos razoáveis, por que o sistema tomou determinada decisão em cada caso concreto. A terceira é a auditabilidade: registros detalhados (logs) de todas as decisões automatizadas devem ser mantidos por período suficiente para permitir investigação posterior. A quarta é a accountability (responsabilização): deve haver designação clara de quem responde por cada etapa do processo decisório automatizado.

No âmbito municipal e estadual, onde operam os serviços de emergência no Brasil, a implementação dessas exigências demanda capacitação técnica e investimento em infraestrutura de fiscalização. Os Tribunais de Contas, as Defensorias Públicas e o Ministério Público precisam desenvolver competência técnica para auditar e fiscalizar esses sistemas. Sem essa capacidade institucional, a regulação permanece apenas no papel.

Experiências Internacionais e Perspectivas para o Brasil

Quando examinamos o panorama internacional, encontramos referências importantes para a construção de um modelo regulatório brasileiro. O AI Act da União Europeia, aprovado em 2024, classifica expressamente os sistemas de IA utilizados em serviços de emergência como de alto risco, sujeitando-os a avaliações de conformidade obrigatórias antes da implantação, monitoramento contínuo pós-implantação e obrigação de registro em bases de dados públicas. O regulamento europeu também impõe a realização de avaliações de impacto sobre direitos fundamentais antes que sistemas de IA de alto risco sejam colocados em operação.

Nos Estados Unidos, a abordagem tem sido mais fragmentada, com regulações setoriais e estaduais. Algumas jurisdições já exigem que sistemas de IA utilizados por serviços de emergência passem por certificações de desempenho e testes de viés antes da adoção. A preocupação com a equidade no atendimento tem sido central nesse debate, considerando o histórico de disparidades raciais e socioeconômicas no acesso a serviços de emergência naquele país.

Para o contexto brasileiro, entendemos que a regulação deve considerar as particularidades nacionais. O Sistema Único de Saúde (SUS), o SAMU, os Corpos de Bombeiros estaduais e as Defesas Civis municipais operam com recursos frequentemente limitados e em condições heterogêneas. A regulação de IA nesses serviços não pode impor barreiras que inviabilizem a adoção de tecnologias potencialmente benéficas, mas também não pode permitir a implementação irresponsável de sistemas que coloquem vidas em risco. O equilíbrio entre inovação e proteção de direitos exige diálogo permanente entre gestores públicos, profissionais de emergência, especialistas em tecnologia e a sociedade civil.

Destacamos também a importância da interoperabilidade dos sistemas. Em situações de desastre, diferentes órgãos (Bombeiros, SAMU, Defesa Civil, Polícia Militar) precisam atuar de forma coordenada. Se cada um adota sistemas de IA distintos, sem padrões de comunicação entre eles, o resultado pode ser mais caos em vez de mais eficiência. A regulação deve estabelecer padrões mínimos de interoperabilidade e compartilhamento de dados entre os sistemas de emergência automatizados.

Proteção de Dados e Direitos dos Cidadãos em Situações de Crise

Um aspecto que merece atenção especial é o tratamento de dados pessoais em contextos de emergência. A LGPD prevê, em seu artigo 11, inciso II, alínea “e”, a possibilidade de tratamento de dados pessoais sensíveis sem consentimento para a tutela da saúde, e em sua alínea “f”, para a proteção da vida ou da incolumidade física do titular ou de terceiro. Essas bases legais são fundamentais para viabilizar o funcionamento de sistemas de IA em emergências, que inevitavelmente processam dados sensíveis como localização em tempo real, condições de saúde e informações biométricas.

Contudo, a existência de base legal para o tratamento não elimina a necessidade de observância dos princípios da LGPD, como finalidade, adequação, necessidade e segurança. Verificamos que sistemas de IA em emergências devem coletar apenas os dados estritamente necessários para a operação, mantê-los protegidos contra acessos indevidos e descartá-los após o cumprimento da finalidade, respeitados os prazos legais de retenção. A tentação de utilizar dados coletados em emergências para finalidades secundárias (perfilamento, policiamento preditivo, vigilância) deve ser expressamente vedada pela regulação.

Consideramos igualmente relevante o direito à informação do cidadão. Quando uma pessoa liga para um serviço de emergência e sua chamada é processada por um sistema de IA, ela tem o direito de saber que uma decisão automatizada está sendo tomada a seu respeito. Em situações de crise aguda, essa informação pode não ser viável no momento do atendimento, mas deve ser disponibilizada posteriormente, junto com a possibilidade de revisão da decisão e de acesso aos dados utilizados.

A proteção de grupos vulneráveis merece atenção redobrada. Idosos, pessoas com deficiência, comunidades indígenas, populações ribeirinhas e moradores de áreas de difícil acesso frequentemente enfrentam barreiras adicionais no acesso a serviços de emergência. Sistemas de IA mal calibrados podem agravar essas barreiras. A regulação deve exigir testes específicos de desempenho com esses grupos e mecanismos de acessibilidade que garantam que a tecnologia não aprofunde exclusões já existentes.

Perguntas Frequentes

A inteligência artificial pode tomar decisões autônomas em serviços de emergência no Brasil?

Atualmente, não existe legislação brasileira que autorize ou proíba expressamente decisões totalmente autônomas de IA em serviços de emergência. Contudo, o ordenamento jurídico vigente, especialmente a LGPD (art. 20) e os princípios constitucionais de proteção à vida e à dignidade, impõe a necessidade de supervisão humana efetiva em decisões que afetem direitos fundamentais. A tendência regulatória, tanto no Brasil quanto internacionalmente, é exigir que sistemas de IA em emergências operem como ferramentas de apoio à decisão humana, não como substitutos dela.

Quem é responsável se um sistema de IA falhar durante um atendimento de emergência?

A responsabilidade por falhas de sistemas de IA em emergências pode recair sobre múltiplos agentes, dependendo das circunstâncias. O órgão público que contratou e implementou o sistema responde objetivamente pela prestação do serviço (art. 37, §6º da Constituição Federal). O desenvolvedor e o fornecedor da tecnologia podem ser responsabilizados com base no Código de Defesa do Consumidor e no Código Civil. A análise do caso concreto determinará a parcela de responsabilidade de cada envolvido na cadeia, incluindo eventual negligência na supervisão humana ou na manutenção do sistema.

Como a LGPD se aplica ao uso de dados pessoais em sistemas de emergência com IA?

A LGPD permite o tratamento de dados pessoais sensíveis sem consentimento quando necessário para a tutela da saúde ou proteção da vida (art. 11, II, alíneas “e” e “f”), o que viabiliza o funcionamento de sistemas de IA em emergências. Todavia, essa autorização não dispensa o cumprimento dos demais princípios da lei, como finalidade, necessidade e segurança. Os dados coletados durante o atendimento de emergência devem ser utilizados exclusivamente para essa finalidade, protegidos contra acessos indevidos e descartados após o período de retenção legalmente necessário.

As informações deste artigo são de caráter informativo e não substituem consulta jurídica individualizada.

Ficou com dúvidas? Fale com um advogado especialista.

📱 Falar pelo WhatsApp

As informações deste artigo são de caráter informativo e não substituem consulta jurídica individualizada.

Posts Similares