Responsabilidade do Desenvolvedor de IA: Cadeia de Responsabilização
Agora tenho todo o contexto necessário. Vou gerar o artigo completo.
—
“`html
Com sistemas de inteligência artificial tomando decisões que afetam contratos, empregos e liberdades individuais, a pergunta que o direito precisa responder com urgência é: quando algo dá errado, quem responde?
Vivemos um momento singular na história do direito. A inteligência artificial deixou os laboratórios de pesquisa e passou a habitar o cotidiano das relações jurídicas: algoritmos decidem sobre concessão de crédito, sistemas automatizados filtram currículos, modelos preditivos orientam decisões judiciais e ferramentas de IA generativa produzem contratos, pareceres e análises de risco. Toda essa automação traz ganhos inegáveis de eficiência, mas também cria um problema jurídico de primeira grandeza: a responsabilidade civil quando esses sistemas causam danos.
Neste artigo, analisamos como o direito brasileiro enfrenta esse desafio, quem são os agentes que integram a cadeia de responsabilização do desenvolvedor de IA e quais os principais fundamentos jurídicos disponíveis hoje para a tutela das pessoas lesadas.
A Cadeia de Agentes na Produção de Sistemas de IA
Para compreender a responsabilidade, precisamos primeiro mapear quem está envolvido na criação e na operação de um sistema de inteligência artificial. Diferentemente de um produto industrial tradicional, um sistema de IA passa por múltiplas mãos antes de chegar ao usuário final, e cada elo dessa cadeia pode, em tese, ser responsabilizado por danos.
Identificamos ao menos quatro categorias de agentes relevantes:
Desenvolvedor ou criador do modelo: é a pessoa física ou jurídica que projeta a arquitetura do sistema, realiza o treinamento com dados e disponibiliza o modelo base. Aqui se encontram desde grandes corporações de tecnologia até startups e pesquisadores independentes.
Fornecedor de dados de treinamento: os dados utilizados para treinar um modelo são determinantes para seu comportamento. Conjuntos de dados enviesados, desatualizados ou obtidos de forma ilícita podem ser fonte autônoma de responsabilidade.
Integrador ou deployer: é quem toma o modelo base e o adapta para uma aplicação específica, seja incorporando-o a um produto, ajustando seus parâmetros ou o disponibilizando como serviço. Em muitos casos, o integrador é o elo com maior contato com o usuário final.
Operador e usuário empresarial: empresas que utilizam sistemas de IA em seus processos internos ou para prestar serviços a terceiros também integram a cadeia. Uma empresa de RH que usa um sistema de triagem curricular automatizada, por exemplo, pode ser solidariamente responsável por discriminação algorítmica.
A multiplicidade de agentes na cadeia de produção da IA não pode ser usada como escudo para diluir responsabilidades: o direito brasileiro já oferece instrumentos para responsabilizar solidariamente todos os que contribuíram para o dano.
Fundamentos Jurídicos da Responsabilização no Direito Brasileiro
O Brasil ainda não possui uma lei geral de inteligência artificial em vigor. O Projeto de Lei 2.338/2023, aprovado pelo Senado em dezembro de 2024, estabelece um marco regulatório abrangente, mas sua tramitação na Câmara dos Deputados ainda está em curso ao tempo da elaboração deste artigo. Diante dessa lacuna legislativa, o operador do direito precisa trabalhar com o arcabouço normativo vigente.
Código de Defesa do Consumidor (Lei 8.078/1990): quando o sistema de IA é utilizado em relação de consumo, o CDC incide com toda sua força. O artigo 12 prevê responsabilidade objetiva do fabricante pelo fato do produto, enquanto o artigo 14 faz o mesmo em relação ao prestador de serviços. Isso significa que, nas relações de consumo, não é necessário provar culpa do desenvolvedor: basta demonstrar o dano, o defeito e o nexo de causalidade.
Código Civil (Lei 10.406/2002): fora das relações de consumo, aplicam-se as regras gerais de responsabilidade civil. O artigo 186, combinado com o artigo 927, estabelece a responsabilidade subjetiva como regra. Contudo, o parágrafo único do artigo 927 abre espaço para responsabilidade objetiva quando a atividade desenvolvida pelo agente, por sua natureza, implicar risco especial para terceiros. Há sólidos argumentos para enquadrar o desenvolvimento de sistemas de IA de alto risco nessa categoria.
Lei Geral de Proteção de Dados (Lei 13.709/2018): a LGPD traz uma disposição particularmente relevante para o tema. O artigo 20 assegura ao titular o direito de solicitar revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais, incluindo aquelas destinadas a definir o perfil pessoal profissional, de consumo, de crédito ou aspectos da personalidade do titular. O artigo 42 impõe ao controlador e ao operador o dever de reparar danos patrimoniais, morais, individuais ou coletivos decorrentes do tratamento irregular de dados.
Marco Civil da Internet (Lei 12.965/2014): aplicável quando o sistema de IA opera no ambiente digital e os danos decorrem de conteúdo gerado ou veiculado online, o Marco Civil traz regras sobre responsabilidade de provedores que podem ser utilizadas de forma complementar.
Responsabilidade Objetiva versus Subjetiva: O Debate Central
Um dos pontos mais controvertidos na doutrina jurídica sobre IA é a escolha entre os modelos de responsabilidade objetiva e subjetiva. Cada abordagem tem implicações práticas profundas para as vítimas de danos causados por sistemas automatizados.
A responsabilidade subjetiva exige que o lesado prove não apenas o dano e o nexo causal, mas também a culpa do agente, seja por negligência, imprudência ou imperícia. Em se tratando de sistemas de IA, essa prova se torna frequentemente impossível ou proibitivamente custosa para o consumidor comum. Como uma vítima de discriminação algorítmica teria acesso ao código-fonte, aos dados de treinamento e à documentação técnica necessária para demonstrar a falha do sistema?
Por essa razão, parte expressiva da doutrina e das propostas regulatórias caminha em direção à responsabilidade objetiva para sistemas de IA classificados como de alto risco. Esse modelo transfere o ônus probatório: o desenvolvedor ou operador deve provar que adotou todas as medidas razoáveis para evitar o dano, não o contrário.
O PL 2.338/2023, em sua versão aprovada pelo Senado, adota justamente essa lógica: para sistemas de IA de alto risco, a responsabilidade do fornecedor é objetiva, salvo prova de que o dano decorreu exclusivamente de culpa da vítima ou de terceiros. Para sistemas de risco limitado ou mínimo, mantém-se a regra subjetiva.
A opacidade algorítmica, a chamada “caixa-preta” dos sistemas de IA, não pode ser usada como argumento para afastar a responsabilização: o direito à explicabilidade é cada vez mais reconhecido como um direito fundamental nas relações digitais.
Desafios Probatórios e o Direito à Explicabilidade
Mesmo reconhecido o fundamento jurídico adequado, a efetiva responsabilização dos agentes da cadeia de IA enfrenta obstáculos práticos consideráveis. O principal deles é a opacidade dos sistemas: muitos modelos de aprendizado de máquina, especialmente as redes neurais profundas, não permitem que nem mesmo seus criadores expliquem com precisão por que chegaram a determinada conclusão ou decisão.
Esse fenômeno, conhecido como “caixa-preta” da IA, cria um problema de prova que o direito precisa endereçar de forma criativa. Algumas abordagens que analisamos como promissoras no contexto brasileiro:
Inversão do ônus da prova: o artigo 6º, inciso VIII, do CDC já prevê essa possibilidade nas relações de consumo, quando a prova for de difícil ou impossível produção pelo consumidor. O mesmo raciocínio pode ser transplantado para outras situações via analogia ou argumentação teleológica.
Direito à explicação: o artigo 20 da LGPD cria um embrião do direito à explicabilidade no direito brasileiro. O titular pode exigir informações claras e adequadas sobre os critérios e os procedimentos utilizados para a decisão automatizada. Essa obrigação de transparência é também um instrumento probatório: sua violação pode ser usada como indício de responsabilidade.
Auditorias obrigatórias: o PL 2.338/2023 prevê, para sistemas de alto risco, a obrigação de manter documentação técnica detalhada e submeter-se a avaliações de conformidade. Esse conjunto documental pode ser requisitado judicialmente para subsidiar a prova do dano e do nexo causal.
Perícia técnica especializada: em ações judiciais envolvendo IA, a perícia técnica adquire papel central. O desenvolvimento de um corpo de peritos capacitados para analisar sistemas de IA é um desafio institucional que o Judiciário precisará enfrentar nos próximos anos.
Perguntas Frequentes sobre Responsabilidade por IA
Quem pode ser responsabilizado quando um sistema de IA causa dano?
A responsabilidade pode recair sobre qualquer agente da cadeia: o desenvolvedor do modelo, o fornecedor dos dados de treinamento, o integrador que adaptou o sistema para uso específico e o operador que o utiliza em seus processos. Em muitos casos, a responsabilidade é solidária, permitindo que a vítima acione qualquer um dos agentes pelo valor integral do dano.
A LGPD protege pessoas lesadas por decisões automatizadas de IA?
Sim. O artigo 20 da LGPD garante o direito de solicitar revisão de decisões tomadas exclusivamente com base em tratamento automatizado de dados pessoais. Além disso, o artigo 42 responsabiliza controladores e operadores por danos decorrentes do tratamento irregular de dados, o que abrange decisões automatizadas que utilizem dados pessoais de forma indevida.
Como provar o dano causado por um algoritmo se o sistema é uma “caixa-preta”?
O direito brasileiro oferece algumas ferramentas: a inversão do ônus da prova nas relações de consumo (CDC, art. 6º, VIII), o direito à explicação previsto na LGPD (art. 20), requisição judicial de documentação técnica e a realização de perícia técnica especializada. O Projeto de Lei 2.338/2023, em tramitação na Câmara, também prevê obrigações de documentação que facilitariam a produção de provas.
O Brasil já tem uma lei específica sobre responsabilidade por IA?
Ainda não. O Projeto de Lei 2.338/2023 foi aprovado pelo Senado em dezembro de 2024 e aguarda votação na Câmara dos Deputados. Enquanto isso, aplicam-se o Código Civil, o Código de Defesa do Consumidor, a LGPD e o Marco Civil da Internet, conforme o contexto de cada caso.
As informações deste artigo são de caráter informativo e não substituem consulta jurídica individualizada.
“`
Receba novidades no WhatsApp e/ou e-mail
Cadastre-se gratuitamente para receber nossos novos artigos.
Seus dados estão protegidos conforme a LGPD.
Ficou com dúvidas? Fale com um advogado especialista.
📱 Falar pelo WhatsAppAs informações deste artigo são de caráter informativo e não substituem consulta jurídica individualizada.