IA e Concorrência: Colusão Algorítmica e Antitruste
“`html
O Que é Colusão Algorítmica e Por Que Ela Preocupa
O direito da concorrência foi construído sobre uma premissa bastante clara: empresas que atuam no mesmo mercado não podem combinar preços, dividir clientes ou adotar práticas coordenadas que eliminem a rivalidade natural entre elas. Essa proibição está consolidada na Lei 12.529/2011, que estrutura o Sistema Brasileiro de Defesa da Concorrência (SBDC), e encontra paralelo na legislação antitruste de praticamente todos os países com economias de mercado.
O problema que surge com a difusão de algoritmos de precificação dinâmica e sistemas de recomendação baseados em aprendizado de máquina é que a coordenação entre concorrentes pode acontecer sem que haja qualquer reunião secreta, troca de e-mails comprometedores ou acordo verbal entre executivos. O algoritmo aprende com o comportamento dos rivais, adapta sua estratégia e, em certas condições de mercado, encontra um equilíbrio que favorece todos os participantes em detrimento dos consumidores.
Esse fenômeno recebe o nome de colusão algorítmica tácita ou colusão algorítmica autônoma, dependendo do grau de intencionalidade humana envolvida. A distinção importa muito para o direito, porque as ferramentas tradicionais de persecução antitruste foram desenhadas para identificar e punir acordos, e não comportamentos emergentes de sistemas que ninguém programou explicitamente para colidir.
Podemos identificar, de forma didática, ao menos quatro cenários em que algoritmos podem gerar efeitos anticompetitivos:
- Mensageiro: uma empresa usa algoritmo para comunicar sua estratégia de preços ao mercado de forma mais rápida e previsível, facilitando a coordenação com rivais que respondem da mesma forma;
- Hub and spoke: múltiplos concorrentes usam o mesmo software de precificação de um fornecedor comum, e o fornecedor funciona como eixo de uma coordenação indireta;
- Paralelo consciente: algoritmos que monitoram preços dos concorrentes em tempo real e respondem automaticamente, criando um equilíbrio colusivo sem comunicação explícita;
- Colusão autônoma: sistemas de aprendizado por reforço que descobrem, por conta própria, que a cooperação tácita maximiza lucros, chegando a esse resultado sem qualquer instrução humana nesse sentido.
O quarto cenário é o mais desafiador do ponto de vista jurídico. Se nenhum humano decidiu colidir, mas o resultado prático é equivalente a um cartel, qual é a responsabilidade das empresas? Essa pergunta ainda não tem resposta definitiva em nenhum ordenamento jurídico do mundo.
O Estado Atual da Regulação: Lacunas e Primeiros Movimentos
No Brasil, o Conselho Administrativo de Defesa Econômica (CADE) ainda não julgou nenhum caso paradigmático de colusão algorítmica pura, mas a instituição já demonstrou atenção ao tema. Em documentos técnicos e participações em fóruns internacionais, o CADE reconhece que os instrumentos atuais de análise precisam ser adaptados para lidar com comportamentos emergentes de sistemas de IA.
A Lei 12.529/2011 tipifica como infração à ordem econômica os atos que tenham por objeto ou possam produzir efeitos de dominação de mercados, eliminação da concorrência e aumento arbitrário de lucros. A redação é suficientemente aberta para, em tese, alcançar práticas mediadas por algoritmos. O grande problema é probatório: como demonstrar que houve coordenação, e não mera convergência de comportamentos racionais em um mercado oligopolístico?
Nos Estados Unidos, o Departamento de Justiça e a Comissão Federal de Comércio (FTC) já investigaram casos envolvendo algoritmos de precificação, especialmente no setor de aluguéis residenciais de curta temporada. A teoria adotada foi a de que o compartilhamento de dados sensíveis com uma plataforma comum que depois os devolve como recomendações de preço configura um acordo anticompetitivo, ainda que intermediado por software.
A União Europeia avançou de forma mais sistemática. O Regulamento de Mercados Digitais (Digital Markets Act, DMA) e o Regulamento de Serviços Digitais (Digital Services Act, DSA) criam obrigações específicas para grandes plataformas e estabelecem um marco para auditabilidade algorítmica. A proposta de Regulamento de Inteligência Artificial (EU AI Act), em vigor desde 2024, classifica sistemas de IA usados em precificação como potencialmente de alto risco quando aplicados em infraestruturas críticas, exigindo transparência e documentação técnica.
No Brasil, o Marco Legal da Inteligência Artificial ainda está em processo legislativo. O PL 2338/2023, aprovado pelo Senado em 2024 e em análise na Câmara dos Deputados, estabelece diretrizes gerais para o desenvolvimento e uso de IA no país, incluindo princípios de transparência, responsabilização e não discriminação. O texto, contudo, não aborda diretamente o problema da colusão algorítmica, deixando essa questão para ser tratada pelas autoridades setoriais e pelo CADE.
A ANPD, por sua vez, tem competência para fiscalizar o uso de dados pessoais em sistemas automatizados de decisão, com base na Lei Geral de Proteção de Dados (Lei 13.709/2018). O artigo 20 da LGPD garante ao titular o direito de solicitar revisão de decisões tomadas exclusivamente com base em tratamento automatizado. Essa previsão cria uma interface importante entre proteção de dados e direito concorrencial, especialmente quando algoritmos de precificação utilizam dados pessoais para discriminar consumidores por disposição a pagar.
Desafios Probatórios e Novos Critérios de Análise
Um dos maiores desafios para as autoridades antitruste é provar a existência de coordenação em casos de colusão algorítmica. Nos cartéis tradicionais, as evidências costumam incluir comunicações entre as partes, reuniões documentadas e movimentos de preços correlacionados que não se explicam por fatores de mercado. Com algoritmos, a correlação de preços pode ser perfeitamente explicada por respostas independentes e racionais a sinais de mercado comuns.
A doutrina antitruste discute se o paralelo consciente, isto é, a adaptação de comportamento com base na observação dos rivais sem comunicação direta, deveria ser suficiente para caracterizar infração. A posição predominante, inclusive no Brasil, é que o paralelismo puro não basta: é necessário demonstrar a presença de fatores adicionais, como comportamento que somente faria sentido no contexto de um acordo tácito.
Algoritmos de aprendizado de máquina complicam essa análise porque criam uma espécie de “comunicação sem comunicação”. O sistema aprende qual é a resposta esperada dos rivais antes de tomar sua própria decisão, e esse processo de antecipação pode ser funcionalmente equivalente a uma coordenação explícita, sem que haja qualquer elemento humano de deliberação conjunta.
Pesquisadores em economia e ciência da computação têm proposto algumas abordagens para lidar com esse problema. Uma delas é o uso de simulações de mercado para testar se os padrões de precificação observados são consistentes com comportamento independente ou com coordenação. Outra é a análise das especificações técnicas dos algoritmos, com o objetivo de verificar se foram projetados para monitorar e responder a preços de concorrentes de forma que facilite a coordenação.
Essa segunda abordagem levanta questões delicadas sobre segredos comerciais e propriedade intelectual. Empresas naturalmente resistem a revelar o código-fonte de seus sistemas de precificação. Daí a importância de regimes de auditoria técnica independente, como os previstos no EU AI Act para sistemas de alto risco, que permitem a verificação por terceiros sem exposição pública do código.
No Brasil, o CADE tem poder de requisitar documentos e informações no âmbito de investigações administrativas. A questão é se esse poder é suficiente para acessar e compreender sistemas de IA complexos, o que normalmente exigiria equipes técnicas especializadas que as autoridades brasileiras ainda estão construindo.
Responsabilidade Empresarial e Boas Práticas de Compliance
Diante desse cenário de incerteza regulatória, empresas que utilizam algoritmos de precificação ou recomendação em mercados com concorrência relevante precisam adotar medidas proativas de compliance concorrencial. A premissa central é que a delegação de decisões estratégicas a sistemas automatizados não elimina a responsabilidade jurídica da empresa por seus efeitos no mercado.
O CADE, seguindo orientação de organismos internacionais como a OCDE e o International Competition Network, reconhece que empresas podem ser responsabilizadas por práticas anticompetitivas perpetradas ou facilitadas por seus algoritmos, especialmente quando havia conhecimento dos riscos e ausência de controles adequados.
As boas práticas de compliance nessa área incluem, entre outras medidas:
- Documentação técnica detalhada dos algoritmos de precificação, incluindo suas fontes de dados e lógica de decisão;
- Avaliação periódica de impacto concorrencial, verificando se os padrões de preço gerados pelo sistema são consistentes com comportamento competitivo independente;
- Restrições ao uso de dados sobre preços de concorrentes como insumo direto para decisões de precificação;
- Governança clara sobre a contratação de plataformas de precificação compartilhadas, com análise prévia dos riscos de hub and spoke;
- Treinamento das equipes de tecnologia e negócios sobre os limites legais do uso de dados competitivos em sistemas automatizados.
É importante notar que a regulação brasileira ainda não estabelece obrigações específicas de compliance algorítmico para fins concorrenciais. As medidas acima decorrem de uma leitura preventiva das normas gerais da Lei 12.529/2011 combinada com as tendências internacionais de enforcement. Empresas que atuam em mercados digitais com dimensão internacional, contudo, precisam considerar também as exigências do DMA europeu e das regulações norte-americanas, que são mais detalhadas.
O setor de e-commerce é especialmente relevante para essa discussão no Brasil, dado o crescimento acelerado do comércio eletrônico e a difusão de ferramentas de repricing dinâmico. Plataformas de marketplace que simultaneamente vendem produtos próprios e hospedam vendedores terceiros estão sujeitas a um risco adicional: o uso de dados dos vendedores para informar seus próprios algoritmos de precificação pode configurar abuso de posição dominante, independentemente de qualquer efeito colusivo.
Colusão algorítmica já é ilegal no Brasil?
A Lei 12.529/2011 proíbe atos que limitem a concorrência ou resultem em dominação de mercados, e essa proibição pode alcançar práticas mediadas por algoritmos. No entanto, não existe ainda uma norma específica sobre colusão algorítmica no direito brasileiro, nem precedentes administrativos consolidados do CADE sobre o tema. A aplicação da lei a casos concretos dependerá do desenvolvimento de critérios técnicos e jurídicos ainda em construção, tanto no Brasil quanto internacionalmente. O PL 2338/2023 (Marco Legal da IA), em análise na Câmara, não trata diretamente do assunto.
Uma empresa pode ser responsabilizada pelo comportamento de seu algoritmo mesmo sem intenção de colidir?
Essa é uma das questões mais debatidas na doutrina antitruste atual. A posição predominante entre autoridades de defesa da concorrência e organismos internacionais como a OCDE é que a ausência de intenção explícita não é, por si só, uma defesa suficiente quando a empresa conhecia os riscos concorrenciais do sistema e não adotou salvaguardas adequadas. A responsabilidade tende a ser avaliada com base no design do algoritmo, nas fontes de dados utilizadas e na existência ou não de controles internos. Cada caso será analisado individualmente pelas autoridades competentes.
O que é o modelo hub and spoke em algoritmos de precificação?
O modelo hub and spoke descreve uma situação em que múltiplos concorrentes (os “spokes”) utilizam o mesmo serviço ou plataforma de precificação (o “hub”), que coleta dados de todos eles e devolve recomendações de preço. Esse arranjo pode funcionar como um mecanismo de coordenação indireta: cada empresa recebe uma recomendação que implicitamente leva em conta as estratégias das rivais, gerando convergência de preços sem que haja contato direto entre os concorrentes. Autoridades nos EUA e na Europa já investigaram casos nesse modelo, especialmente no setor de aluguéis de curta temporada.
Como a LGPD se relaciona com a colusão algorítmica?
A LGPD garante ao consumidor o direito de solicitar revisão de decisões tomadas exclusivamente com base em tratamento automatizado (artigo 20). Quando algoritmos de precificação utilizam dados pessoais para discriminar consumidores por sua disposição a pagar, cria-se uma interface entre proteção de dados e direito concorrencial. Embora a LGPD e a lei antitruste tenham objetivos e autoridades distintas (ANPD e CADE, respectivamente), comportamentos que violam ambas as normas podem gerar responsabilização em duas frentes simultâneas. A articulação entre essas autoridades ainda está em desenvolvimento no Brasil.
“`
Receba novidades no WhatsApp e/ou e-mail
Cadastre-se gratuitamente para receber nossos novos artigos.
Seus dados estão protegidos conforme a LGPD.
Ficou com dúvidas? Fale com um advogado especialista.
📱 Falar pelo WhatsAppAs informações deste artigo são de caráter informativo e não substituem consulta jurídica individualizada.