Deepfakes e IA no Brasil: a Urgência de um Marco Legal
A proliferação de imagens íntimas geradas por inteligência artificial sem consentimento revela uma lacuna perigosa no ordenamento jurídico brasileiro. É hora de debater o que o PL 2338/2023 propõe e o que ainda falta.
Quando a plataforma Grok, da empresa xAI, passou a gerar imagens sexualizadas de pessoas reais sem qualquer barreira eficaz de contenção, o debate sobre regulação da inteligência artificial no Brasil ganhou urgência inédita. O episódio expôs, de forma concreta, o que juristas e pesquisadores vêm alertando há anos: a tecnologia avança em velocidade exponencial, enquanto o direito caminha em passos lentos e incertos.
Os chamados deepfakes — imagens, vídeos ou áudios gerados ou manipulados por IA para simular a aparência ou a voz de pessoas reais — já constituem uma ameaça documentada à dignidade humana, à honra e à intimidade. Quando o conteúdo gerado é de natureza sexual, o dano se aprofunda: estamos diante do fenômeno conhecido como deepnude, que transforma qualquer fotografia inocente em material pornográfico falso, sem o consentimento da pessoa retratada.
O Vazio Legal e Suas Consequências
O Brasil ainda não possui uma legislação específica que regule o desenvolvimento e o uso de sistemas de inteligência artificial. O que temos são normas esparsas que, aplicadas por analogia, tentam alcançar condutas para as quais não foram originalmente desenhadas. A Lei Geral de Proteção de Dados (LGPD), o Marco Civil da Internet e o Código Penal formam um arcabouço fragmentado que, sozinho, não dá conta da complexidade dos danos causados por deepfakes.
A criação e disseminação de deepnudes, por exemplo, pode ser enquadrada como crime de divulgação de cenas íntimas sem consentimento (art. 218-C do Código Penal, com redação dada pela Lei 13.718/2018) ou como violação à LGPD, quando há tratamento indevido de dados biométricos. Mas há obstáculos sérios: a norma penal pressupõe cenas reais, e o material gerado por IA é ficção construída sobre dados. A LGPD, por sua vez, exige a identificação de um controlador de dados — algo que se torna difuso quando o sistema é aberto e acessível globalmente.
O resultado prático é que as vítimas encontram dificuldades enormes para obter reparação judicial tempestiva. O conteúdo se espalha antes de qualquer decisão de remoção, e a responsabilização dos agentes — sejam desenvolvedores, plataformas ou usuários — permanece incerta.
O PL 2338/2023 e a Tentativa de Resposta Legislativa
O Projeto de Lei 2338/2023, de autoria do senador Rodrigo Pacheco, representa a iniciativa mais abrangente do Congresso Nacional para regulamentar a inteligência artificial no país. O texto, aprovado em comissão especial no Senado em 2024 e ainda em tramitação, propõe uma abordagem baseada em risco: quanto maior o potencial de dano de um sistema de IA, mais rígidas são as obrigações impostas aos seus desenvolvedores e operadores.
Entre os pontos mais relevantes do projeto estão a proibição de sistemas de IA que gerem conteúdo que viole direitos fundamentais sem salvaguardas adequadas, a exigência de transparência sobre o uso de IA em decisões que afetam pessoas, e a responsabilidade objetiva em casos de alto risco. O projeto também prevê a criação de uma autoridade nacional dedicada à supervisão de sistemas de IA, complementando a atuação da Autoridade Nacional de Proteção de Dados (ANPD).
A regulação da IA não pode ser tratada como entrave à inovação — ela é, antes de tudo, a condição para que a inovação ocorra de forma sustentável e compatível com um Estado Democrático de Direito.
O PL 2338/2023, contudo, enfrenta críticas de dois lados. O setor tecnológico alerta para o risco de regulação prematura que afugente investimentos e prejudique startups nacionais. Organizações de direitos digitais, por outro lado, apontam que o texto ainda carece de disposições mais específicas sobre conteúdo sintético de natureza sexual e sobre os mecanismos de responsabilização das plataformas que hospedam ou viabilizam a geração desse tipo de material.
Balancear Inovação e Direitos Fundamentais: O Desafio Central
O equilíbrio entre fomentar a inovação tecnológica e proteger direitos fundamentais é, reconhecidamente, o maior desafio do direito digital contemporâneo. Nenhum dos extremos serve ao interesse público: uma regulação excessivamente restritiva pode inibir avanços tecnológicos legítimos e benéficos; a ausência de regulação abre espaço para abusos sistemáticos contra grupos vulneráveis, especialmente mulheres.
A experiência europeia com o AI Act, aprovado em 2024 pela União Europeia, oferece uma referência importante. O modelo europeu classifica os sistemas de IA em categorias de risco e estabelece proibições absolutas para usos considerados incompatíveis com direitos fundamentais — entre eles, sistemas de categorização biométrica com base em características sensíveis e a manipulação subliminar de comportamento humano. A geração não consentida de conteúdo sexual sintético de pessoas reais encontra-se em zona de alta preocupação no debate europeu.
Para o contexto brasileiro, a proteção constitucional da dignidade humana (art. 1º, III, CF/88) e dos direitos à honra, imagem e intimidade (art. 5º, X, CF/88) deve ser o norte interpretativo de qualquer legislação sobre IA. Isso significa que, independentemente do modelo regulatório escolhido, a geração não consentida de imagens sexualizadas de pessoas identificáveis deve ser tratada como conduta vedada, com responsabilidade clara atribuída tanto ao usuário quanto à plataforma que disponibiliza a ferramenta.
Nesse contexto, o trabalho do advogado especializado em direito digital e proteção de dados torna-se cada vez mais essencial para orientar vítimas, empresas e desenvolvedores sobre os limites legais e as formas de reparação disponíveis no ordenamento jurídico atual.
Instrumentos Jurídicos Disponíveis Hoje
Enquanto o marco regulatório específico não é aprovado, o que pode ser feito diante de um caso concreto de deepfake prejudicial? O caminho percorre várias frentes simultâneas.
Na esfera cível, é possível ajuizar ação de obrigação de fazer para remoção do conteúdo, com pedido de tutela de urgência, combinada com pedido de indenização por danos morais e materiais. A responsabilidade das plataformas digitais, disciplinada pelo Marco Civil da Internet, exige notificação prévia e descumprimento para que surja a obrigação de indenizar — salvo em casos de conteúdo sexual, em que a remoção deve ser imediata após o aviso.
Na esfera penal, o boletim de ocorrência deve registrar as condutas que se encaixam nos tipos já existentes: injúria, difamação, calúnia, ameaça e, quando aplicável, divulgação de material íntimo sem consentimento. A investigação pode requisitar logs de acesso e identificação de usuários junto às plataformas, com respaldo no Marco Civil.
Na esfera administrativa, a ANPD pode ser acionada quando houver tratamento indevido de dados pessoais, incluindo dados biométricos utilizados na criação do deepfake. Quanto à orientação jurídica preventiva para empresas que utilizam IA em seus processos, ela é igualmente indispensável para evitar passivos futuros.
Perguntas Frequentes
O que é um deepfake e por que ele é juridicamente problemático?
Um deepfake é um conteúdo (imagem, vídeo ou áudio) gerado ou manipulado por inteligência artificial para simular, de forma convincente, a aparência ou a voz de uma pessoa real. É juridicamente problemático porque pode causar danos graves à honra, à imagem e à intimidade sem deixar rastros facilmente rastreáveis, e porque a legislação existente foi criada para lidar com conteúdo real, criando lacunas na proteção das vítimas de conteúdo sintético.
Quais leis brasileiras se aplicam à criação de deepnudes?
Atualmente, as principais normas aplicáveis são o artigo 218-C do Código Penal (divulgação de material íntimo sem consentimento), a LGPD (quando há uso indevido de dados biométricos), e o Marco Civil da Internet (responsabilidade das plataformas). Nenhuma dessas normas foi criada especificamente para deepfakes, o que exige interpretação extensiva e, em muitos casos, resulta em insegurança jurídica para as vítimas.
O PL 2338/2023 resolve o problema dos deepfakes?
O projeto representa um avanço significativo ao introduzir uma regulação baseada em risco e prever responsabilidade mais clara para desenvolvedores e operadores de sistemas de IA. No entanto, críticos apontam que o texto ainda precisa de dispositivos mais específicos sobre conteúdo sexual sintético não consentido e sobre a responsabilidade das plataformas que viabilizam a geração desse material. O debate legislativo está em curso e o projeto pode ser aprimorado antes de sua aprovação final.
O que uma vítima de deepfake deve fazer imediatamente?
A primeira providência é documentar o conteúdo com prints e registrar todos os links onde ele aparece, antes de qualquer tentativa de remoção. Em seguida, notificar formalmente a plataforma e registrar boletim de ocorrência. Buscar orientação jurídica especializada é fundamental para avaliar as ações judiciais cabíveis, incluindo tutela de urgência para remoção imediata. Também é possível entrar em contato com um advogado especializado para obter assistência personalizada nesse tipo de situação.
Receba novidades no WhatsApp e/ou e-mail
Cadastre-se gratuitamente para receber nossos novos artigos.
Seus dados estão protegidos conforme a LGPD.
Ficou com dúvidas? Fale com um advogado especialista.
📱 Falar pelo WhatsAppAs informações deste artigo são de caráter informativo e não substituem consulta jurídica individualizada.






