Regulação de IA Generativa de Imagens e Vídeos
A inteligência artificial generativa de imagens e vídeos avança em velocidade sem precedentes, e o Brasil enfrenta o desafio urgente de construir um marco regulatório capaz de proteger direitos fundamentais sem sufocar a inovação tecnológica.
O cenário atual da IA generativa de conteúdo visual
Vivemos um momento de transformação profunda na forma como imagens e vídeos são criados, distribuídos e consumidos. Ferramentas de inteligência artificial generativa permitem que qualquer pessoa produza conteúdos visuais realistas a partir de simples comandos de texto, incluindo fotografias sintéticas, ilustrações complexas, vídeos com rostos humanos e até mesmo recriações de cenários históricos. Essa capacidade, que há poucos anos parecia restrita à ficção científica, hoje está acessível em plataformas comerciais utilizadas por milhões de pessoas em todo o mundo.
Analisamos que essa democratização da criação visual traz benefícios inegáveis para setores como publicidade, educação, entretenimento e comunicação corporativa. No entanto, os riscos associados ao uso indiscriminado dessas tecnologias são igualmente significativos. A geração de deepfakes (vídeos falsificados com aparência realista), a criação de imagens íntimas não consensuais, a violação de direitos autorais de artistas e fotógrafos, e a produção em massa de desinformação visual representam ameaças concretas à dignidade humana, à segurança jurídica e ao funcionamento democrático.
No Brasil, o debate sobre regulação de inteligência artificial ganhou força com a tramitação de projetos de lei no Congresso Nacional que buscam estabelecer princípios gerais para o desenvolvimento e uso de sistemas de IA. Verificamos que, embora esses projetos abordem a inteligência artificial de forma ampla, a regulação específica de IA generativa voltada para conteúdos visuais ainda carece de detalhamento normativo, o que gera insegurança tanto para desenvolvedores quanto para usuários e pessoas potencialmente afetadas por essas tecnologias.
Direitos fundamentais em risco: imagem, privacidade e propriedade intelectual
A Constituição Federal de 1988 assegura, em seu artigo 5º, a inviolabilidade da intimidade, da vida privada, da honra e da imagem das pessoas. O Código Civil, por sua vez, reforça a proteção ao direito de imagem como direito da personalidade. Quando uma ferramenta de IA generativa cria um vídeo ou uma fotografia utilizando o rosto de uma pessoa sem sua autorização, estamos diante de uma potencial violação desses direitos fundamentais, independentemente de o conteúdo ter sido gerado por um algoritmo e não por uma câmera.
Observamos que a questão se torna ainda mais complexa quando consideramos a Lei Geral de Proteção de Dados (LGPD). Dados biométricos faciais utilizados para treinar modelos de IA generativa são classificados como dados pessoais sensíveis, exigindo consentimento específico e destacado do titular. Na prática, muitos sistemas de IA generativa foram treinados com bilhões de imagens coletadas da internet sem qualquer forma de consentimento, o que levanta questionamentos sérios sobre a licitude dessas bases de dados à luz da legislação brasileira.
No campo da propriedade intelectual, a situação é igualmente delicada. A Lei de Direitos Autorais protege obras originais resultantes de criação humana. Quando um sistema de IA gera uma imagem que reproduz o estilo artístico de um criador específico ou utiliza fragmentos de obras protegidas em seu processo de síntese, surgem questões sobre violação de direitos autorais que o ordenamento jurídico atual não responde de forma inequívoca. Artistas e fotógrafos têm manifestado preocupação legítima com a utilização não autorizada de seus trabalhos para treinamento de modelos generativos, argumentando que essa prática configura apropriação indevida de seu esforço criativo.
A questão dos deepfakes e a dignidade humana
Entre as aplicações mais preocupantes da IA generativa de vídeos estão os chamados deepfakes, conteúdos audiovisuais manipulados que podem colocar qualquer pessoa em situações fictícias com alto grau de realismo. Analisamos que o uso dessa tecnologia para a criação de conteúdo íntimo não consensual (prática conhecida como deepfake pornográfico) já atinge milhares de vítimas, predominantemente mulheres, configurando uma forma grave de violência digital. O Código Penal brasileiro foi atualizado para tipificar condutas relacionadas à manipulação de imagens íntimas, mas a velocidade de evolução dessas ferramentas exige vigilância legislativa constante.
Além da esfera individual, deepfakes com finalidade política representam uma ameaça direta ao processo democrático. A criação de vídeos falsos atribuídos a candidatos ou autoridades públicas pode distorcer o debate eleitoral e comprometer a confiança nas instituições. A Justiça Eleitoral tem buscado mecanismos para coibir essas práticas, mas a facilidade de produção e disseminação desses conteúdos impõe desafios operacionais significativos.
A regulação da IA generativa visual não se resume a uma questão tecnológica: é uma necessidade urgente para a proteção de direitos fundamentais como imagem, privacidade e dignidade humana no ambiente digital.
Propostas regulatórias no Brasil e no mundo
No cenário internacional, a União Europeia se destaca com o AI Act (Regulamento Europeu de Inteligência Artificial), que estabelece obrigações específicas para sistemas de IA generativa, incluindo a exigência de transparência sobre conteúdos gerados artificialmente e a rotulagem obrigatória de deepfakes. Verificamos que esse modelo regulatório adota uma abordagem baseada em risco, classificando os sistemas de IA em diferentes categorias conforme seu potencial de causar danos, com exigências proporcionais para cada nível.
Nos Estados Unidos, a regulação tem avançado de forma fragmentada, com iniciativas estaduais e setoriais que abordam aspectos específicos como deepfakes eleitorais e proteção de menores. Já a China implementou regulamentações que exigem a identificação de conteúdos gerados por IA e estabelecem responsabilidades para provedores de serviços generativos, adotando uma postura mais intervencionista.
No Brasil, os projetos de lei em discussão no Congresso Nacional buscam estabelecer um marco regulatório geral para inteligência artificial, prevendo princípios como transparência, explicabilidade, segurança e não discriminação. Analisamos que alguns desses projetos contemplam disposições específicas sobre conteúdos sintéticos, como a obrigatoriedade de rotulagem de imagens e vídeos gerados por IA e a proibição de deepfakes em contextos eleitorais. No entanto, a regulação setorial detalhada (incluindo aspectos como responsabilidade civil por danos causados por conteúdos gerados, requisitos técnicos de rastreabilidade e obrigações de provedores de plataformas) ainda demanda aprofundamento legislativo.
O papel da ANPD e de outros órgãos reguladores
A Autoridade Nacional de Proteção de Dados (ANPD) desempenha papel central na fiscalização do uso de dados pessoais por sistemas de IA generativa. Consideramos que a ANPD tem competência para exigir que desenvolvedores e operadores de ferramentas generativas demonstrem a base legal para o tratamento de dados biométricos e imagens pessoais utilizados no treinamento de seus modelos. Além disso, outros órgãos como o Ministério Público, os Procons e o CADE podem atuar em suas respectivas esferas de competência para coibir abusos relacionados ao uso dessas tecnologias.
Verificamos que a cooperação entre diferentes entidades reguladoras será essencial para uma governança eficaz da IA generativa visual. A natureza multifacetada dos riscos envolvidos (que abrange proteção de dados, direitos do consumidor, propriedade intelectual, direito eleitoral e direito penal) exige uma abordagem coordenada que evite tanto lacunas regulatórias quanto sobreposições desnecessárias de competências.
Responsabilidade civil e os desafios para vítimas de conteúdos gerados por IA
Um dos pontos mais sensíveis na regulação da IA generativa de imagens e vídeos diz respeito à atribuição de responsabilidade civil quando conteúdos sintéticos causam danos a terceiros. Analisamos que o ordenamento jurídico brasileiro oferece fundamentos para a responsabilização, notadamente através dos artigos 186 e 927 do Código Civil (responsabilidade por ato ilícito) e do Código de Defesa do Consumidor (responsabilidade objetiva do fornecedor por defeitos do produto ou serviço). Contudo, a cadeia de agentes envolvidos na geração e disseminação de conteúdos por IA (desenvolvedores do modelo, provedores da plataforma, usuários que formulam os comandos e plataformas que hospedam o conteúdo final) torna a identificação do responsável uma tarefa complexa.
Consideramos que a vítima de um deepfake ou de uma imagem gerada indevidamente enfrenta obstáculos práticos significativos. A identificação do autor do conteúdo pode ser dificultada pelo anonimato das plataformas, pela ausência de registros de uso ou pela jurisdição estrangeira dos provedores de serviço. A produção de prova técnica sobre a origem artificial do conteúdo demanda perícia especializada, cujo custo pode ser proibitivo para muitas pessoas. Além disso, a velocidade de propagação de conteúdos virais na internet frequentemente torna ineficaz a tutela judicial obtida após longos trâmites processuais.
Entendemos que a legislação brasileira precisa evoluir para estabelecer mecanismos ágeis de remoção de conteúdos gerados por IA que violem direitos de terceiros, definir com clareza a cadeia de responsabilidade entre os diferentes agentes envolvidos e criar instrumentos processuais adequados para a tutela efetiva das vítimas. A previsão de obrigações de rastreabilidade e registro de uso por parte dos provedores de ferramentas generativas seria uma medida importante para facilitar a identificação de responsáveis e a produção de provas em eventual litígio.
Caminhos para uma regulação equilibrada
Reconhecemos que a regulação da IA generativa de conteúdos visuais precisa buscar um equilíbrio delicado entre a proteção de direitos fundamentais e a preservação da liberdade de expressão e da inovação tecnológica. Uma abordagem excessivamente restritiva poderia inibir o desenvolvimento de aplicações legítimas e benéficas, enquanto a ausência de regulação adequada expõe indivíduos e a sociedade a riscos inaceitáveis.
Analisamos que alguns princípios devem nortear esse processo regulatório. Primeiro, a transparência: usuários e pessoas afetadas devem ter o direito de saber quando um conteúdo visual foi gerado ou manipulado por inteligência artificial, através de rotulagem clara e metadados verificáveis. Segundo, a proporcionalidade: as exigências regulatórias devem ser proporcionais ao risco efetivo de cada aplicação, diferenciando usos artísticos e educacionais de usos potencialmente danosos. Terceiro, a responsabilização efetiva: a cadeia de responsabilidade deve ser definida com clareza, assegurando que vítimas tenham acesso a mecanismos céleres de proteção e reparação.
Verificamos também a importância de investir em letramento digital da população, capacitando cidadãos a identificar conteúdos sintéticos e a exercer pensamento crítico diante de materiais visuais de origem incerta. A educação digital, combinada com ferramentas tecnológicas de detecção de conteúdos gerados por IA e com um marco regulatório sólido, forma um tripé essencial para enfrentar os desafios impostos por essa revolução tecnológica ao direito e à sociedade brasileira.
Perguntas Frequentes
Criar um deepfake de outra pessoa é crime no Brasil?
A legislação penal brasileira prevê sanções para a manipulação de imagens e vídeos que resultem em conteúdo íntimo não consensual ou que configurem crimes contra a honra, como difamação e injúria. Além da esfera criminal, a vítima pode buscar reparação por danos morais e materiais na esfera cível, com fundamento na proteção constitucional ao direito de imagem e na legislação de proteção de dados pessoais.
A LGPD se aplica ao treinamento de modelos de IA generativa com imagens de pessoas?
Sim, a Lei Geral de Proteção de Dados se aplica ao tratamento de dados pessoais utilizados no treinamento de modelos de IA generativa, especialmente quando envolvem dados biométricos faciais, classificados como dados sensíveis. O controlador deve demonstrar base legal adequada para esse tratamento, e o titular dos dados tem direito a ser informado sobre a utilização de suas imagens e a se opor a esse uso nos termos da legislação vigente.
É obrigatório identificar que uma imagem ou vídeo foi gerado por inteligência artificial?
Atualmente, não existe no Brasil uma obrigação legal geral de rotulagem de conteúdos gerados por IA, embora projetos de lei em tramitação prevejam essa exigência. Na esfera eleitoral, a Justiça Eleitoral já estabeleceu regras sobre o uso de conteúdos sintéticos em propaganda, e a tendência legislativa aponta para a adoção de obrigações de transparência mais amplas, seguindo o modelo adotado pela União Europeia em seu regulamento de inteligência artificial.
As informações deste artigo são de caráter informativo e não substituem consulta jurídica individualizada.
Receba novidades no WhatsApp e/ou e-mail
Cadastre-se gratuitamente para receber nossos novos artigos.
Seus dados estão protegidos conforme a LGPD.
Ficou com dúvidas? Fale com um advogado especialista.
📱 Falar pelo WhatsAppAs informações deste artigo são de caráter informativo e não substituem consulta jurídica individualizada.





