
A crescente integração das tecnologias digitais em nosso cotidiano, embora traga inúmeros benefícios, também abriu espaço para novas formas de violência, particularmente contra as mulheres. A interseção entre tecnologia e violência de gênero exige que os arcabouços legais se adaptem para oferecer proteção adequada. Nesse contexto, a nova lei brasileira (Lei nº 15.123/2025) representa um passo significativo ao abordar especificamente a violência psicológica cometida com o uso de inteligência artificial. Compreender os detalhes e as implicações dessa legislação é crucial tanto para as potenciais vítimas quanto para a sociedade como um todo.
O que a Lei Estabelece?
A Lei nº 15.123/2025 estabelece como ponto central o agravamento da pena para o crime de violência psicológica contra a mulher quando praticado com o uso de inteligência artificial (IA) ou qualquer outra tecnologia que altere a imagem ou a voz da vítima. Este dispositivo legal demonstra o reconhecimento, por parte do legislador, do dano singular e do potencial de escala do abuso facilitado por essas tecnologias. A lei direciona seu foco para os meios de perpetração da violência psicológica, indicando uma compreensão de que a tecnologia pode amplificar o impacto desse tipo de abuso. Enquanto a violência psicológica tradicional pode ser limitada pela presença física ou pela comunicação direta, a IA permite a disseminação generalizada de conteúdo prejudicial e o assédio persistente, demandando uma resposta legal mais robusta.
Em relação ao aumento da pena, a lei prevê que a pena de reclusão, que anteriormente variava de seis meses a dois anos e multa, será aumentada pela metade. Esse aumento substancial sinaliza a seriedade com que o legislador encara essa forma de violência tecnologicamente habilitada. A pena aumentada visa servir como um dissuasor mais eficaz e refletir o dano ampliado causado pelo uso da IA nesses crimes. Uma potencial sentença de prisão mais longa pode levar indivíduos a reconsiderarem a utilização da IA para cometer violência psicológica. A gravidade da punição busca se alinhar com o potencial de dano psicológico generalizado e duradouro.
A abrangência da lei é notável, pois se aplica não somente à inteligência artificial, mas também a "qualquer outra tecnologia que tenha a capacidade de alterar a imagem ou a voz da vítima".1 Esse escopo amplo garante que a legislação permaneça relevante mesmo com a evolução tecnológica para além das atuais capacidades da IA. Ao não se limitar à tecnologia específica da IA, mas sim ao resultado prejudicial da alteração de imagem ou voz, a lei se torna mais resiliente a futuras inovações que possam ser utilizadas para fins semelhantes.
A lei se contextualiza dentro do crime de violência psicológica já existente, referindo-se especificamente ao dano emocional que prejudique e perturbe o pleno desenvolvimento ou que vise a degradar ou a controlar ações, comportamentos, crenças e decisões da mulher. A violência psicológica pode ocorrer por meio de ameaça, constrangimento, humilhação, manipulação, isolamento, chantagem, ridicularização, limitação do direito de ir e vir ou qualquer outro meio que cause prejuízo à saúde psicológica e à autodeterminação da mulher. A nova lei se fundamenta nas definições legais preexistentes de violência psicológica, adaptando-as à era digital ao reconhecer como a tecnologia pode ser um instrumento para perpetrar essas formas de abuso já conhecidas. A lei não cria um novo crime, mas eleva a punição para um já existente quando um elemento tecnológico específico (IA ou similar) está envolvido, aproveitando o entendimento legal estabelecido sobre violência psicológica.
A utilização de deepfakes, que são vídeos ou imagens falsificadas por IA envolvendo mulheres reais, é citada expressamente como uma das formas mais atuais desse tipo de violência.1 Essas produções frequentemente disseminam conteúdo pornográfico falso e são usadas como forma de ameaça, constrangimento, humilhação e chantagem.1 A menção explícita aos deepfakes sublinha o gatilho imediato e a principal preocupação que impulsionaram essa mudança legislativa. Casos de alto perfil e a crescente sofisticação dos deepfakes provavelmente desempenharam um papel significativo na criação desta lei.3
A Lei 15.123, de 2025, é resultado do PL 370/2024, de autoria da deputada Jandira Feghali (PCdoB-RJ), e foi relatado no Senado pela senadora Daniella Ribeiro (PP-PB). A matéria foi aprovada durante o Mês da Mulher, em março deste ano, ressaltando sua importância para a causa feminina. O processo legislativo e o momento da aprovação da lei indicam uma vontade política de abordar essa forma específica de violência contra a mulher. O apoio bipartidário e a aprovação durante o Mês da Mulher sugerem um amplo consenso sobre a necessidade desta legislação. O Presidente Lula, durante a cerimônia de sanção, enfatizou o aspecto psicológico da violência contra a mulher.
Seção | Disposição | Impacto |
Agravamento da Pena | Aumenta a pena para violência psicológica contra a mulher cometida com IA ou tecnologias similares. | Age como um dissuasor mais forte e reflete o dano ampliado. |
Aumento da Pena | Aumenta a pena de reclusão pela metade (de 6 meses-2 anos para 9 meses-3 anos). | Proporciona uma punição mais significativa para os infratores. |
Abrangência da Lei | Aplica-se à IA e a qualquer tecnologia que altere imagem ou voz. | Garante que a lei permaneça relevante com os avanços tecnológicos. |
Foco na Violência Psicológica | Direciona-se especificamente ao dano emocional, degradação ou controle facilitado pela tecnologia. | Constrói sobre as definições legais existentes de violência psicológica no contexto digital. |
Menção a Deepfakes | Menciona explicitamente os deepfakes como um exemplo principal do tipo de violência visado. | Destaca a preocupação imediata e o contexto para a criação da lei. |
A Face Oculta da IA: Violência Contra a Mulher na Era Digital
Para compreender plenamente o alcance da nova lei, é essencial entender o conceito de Inteligência Artificial (IA) e como ela pode ser utilizada de forma maliciosa no contexto da violência contra a mulher. Em termos simples, a Inteligência Artificial envolve máquinas que aprendem e resolvem problemas, imitando a inteligência humana. Podemos compará-la a dar um "cérebro" a uma máquina, capaz de aprender a partir de dados como imagens, sons, textos e números. A IA já está presente em diversas áreas do nosso cotidiano, desde assistentes virtuais até algoritmos de redes sociais. Desmistificar a IA é crucial para que o público em geral compreenda como ela pode ser utilizada indevidamente no contexto da violência. Muitas pessoas podem não entender completamente o que é IA e como ela funciona, dificultando a compreensão das ameaças específicas que ela representa. Uma explicação simples aumentará a compreensão.
A IA pode ser utilizada para diversas formas de violência contra a mulher. Um exemplo particularmente preocupante são os deepfakes. A IA pode criar vídeos ou imagens falsas de indivíduos com aparência realista, frequentemente sobrepondo seus rostos em corpos envolvidos em atos sexuais. Esses conteúdos são frequentemente utilizados para humilhar, chantagear ou ameaçar mulheres, causando sofrimento psicológico significativo e danos à reputação.1 Os deepfakes representam uma forma de violência particularmente insidiosa, pois podem corroer a confiança em evidências visuais e causar profundo dano emocional. A credibilidade dos deepfakes os torna incrivelmente prejudiciais, pois as vítimas podem enfrentar ridículo público e descrença. A natureza não consensual viola a privacidade e a dignidade.
Outra forma de abuso facilitada pela IA é o cyberstalking automatizado e o monitoramento invasivo. A IA pode ser usada para automatizar a coleta de dados pessoais de redes sociais e outras fontes online para fins de perseguição. Além disso, a IA pode mimetizar interações em redes sociais para coletar informações ou disseminar desinformação sobre a vítima. O stalkerware, um tipo de software que pode rastrear a localização, gravar áudio e acessar mensagens, pode ser aprimorado pela IA para uma vigilância mais sofisticada e indetectável.11 A IA pode tornar o cyberstalking mais eficiente, persistente e difícil de detectar, aumentando o medo e a ansiedade da vítima. O cyberstalking tradicional pode envolver monitoramento manual. A IA pode automatizar esse processo, permitindo que os perpetradores rastreiem várias vítimas ou coletem grandes quantidades de informações com mais facilidade.
Além dos deepfakes e do cyberstalking, a IA pode ser utilizada para outras formas de manipulação e abuso psicológico. Por exemplo, a IA poderia ser usada para criar tentativas de phishing ou golpes personalizados e altamente convincentes, visando mulheres para manipulação emocional ou ganho financeiro. Chatbots com IA poderiam ser utilizados para assédio automatizado ou para disseminar mensagens de ódio. Embora o trecho não se concentre explicitamente em gênero, o contexto da lei implica essa aplicação. Existe também a possibilidade de a IA ser utilizada para gerar perfis online falsos para enganar e manipular mulheres em relacionamentos online. A IA permite formas mais sofisticadas e personalizadas de manipulação psicológica, dificultando o reconhecimento e a defesa das vítimas contra o abuso. Assédios ou golpes genéricos são frequentemente mais fáceis de identificar. A IA pode adaptar mensagens e interações para explorar vulnerabilidades individuais, tornando o abuso mais eficaz.
Desafios Legais e Técnicos: Como Punir Crimes de IA?
A punição de crimes envolvendo o uso de inteligência artificial apresenta desafios legais e técnicos significativos. Um dos principais obstáculos reside na dificuldade de identificar e rastrear os autores desses crimes. Atribuir a criação e disseminação de conteúdo gerado por IA a um indivíduo específico é complexo, especialmente quando tecnologias de anonimização são utilizadas. Além disso, a natureza transnacional da internet dificulta a perseguição de perpetradores localizados em outras jurisdições. O anonimato e a natureza sem fronteiras da internet, combinados com a sofisticação técnica da IA, impõem obstáculos consideráveis para as autoridades policiais. Diferentemente dos crimes tradicionais, onde a presença física ou a comunicação direta podem fornecer pistas, os crimes relacionados à IA podem ser cometidos remotamente e deixar menos rastros digitais facilmente identificáveis.
A coleta e admissão de provas digitais em casos de violência online envolvendo IA também apresentam complexidades. A natureza frágil e facilmente alterada das evidências digitais as torna suscetíveis à deterioração ou manipulação. É necessária expertise técnica específica para coletar, preservar e analisar adequadamente as evidências digitais relacionadas a conteúdo gerado por IA.17 Validar a autenticidade de provas digitais, como deepfakes, em tribunal também é um desafio. Os métodos tradicionais de coleta e autenticação de evidências podem não ser suficientes para crimes relacionados à IA, exigindo novas abordagens e conhecimento especializado. Capturas de tela ou gravações simples podem não ser suficientes para provar a origem ou a manipulação envolvida em conteúdo gerado por IA. A análise forense por especialistas é frequentemente necessária.
A necessidade de expertise técnica para investigação e perícia é crucial. Existe uma carência de conhecimento técnico suficiente entre as autoridades policiais e os profissionais do direito em relação à IA e ao cibercrime.17 É fundamental o investimento em treinamento e recursos especializados para investigar e processar efetivamente esses tipos de casos. Superar a lacuna de expertise técnica dentro do sistema legal é fundamental para a aplicação eficaz desta nova lei. Sem o treinamento adequado, investigadores e promotores podem ter dificuldades em compreender os aspectos técnicos dos crimes relacionados à IA, levando a investigações e processos malsucedidos.
Um Panorama Global: Leis e Iniciativas Contra a Violência de Gênero Online
A nova lei brasileira não surge isoladamente no cenário global. Outras leis e iniciativas, tanto no Brasil quanto em outros países, buscam combater a violência de gênero facilitada por tecnologia. No Brasil, a Lei Maria da Penha (Lei nº 11.340/2006) foca na violência doméstica e familiar contra a mulher. A nova lei complementa a Lei Maria da Penha ao abordar especificamente a violência psicológica facilitada tecnologicamente, que pode ocorrer dentro ou fora de relacionamentos domésticos. A Lei nº 14.811/2024, que criminaliza o cyberbullying e endurece as penas para alguns crimes contra menores cometidos online, também demonstra a crescente atenção legislativa ao dano online.22 A nova lei faz parte de uma tendência mais ampla no Brasil de reconhecer e criminalizar várias formas de violência online, particularmente aquelas que afetam grupos vulneráveis. A existência de leis contra violência doméstica e cyberbullying fornece uma base sobre a qual esta nova legislação pode construir, abordando uma lacuna específica relacionada à IA.
Em outros países, notam-se esforços semelhantes. Nos Estados Unidos, o "Take It Down Act" visa criminalizar a pornografia deepfake não consensual e exige que as plataformas removam esse conteúdo rapidamente.24 A lei conta com apoio bipartidário, mas também enfrenta preocupações sobre a liberdade de expressão.24 O "NO FAKES Act" é um projeto de lei bipartidário que busca estabelecer direitos federais de propriedade intelectual sobre a voz e a imagem de indivíduos para combater deepfakes gerados por IA sem autorização.27 Muitos estados americanos também promulgaram leis que abordam deepfakes sexuais e mídia enganosa, frequentemente emendando leis existentes sobre "pornografia de vingança" ou material de abuso sexual infantil.4 Contudo, existem inconsistências nas definições e no escopo dessas leis entre os estados.32
Na Europa, a Diretiva da UE para combater a violência contra as mulheres e a violência doméstica estabelece padrões mínimos para a criminalização de violência de gênero online, incluindo o compartilhamento não consensual de imagens, o cyberstalking, o cyberassédio e a incitação ao ódio online.34 Iniciativas específicas de países incluem a lei francesa contra a pornografia de vingança 35 e a "Coco's Law" da Irlanda, que aborda a distribuição de imagens íntimas sem consentimento.37 O Conselho da Europa também tem se empenhado em combater a cyberviolência contra mulheres e meninas por meio de convenções e recomendações.34
Organizações internacionais também desempenham um papel crucial. A ONU lidera esforços para combater a violência de gênero facilitada por tecnologia por meio de diversas iniciativas e defendendo leis e políticas mais robustas globalmente.39 O Pacto Digital Global e a Convenção da ONU sobre Cibercrime são exemplos desses esforços.39 O Banco Mundial também tem realizado pesquisas que destacam a falta de estruturas legais abrangentes contra o cyberassédio em nível global.41 Existe uma crescente conscientização global e um esforço legislativo para abordar a violência de gênero online e o uso indevido de tecnologias como a IA, com várias abordagens sendo adotadas em diferentes regiões e países. As diferentes abordagens sugerem uma compreensão em evolução do problema e das melhores maneiras de abordá-lo.
País/Região | Legislação/Iniciativa | Foco |
Estados Unidos (Federal) | Take It Down Act | Criminaliza pornografia deepfake não consensual, exige remoção por plataformas. |
Estados Unidos (Federal) | NO FAKES Act (Proposto) | Estabelece direitos federais de propriedade intelectual para voz e imagem para combater deepfakes. |
Estados Unidos (Nível Estadual) | Várias leis estaduais (ex: Califórnia AB 602, Texas SB 1361) | Criminalização de deepfakes sexuais não consensuais, mídia enganosa em eleições. |
União Europeia | Diretiva da UE para combater a violência contra as mulheres e a violência doméstica | Criminaliza violência de gênero online, incluindo compartilhamento não consensual de imagens, cyberstalking, etc. |
França | Lei da República Digital | Sanções mais severas para pornografia de vingança. |
Irlanda | Lei de Coco | Penalidades para distribuição de imagens íntimas sem consentimento. |
Conselho da Europa | Convenção de Istambul, Recomendações | Marcos para combater a cyberviolência contra mulheres e meninas. |
Nações Unidas | Pacto Digital Global, Convenção da ONU sobre Cibercrime | Esforços internacionais para fortalecer leis e cooperação contra a violência online. |
Implicações e o Futuro da Proteção
A nova lei brasileira possui um impacto potencial significativo na prevenção e punição da violência contra a mulher com uso de inteligência artificial. O aumento das penas pode dissuadir indivíduos de utilizarem a IA para cometer violência psicológica, devido às punições mais severas. Além disso, a lei reconhece o dano específico causado pelo abuso facilitado tecnologicamente, o que pode levar a processos mais eficazes e a um melhor apoio às vítimas. A lei também possui uma importância simbólica ao reconhecer e condenar essa forma emergente de violência. A lei tem o potencial de ser um avanço significativo na proteção das mulheres na era digital, enviando uma mensagem clara de que esse tipo de abuso não será tolerado.
No entanto, é importante reconhecer que medidas legais isoladas podem não ser suficientes para abordar integralmente a questão. É fundamental o desenvolvimento de campanhas de educação e conscientização pública para informar as pessoas sobre os riscos do uso indevido da IA e a importância da segurança online.21 Além disso, é crucial fornecer apoio e recursos adequados para as vítimas de violência facilitada por tecnologia, incluindo aconselhamento psicológico e assistência jurídica.21 A necessidade contínua de soluções técnicas e de responsabilização das plataformas para impedir a criação e disseminação de conteúdo prejudicial gerado por IA também é evidente.24 A cooperação internacional é igualmente importante para enfrentar a natureza transnacional desses crimes.45 Uma abordagem multifacetada, envolvendo medidas legais, educação, apoio às vítimas, soluções técnicas e colaboração internacional, é necessária para combater eficazmente a violência facilitada por tecnologia contra as mulheres.
Conclusão
A Lei nº 15.123/2025 representa um marco importante no enfrentamento da violência contra a mulher no ambiente digital, ao agravar a pena para a violência psicológica cometida com o uso de inteligência artificial. Essa legislação reconhece a gravidade e o potencial destrutivo do uso indevido de tecnologias como deepfakes e cyberstalking automatizado. Embora a nova lei possua um impacto potencial significativo na prevenção e punição desses crimes, é fundamental reconhecer que ela é apenas um componente de uma estratégia mais ampla. A efetiva proteção das mulheres na era digital exigirá esforços contínuos em educação, conscientização, apoio às vítimas e na busca por soluções técnicas que impeçam a proliferação da violência online. A colaboração entre立法机关, autoridades policiais, plataformas digitais e a sociedade civil será essencial para garantir que o ambiente online seja um espaço seguro e livre de violência para todas as mulheres.
Comentar