Deepfake sexual sem consentimento: leis e ações contra “nudify”

Com o avanço da inteligência artificial, proliferaram aplicativos, sites e bots conhecidos como “nudify” ou “nudificação”, que utilizam IA generativa para transformar fotos comuns em imagens aparentemente nuas de pessoas, sem seu consentimento. Uma investigação recente da Indicator mostrou que, ao menos, 85 plataformas desse tipo obtêm cerca de 18,5 milhões de visitas mensais — movendo até US $ 36 milhões por ano por meio de assinaturas ou pacotes de créditos. Muitas conferem acesso via sistemas legítimos como login do Google, hospedagem da Amazon ou Cloudflare, e até pagamento com cartões tradicionais.

O impacto é alarmante: a maior parte do conteúdo foca em mulheres (99%) e há evidências documentadas de vítimas, incluindo adolescentes. Casos como o de Molly Kelley, em Minnesota, nos Estados Unidos, demonstram o risco real: alguém transformou fotos familiares em imagens explícitas voltadas a ela e outras mulheres da comunidade. No Reino Unido, a Children’s Commissioner, Dame Rachel de Souza, classificou os apps como “sem justificativa” e defende sua proibição imediata, principalmente por afetarem menores.

Perante esse cenário, várias medidas estão em andamento. A Meta (controladora do Facebook, Instagram e Threads) iniciou emblemática ação judicial contra a Joy Timeline HK Limited, criadora do app “CrushAI”, por usar anúncios dessas ferramentas na plataforma. A empresa afirma já ter removido anúncios, bloqueado links, apagado páginas, restrito termos de busca e instalado tecnologia para detectar propagandas disfarçadas. Mais de 3.800 URLs de serviços “nudify” foram compartilhadas com outras empresas via o programa Lantern da Tech Coalition.

Em San Francisco, tramita uma ação que processa ao menos 16 sites envolvidos na criação de deepfakes explícitos, alegando violações de leis contra pornografia não consensual e práticas comerciais desleais. Em Minnesota o projeto de lei em debate prevê penas civis de até US $ 500 mil por violação.

No Reino Unido, a legislação já proíbe o conteúdo sexual explícito infantil, mas falha em impedir a criação dessas imagens. O Online Safety Act exige avaliação de risco e controle de idade, ainda limitado. A Children’s Commissioner recomenda inclusão de deepfakes sexuais no currículo escolar e encoraja a proibição dos apps “nudify”.

Na Coreia do Sul, leis recentes criminalizam a posse ou visualização deste tipo de conteúdo, em resposta a 800+ casos identificados até 2024. A punição chega a pena de até sete anos de prisão ou multa de quase US $ 23 mil.

Um estudo acadêmico da Universidade de Wisconsin detalhou como as “nudify apps” emergiram entre 2019 e 2024: sites dedicados, modelos abertos de IA e registro de pagamentos por imagens explícitas. A ferramenta, inicialmente voltada a adultos, gradualmente incluiu menores entre as vítimas.. Ainda, bancos de dados expostos revelaram milhões de imagens explícitas armazenadas de forma insegura ou ilegal .

Quais os riscos:
• Violação grave da privacidade, autoestima e reputação das vítimas;
• Facilitação de assédio, chantagem (sextortion) ou bullying;
• Risco aumentado de exposição de menores a conteúdo sexual, crime e punições legais.

O que está sendo feito:
• Ações judiciais (Meta, San Francisco, Minnesota);
• Bloqueios proativos de anúncios e URLs por grandes empresas;
• Leis em crescimento (Coreia do Sul, EUA, Reino Unido) para criminalizar criação, distribuição ou posse de deepfakes;
• Cooperação entre empresas via programas como Tech Coalition Lantern.

O que você pode fazer se for vítima:

  1. Documente imediatamente: salve URLs, anúncios e prints da imagem;
  2. Solicite remoção: use plataformas como StopNCII.org (Estados Unidos) ou ferramentas semelhantes em outros países;
  3. Facilite denúncia: faça boletim de ocorrência na polícia, citando leis de pornografia não consensual;
  4. Procure apoio jurídico e psicológico: órgãos como National Center for Missing & Exploited Children (EUA) ou Child Exploitation and Online Protection Command (Reino Unido) prestam assistência;
  5. Solicite que mecanismos de busca desindexem as páginas (Google e Bing oferecem ferramentas);
  6. Faça denúncias às plataformas envolvidas (Meta, Google Play, Apple Store etc.) solicitando bloqueio dos apps.

Se você é menor, informe imediatamente um responsável adulto, escola ou autoridade. Mesmo em locais onde o app não é ilegal, criar ou distribuir nudez não consensual pode resultar em processo criminal por crimes de privacidade ou pornografia.