Pornografia deepfake: ação em New Jersey revela impasse
Pornografia deepfake está no centro de um processo aberto por um grupo da Faculdade de Direito de Yale contra o aplicativo ClothOff, mostrando como é difícil bloquear imagens geradas por IA e responsabilizar seus criadores.
App ClothOff dribla autoridades
Removido das lojas da Apple e do Google, o ClothOff continua acessível via web e até por um bot no Telegram. A ação movida em outubro envolve uma estudante anônima de 14 anos, de New Jersey, cujas fotos do Instagram foram modificadas pelo app e transformadas em material classificado como abuso infantil. Apesar da ilegalidade evidente, a polícia local não prosseguiu com o caso, alegando dificuldade para obter provas diretas nos dispositivos dos suspeitos.
Os advogados apontam que a empresa responsável está registrada nas Ilhas Virgens Britânicas e, possivelmente, operada por irmãos em Belarus — fator que complica a entrega das notificações judiciais. Enquanto isso, as vítimas continuam sem amparo imediato.
Como lembra o professor John Langford, co-autor da ação, o ClothOff foi “desenvolvido e divulgado especificamente para gerar pornografia não consensual”, o que deveria facilitar sua restrição. No entanto, a natureza global da infraestrutura e a ausência de um ponto físico de operação retardam o avanço do processo.
Do ClothOff à xAI: lacunas na legislação
A discussão sobre responsabilidade das plataformas ganhou força depois que o chatbot Grok, da xAI de Elon Musk, também produziu conteúdo sexual não consentido. Diferentemente do ClothOff, Grok é uma ferramenta de uso geral, o que torna mais complicada a prova de intenção maliciosa — requisito previsto em leis como o “Take It Down Act”.
Imagem: Internet
Especialistas afirmam que a complexidade legal aumenta quando há alegação de liberdade de expressão. Países com legislação menos protetiva ao discurso, como Indonésia e Malásia, já bloquearam o acesso ao chatbot, enquanto Reino Unido e União Europeia investigam possíveis sanções. Nos EUA, entretanto, nenhuma agência reguladora emitiu resposta formal até agora.
Para Langford, provar que a xAI ignorou deliberadamente os riscos de abuso seria o caminho mais curto para punição. “Sabíamos que isso era um problema há anos. Como não havia controles mais rígidos?”, questiona o advogado.
O caso ressalta como a lei ainda patina diante da velocidade das IAs generativas. Quer acompanhar mais debates que impactam seu setup de trabalho e lazer? Visite nossa página inicial e continue explorando novidades de tecnologia e games.
Crédito da imagem: TechCrunch Fonte: TechCrunch




