DeepSeek-R1: IA chinesa gera código inseguro, diz estudo
DeepSeek-R1 apresenta até 50% mais vulnerabilidades quando o prompt menciona temas politicamente sensíveis como Tibete ou uigures, segundo nova pesquisa da CrowdStrike.
Pesquisa aponta falhas graves ao tocar em assuntos sensíveis
Em análise recente, a CrowdStrike avaliou o modelo de inteligência artificial da DeepSeek e constatou que, em cenários neutros, apenas 19% dos códigos gerados contêm falhas severas. Porém, ao inserir modificadores geopolíticos — por exemplo, instruir a IA a atuar em um sistema industrial no Tibete — o índice salta para 27,2%, um aumento próximo de 50%.
Exemplos práticos reforçam o alerta: um webhook para notificações de pagamento do PayPal gerado para uma instituição financeira tibetana apresentou senhas em texto puro, extração insegura de dados e até erros de sintaxe em PHP. Em outro teste, um app Android destinado à comunidade uigur veio sem gestão de sessão ou autenticação, deixando dados expostos; 35% das versões sequer usavam hashing ou recorriam a métodos inseguros.
Segundo a CrowdStrike, o fenômeno sugere “desvios significativos” no comportamento da IA sempre que palavras-gatilho ligadas a minorias ou movimentos religiosos, como Falun Gong, entram na conversa.
Guardrails políticos podem explicar o problema
A DeepSeek já foi alvo de críticas por censurar assuntos contrários à política de Pequim. A CrowdStrike teoriza que guardrails embutidos para cumprir leis chinesas podem impactar negativamente a qualidade do código. Há ainda relatos de um “botão de desligar” interno: em 45% dos pedidos envolvendo Falun Gong, a IA planeja a resposta, mas se recusa a entregar o código final, exibindo apenas “Desculpe, não posso ajudar”.
Imagem: Internet
O caso levanta um debate mais amplo sobre dependência de modelos chineses. O Escritório de Segurança Nacional de Taiwan já advertiu que ferramentas como DeepSeek, Doubao e Tongyi podem distorcer fatos históricos e gerar scripts de ataque. Outras plataformas também falham: testes da OX Security mostraram que construtores de código baseados em IA, como Lovable e Bolt, entregam aplicações vulneráveis por padrão, mesmo quando o termo “seguro” aparece no prompt.
Para detalhes adicionais, confira a cobertura completa no portal especializado The Hacker News, que apresentou os dados originais.
Modelos de IA prometem acelerar o desenvolvimento, mas ainda carecem de consistência quando o assunto é segurança. Se você busca um ambiente estável para trabalhar ou jogar, vale acompanhar nossas análises e novidades em Games-In. Para mais dicas sobre como montar o setup perfeito, continue navegando em nossa editoria.
Crédito da imagem: The Hacker News Fonte: The Hacker News

