Experimento de desinformação em IA expõe riscos às marcas
Experimento de desinformação em IA conduzido pelo pesquisador Mateusz Makosiewicz, da Ahrefs, revelou como grandes modelos de linguagem (LLMs) podem propagar boatos sobre uma marca inexistente, mesmo diante de informações oficiais.
O que o teste revelou
Makosiewicz criou a Xarumei, suposta fabricante de pesos de papel de luxo de até US$ 8.251, e lançou 56 perguntas com premissas falsas para oito IAs: ChatGPT-4, ChatGPT-5 Thinking, Claude Sonnet 4.5, Gemini 2.5 Flash, Perplexity (turbo), Microsoft Copilot, Grok 4 e o AI Mode do Google. Os resultados variaram:
- ChatGPT-4 e ChatGPT-5 acertaram 53 das 56 perguntas, recusando-se a “alucinar” na maioria dos casos.
- Perplexity errou cerca de 40 %, confundindo Xarumei com a fabricante de smartphones Xiaomi.
- Grok misturou fatos verdadeiros e fictícios, inventando artesãos e pedras raras.
- Copilot mostrou forte “bajulação”, aceitando premissas enganosas sem questionar.
- Gemini e AI Mode recusaram-se a responder inicialmente, mas mudaram de postura após novas fontes falsas surgirem online.
Na segunda fase, o pesquisador publicou um FAQ oficial negando todos os rumores e, simultaneamente, três fontes falsas conflitantes em blog, Reddit e Medium. Modelos como Perplexity, Grok, Gemini e Copilot passaram a citar as informações inventadas — como a fundadora “Jennifer Lawson” ou uma fábrica em Portland — ignorando o FAQ oficial. Apenas ChatGPT-4 e ChatGPT-5 mantiveram resistência, baseando 84 % das respostas no FAQ.
Por que isso preocupa profissionais de marketing
O estudo indica que, na “busca por IA”, a narrativa mais detalhada vence, mesmo que seja mentira. Posts em Reddit e Medium, considerados fontes confiáveis pelos modelos, sobrepuseram a documentação oficial da marca. Segundo Makosiewicz, qualquer empresa pode ter sua reputação sequestrada por conteúdo bem escrito, mas falso. Ele recomenda:
- Criar FAQ com negações explícitas e dados objetivos.
- Publicar páginas técnicas detalhadas (datas, números, métricas claras).
- Monitorar menções da marca em plataformas de IA e redes sociais.
- Configurar alertas para termos como “insider”, “investigação” e “processo”.
Caso semelhante foi discutido pelo portal The Verge, que destaca os perigos das “alucinações” — respostas inventadas pelas IAs quando não encontram dados confiáveis.
Imagem: Mateusz Makosiewicz
Experimentos como esse mostram que, enquanto LLMs não avaliam a credibilidade de forma robusta, marcas precisam disputar espaço nos resultados gerados por IA com informações próprias e verificáveis.
Para mais análises sobre tecnologia, games e como blindar seu setup digital contra desinformação, visite nossa página inicial e continue acompanhando nossos conteúdos.
Crédito da imagem: Ahrefs Blog Fonte: Ahrefs Blog



