Um estudo conduzido pela Ahrefs revelou que as plataformas de inteligência artificial (IA) podem ser facilmente manipuladas por narrativas bem detalhadas, independentemente de sua veracidade. Durante dois meses, a equipe da Ahrefs introduziu informações falsas sobre uma marca fictícia em oito plataformas de IA, observando que a maioria delas repetia as informações inventadas com confiança. O experimento destacou que o nível de detalhamento das informações influenciava mais do que a precisão.

Mateusz Makosiewicz, pesquisador da Ahrefs, criou um site fictício chamado xarumei.com, utilizando ferramentas de IA para gerar conteúdo e imagens. O site apresentava produtos inexistentes com preços exorbitantes. Além disso, foram geradas 56 perguntas sobre a marca falsa, utilizando a técnica de “leading questions” para embutir premissas falsas. As plataformas testadas incluíram ChatGPT-4, ChatGPT-5 Thinking, Claude Sonnet 4.5, entre outras.

Na primeira fase do experimento, as plataformas apresentaram respostas variadas. O ChatGPT-4 e ChatGPT-5 se destacaram, acertando a maioria das perguntas ao usar o site oficial como referência. Por outro lado, o Perplexity confundiu a marca fictícia com a Xiaomi, enquanto o Gemini e Google AI Mode se recusaram a reconhecer a marca como real. O Claude ignorou completamente o site, não gerando alucinações.

Na segunda fase, foram introduzidas fontes falsas conflitantes, incluindo um artigo fictício no blog Weighty Thoughts e um AMA no Reddit. Essas fontes influenciaram significativamente as respostas das plataformas. O Perplexity e Grok foram completamente manipulados, enquanto o ChatGPT-4 e ChatGPT-5 mantiveram-se robustos, citando a FAQ oficial em grande parte das respostas. O Claude continuou a negar a existência da marca.

Roger Montti, do Search Engine Journal, criticou a metodologia do experimento, argumentando que a marca fictícia não possui uma “verdade oficial” a ser defendida, o que limita a validade das conclusões. Ele destacou que a falta de histórico e citações torna o site equivalente às fontes falsas.

O estudo evidenciou a vulnerabilidade das marcas reais frente a narrativas detalhadas. As plataformas de IA tendem a preferir conteúdos afirmativos e específicos, o que pode levar à disseminação de informações imprecisas. Para proteger suas marcas, as empresas devem produzir conteúdo oficial estruturado e específico, além de monitorar discussões online para evitar sequestros narrativos.

Fonte:https://www.conversion.com.br/blog/experimento-ahrefs-ias/

Seu concorrente já está no Google. E você?

Comece agora com 7 dias grátis e 5 artigos bônus. Sem cartão de crédito. Mais de 800 empresas já confiam na Airticles

Seu site na primeira página do Google.

SEO Automatizado para empresas que querem crescer sem depender de anúncios.

Airticles Tecnologia Ltda | 59.780.182/0001-03. © Todos os direitos reservados.