Um estudo conduzido pela Ahrefs revelou que as plataformas de inteligência artificial (IA) podem ser facilmente manipuladas por narrativas bem detalhadas, independentemente de sua veracidade. Durante dois meses, a equipe da Ahrefs introduziu informações falsas sobre uma marca fictícia em oito plataformas de IA, observando que a maioria delas repetia as informações inventadas com confiança. O experimento destacou que o nível de detalhamento das informações influenciava mais do que a precisão.
Mateusz Makosiewicz, pesquisador da Ahrefs, criou um site fictício chamado xarumei.com, utilizando ferramentas de IA para gerar conteúdo e imagens. O site apresentava produtos inexistentes com preços exorbitantes. Além disso, foram geradas 56 perguntas sobre a marca falsa, utilizando a técnica de “leading questions” para embutir premissas falsas. As plataformas testadas incluíram ChatGPT-4, ChatGPT-5 Thinking, Claude Sonnet 4.5, entre outras.
Na primeira fase do experimento, as plataformas apresentaram respostas variadas. O ChatGPT-4 e ChatGPT-5 se destacaram, acertando a maioria das perguntas ao usar o site oficial como referência. Por outro lado, o Perplexity confundiu a marca fictícia com a Xiaomi, enquanto o Gemini e Google AI Mode se recusaram a reconhecer a marca como real. O Claude ignorou completamente o site, não gerando alucinações.
Na segunda fase, foram introduzidas fontes falsas conflitantes, incluindo um artigo fictício no blog Weighty Thoughts e um AMA no Reddit. Essas fontes influenciaram significativamente as respostas das plataformas. O Perplexity e Grok foram completamente manipulados, enquanto o ChatGPT-4 e ChatGPT-5 mantiveram-se robustos, citando a FAQ oficial em grande parte das respostas. O Claude continuou a negar a existência da marca.
Roger Montti, do Search Engine Journal, criticou a metodologia do experimento, argumentando que a marca fictícia não possui uma “verdade oficial” a ser defendida, o que limita a validade das conclusões. Ele destacou que a falta de histórico e citações torna o site equivalente às fontes falsas.
O estudo evidenciou a vulnerabilidade das marcas reais frente a narrativas detalhadas. As plataformas de IA tendem a preferir conteúdos afirmativos e específicos, o que pode levar à disseminação de informações imprecisas. Para proteger suas marcas, as empresas devem produzir conteúdo oficial estruturado e específico, além de monitorar discussões online para evitar sequestros narrativos.
Fonte:https://www.conversion.com.br/blog/experimento-ahrefs-ias/