Estudo revela riscos de IA ao aceitar informações falsas detalhadas

Um estudo conduzido pela Ahrefs revelou que as plataformas de inteligência artificial (IA) podem ser facilmente manipuladas por narrativas bem detalhadas, independentemente de sua veracidade. Durante dois meses, a equipe da Ahrefs introduziu informações falsas sobre uma marca fictícia em oito plataformas de IA, observando que a maioria delas repetia as informações inventadas com confiança. O experimento destacou que o nível de detalhamento das informações influenciava mais do que a precisão.

Mateusz Makosiewicz, pesquisador da Ahrefs, criou um site fictício chamado xarumei.com, utilizando ferramentas de IA para gerar conteúdo e imagens. O site apresentava produtos inexistentes com preços exorbitantes. Além disso, foram geradas 56 perguntas sobre a marca falsa, utilizando a técnica de “leading questions” para embutir premissas falsas. As plataformas testadas incluíram ChatGPT-4, ChatGPT-5 Thinking, Claude Sonnet 4.5, entre outras.

Na primeira fase do experimento, as plataformas apresentaram respostas variadas. O ChatGPT-4 e ChatGPT-5 se destacaram, acertando a maioria das perguntas ao usar o site oficial como referência. Por outro lado, o Perplexity confundiu a marca fictícia com a Xiaomi, enquanto o Gemini e Google AI Mode se recusaram a reconhecer a marca como real. O Claude ignorou completamente o site, não gerando alucinações.

Na segunda fase, foram introduzidas fontes falsas conflitantes, incluindo um artigo fictício no blog Weighty Thoughts e um AMA no Reddit. Essas fontes influenciaram significativamente as respostas das plataformas. O Perplexity e Grok foram completamente manipulados, enquanto o ChatGPT-4 e ChatGPT-5 mantiveram-se robustos, citando a FAQ oficial em grande parte das respostas. O Claude continuou a negar a existência da marca.

Roger Montti, do Search Engine Journal, criticou a metodologia do experimento, argumentando que a marca fictícia não possui uma “verdade oficial” a ser defendida, o que limita a validade das conclusões. Ele destacou que a falta de histórico e citações torna o site equivalente às fontes falsas.

O estudo evidenciou a vulnerabilidade das marcas reais frente a narrativas detalhadas. As plataformas de IA tendem a preferir conteúdos afirmativos e específicos, o que pode levar à disseminação de informações imprecisas. Para proteger suas marcas, as empresas devem produzir conteúdo oficial estruturado e específico, além de monitorar discussões online para evitar sequestros narrativos.

Fonte:https://www.conversion.com.br/blog/experimento-ahrefs-ias/

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Solução de Conteúdo sob medida para sua agência

Você, agência, quer aumentar sua receita com conteúdos e SEO para clientes?

Que tal ter sua própria solução de geração de conteúdos de alta qualidade com white-label da Airticles? Amplie seus serviços e faturamento sem aumentar a equipe.

Nos acompanhe nas redes sociais

Nosso negócio é ajudar o seu.

Endereço

Avenida Dr Rafael Paes de Barros 357
Garça SP

Airticles Tecnologia Ltda | 59.780.182/0001-03. © Todos os direitos reservados.

Criado por Ge Coelho

Quer obter mais trafégo orgânico? Nosso agente de IA automatiza seu SEO de ponta a ponta.

Cadastre-se e nosso time entrará em contato com você em até 15 minutos.