Redator Critica o Google AI, Mas John Mueller Descobre o Problema Real
Um Redator postou um artigo em seu blog criticando o Google AI por apresentar uma nota nos SERPs dizendo que o site estava fora do ar desde o início de 2026. No entanto, o Redator não criou um post no Reddit, apenas linkou para o artigo do blog que criticava o Google e o AI.
John Mueller, do Google, ofereceu uma solução simples para o problema do Redator. Mueller identificou a causa do problema como sendo relacionada à implementação do JavaScript e explicou que não era culpa do Google.
O Artigo do Redator
O artigo do Redator critica o Google, com um título que mistura termos de computação que sobre-complicam e, inconscientemente, descrevem o problema de forma incorreta. O título do artigo é:
“O Google Pode Pensar que o Seu Site Está Fora do Ar
Como a Agregação de Informação de Página Cruzada Pode Introduzir Novos Vetores de Risco.”
Essa parte sobre “agregação de informação de página cruzada” e “vetores de risco” é impressionante, pois nenhum desses termos é um conceito estabelecido na ciência da computação.
A “agregação de página cruzada” provavelmente se refere ao Query Fan-Out do Google, onde uma pergunta no modo de AI do Google é transformada em múltiplas perguntas que são então enviadas para a Pesquisa Clássica do Google.
Quanto aos “vetores de risco”, um vetor é um conceito real discutido no SEO e é parte da Processamento de Linguagem Natural (NLP). No entanto, “vetor de risco” não é parte disso.
O artigo do Redator admite que não sabe se o Google é capaz de detectar se um site está ou não está on-line:
“Não estou ciente de o Google ter alguma capacidade especial para detectar se os sites estão on-line ou off-line. E mesmo que meu serviço interno estivesse off-line, o Google não seria capaz de detectar isso, pois está atrás de uma parede de login.”
Eles parecem não estar cientes de como funciona o RAG ou o Query Fan-Out, ou talvez como funcionam os sistemas de AI do Google. O autor parece considerar que a descoberta de que o Google está referindo informações frescas em vez de Conhecimento Paramétrico (informações no LLM que foram obtidas durante a treinamento) é uma descoberta importante.
Eles escrevem que a resposta do AI do Google diz que o site indicava que o site estava off-line desde 2026:
“…a fraseologia diz que o site indicou, em vez de as pessoas terem indicado; embora, na era dos LLM, essa distinção possa não significar muito mais.
…menciona explicitamente o período como cedo 2026. Como o site não existia antes do meio de 2025, isso sugere que o Google tem informações relativamente frescas; embora, novamente, LLMs.”
Um pouco mais adiante no artigo, o Redator admite que não sabe por que o Google está dizendo que o site está off-line.
Eles explicam que implementaram uma solução de “tiro no escuro” removendo um pop-up. Eles estavam errados ao achar que era o pop-up que estava causando o problema, o que destaca a importância de estar certo sobre o que está causando o problema antes de fazer alterações na esperança de que isso resolva o problema.
O Redator compartilhou que não sabia como o Google resume informações sobre um site em resposta a uma pergunta sobre o site, e expressou sua preocupação de que eles acreditam que seja possível que o Google possa coletar informações irrelevantes e exibi-las como resposta.
Eles escrevem:
“…não sabemos exatamente como o Google monta a mistura de páginas que utiliza para gerar respostas de LLM.
Isso é problemático porque qualquer coisa nas suas páginas da web pode agora influenciar respostas não relacionadas.
…o AI do Google pode pegar qualquer coisa disso e apresentá-la como a resposta.”
Não culpo o autor por não saber como funciona a busca de AI do Google, pois não é amplamente conhecido. É fácil ter a impressão de que é um AI que está respondendo às perguntas.
Mas o que está basicamente acontecendo é que a busca de AI é baseada na Pesquisa Clássica, com a AI sintetizando o conteúdo que encontra online em uma resposta em linguagem natural. É como perguntar a alguém uma pergunta, eles pesquisam no Google e então explicam a resposta com base no que aprenderam lendo as páginas da web.
John Mueller Explica o que está acontecendo
Mueller respondeu ao post do Redator de forma neutra e educada, mostrando por que a culpa é da implementação do Redator.
Mueller explicou:
“Isso é o seu site? Eu recomendo que você não use JS para alterar o texto na página de “não disponível” para “disponível” e em vez disso carregue essa parte toda do JS. Assim, se um cliente não executar seu JS, ele não receberá informações enganosas.
Isso é semelhante a como o Google não recomenda usar JS para alterar a tag meta-robots de “não indexar” para “por favor, considere meu trabalho de marcação HTML para inclusão” (não há uma tag meta-robots de “indexar”, então você pode ser criativo).”
A resposta de Mueller explica que o site está confiando no JavaScript para substituir o texto de lugar que é servido brevemente antes que a página carregue, o que funciona apenas para visitantes cujos navegadores executam esse script.
O que aconteceu aqui é que o Google leu o texto de lugar que a página da web mostrou como conteúdo indexado. O Google viu o conteúdo original servido com a mensagem “não disponível” e tratou como o conteúdo.
Mueller explicou que a abordagem mais segura é ter a informação correta presente no HTML básico da página desde o início, para que tanto os usuários quanto os motores de busca recebam o mesmo conteúdo.
Lições Aprendidas
Existem várias lições aprendidas aqui que vão além do problema técnico subjacente ao problema do Redator. Em primeiro lugar, eles tentaram adivinhar o caminho para uma resposta.
Eles realmente não sabiam como funciona a busca de AI do Google, o que introduziu uma série de suposições que complicaram sua capacidade de diagnosticar o problema. Em seguida, eles implementaram uma “solução” com base em adivinhar o que eles pensavam que estava provavelmente causando o problema.
Adivinhar é uma abordagem para problemas de SEO que é justificada pelo fato de o Google ser opaco, mas às vezes não é sobre o Google, é sobre uma lacuna de conhecimento em SEO e um sinal de que mais testes e diagnóstico são necessários.
Imagem Destaque por Shutterstock/Kues
Fonte Original: Search Engine Journal. Curadoria e Insights: Redação YTI&W.