Menu fechado

Redator Critica o Google AI, Mas John Mueller Descobre o Problema Real

Redator Critica o Google AI, Mas John Mueller Descobre o Problema Real - Marketing Digital

Redator Critica o Google AI, Mas John Mueller Descobre o Problema Real

Um Redator postou um artigo em seu blog criticando o Google AI por apresentar uma nota nos SERPs dizendo que o site estava fora do ar desde o início de 2026. No entanto, o Redator não criou um post no Reddit, apenas linkou para o artigo do blog que criticava o Google e o AI.

John Mueller, do Google, ofereceu uma solução simples para o problema do Redator. Mueller identificou a causa do problema como sendo relacionada à implementação do JavaScript e explicou que não era culpa do Google.

O Artigo do Redator

O artigo do Redator critica o Google, com um título que mistura termos de computação que sobre-complicam e, inconscientemente, descrevem o problema de forma incorreta. O título do artigo é:

“O Google Pode Pensar que o Seu Site Está Fora do Ar
Como a Agregação de Informação de Página Cruzada Pode Introduzir Novos Vetores de Risco.”

Essa parte sobre “agregação de informação de página cruzada” e “vetores de risco” é impressionante, pois nenhum desses termos é um conceito estabelecido na ciência da computação.

A “agregação de página cruzada” provavelmente se refere ao Query Fan-Out do Google, onde uma pergunta no modo de AI do Google é transformada em múltiplas perguntas que são então enviadas para a Pesquisa Clássica do Google.

Quanto aos “vetores de risco”, um vetor é um conceito real discutido no SEO e é parte da Processamento de Linguagem Natural (NLP). No entanto, “vetor de risco” não é parte disso.

O artigo do Redator admite que não sabe se o Google é capaz de detectar se um site está ou não está on-line:

“Não estou ciente de o Google ter alguma capacidade especial para detectar se os sites estão on-line ou off-line. E mesmo que meu serviço interno estivesse off-line, o Google não seria capaz de detectar isso, pois está atrás de uma parede de login.”

Eles parecem não estar cientes de como funciona o RAG ou o Query Fan-Out, ou talvez como funcionam os sistemas de AI do Google. O autor parece considerar que a descoberta de que o Google está referindo informações frescas em vez de Conhecimento Paramétrico (informações no LLM que foram obtidas durante a treinamento) é uma descoberta importante.

Eles escrevem que a resposta do AI do Google diz que o site indicava que o site estava off-line desde 2026:

“…a fraseologia diz que o site indicou, em vez de as pessoas terem indicado; embora, na era dos LLM, essa distinção possa não significar muito mais.
…menciona explicitamente o período como cedo 2026. Como o site não existia antes do meio de 2025, isso sugere que o Google tem informações relativamente frescas; embora, novamente, LLMs.”

Um pouco mais adiante no artigo, o Redator admite que não sabe por que o Google está dizendo que o site está off-line.

Eles explicam que implementaram uma solução de “tiro no escuro” removendo um pop-up. Eles estavam errados ao achar que era o pop-up que estava causando o problema, o que destaca a importância de estar certo sobre o que está causando o problema antes de fazer alterações na esperança de que isso resolva o problema.

O Redator compartilhou que não sabia como o Google resume informações sobre um site em resposta a uma pergunta sobre o site, e expressou sua preocupação de que eles acreditam que seja possível que o Google possa coletar informações irrelevantes e exibi-las como resposta.

Eles escrevem:




“…não sabemos exatamente como o Google monta a mistura de páginas que utiliza para gerar respostas de LLM.
Isso é problemático porque qualquer coisa nas suas páginas da web pode agora influenciar respostas não relacionadas.
…o AI do Google pode pegar qualquer coisa disso e apresentá-la como a resposta.”

Não culpo o autor por não saber como funciona a busca de AI do Google, pois não é amplamente conhecido. É fácil ter a impressão de que é um AI que está respondendo às perguntas.

Mas o que está basicamente acontecendo é que a busca de AI é baseada na Pesquisa Clássica, com a AI sintetizando o conteúdo que encontra online em uma resposta em linguagem natural. É como perguntar a alguém uma pergunta, eles pesquisam no Google e então explicam a resposta com base no que aprenderam lendo as páginas da web.

John Mueller Explica o que está acontecendo

Mueller respondeu ao post do Redator de forma neutra e educada, mostrando por que a culpa é da implementação do Redator.

Mueller explicou:

“Isso é o seu site? Eu recomendo que você não use JS para alterar o texto na página de “não disponível” para “disponível” e em vez disso carregue essa parte toda do JS. Assim, se um cliente não executar seu JS, ele não receberá informações enganosas.

Isso é semelhante a como o Google não recomenda usar JS para alterar a tag meta-robots de “não indexar” para “por favor, considere meu trabalho de marcação HTML para inclusão” (não há uma tag meta-robots de “indexar”, então você pode ser criativo).”

A resposta de Mueller explica que o site está confiando no JavaScript para substituir o texto de lugar que é servido brevemente antes que a página carregue, o que funciona apenas para visitantes cujos navegadores executam esse script.

O que aconteceu aqui é que o Google leu o texto de lugar que a página da web mostrou como conteúdo indexado. O Google viu o conteúdo original servido com a mensagem “não disponível” e tratou como o conteúdo.

Mueller explicou que a abordagem mais segura é ter a informação correta presente no HTML básico da página desde o início, para que tanto os usuários quanto os motores de busca recebam o mesmo conteúdo.

Lições Aprendidas

Existem várias lições aprendidas aqui que vão além do problema técnico subjacente ao problema do Redator. Em primeiro lugar, eles tentaram adivinhar o caminho para uma resposta.

Eles realmente não sabiam como funciona a busca de AI do Google, o que introduziu uma série de suposições que complicaram sua capacidade de diagnosticar o problema. Em seguida, eles implementaram uma “solução” com base em adivinhar o que eles pensavam que estava provavelmente causando o problema.

Adivinhar é uma abordagem para problemas de SEO que é justificada pelo fato de o Google ser opaco, mas às vezes não é sobre o Google, é sobre uma lacuna de conhecimento em SEO e um sinal de que mais testes e diagnóstico são necessários.

Imagem Destaque por Shutterstock/Kues


Fonte Original: Search Engine Journal. Curadoria e Insights: Redação YTI&W.



Redação YTI&W-Digital

Redação YTI&W-Digital | Yassutaro TI & WEB

Cobertura de novidades no universo do marketing digital, tutoriais e indicação de ferramentas úteis.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Publicado em:Marketing Digital