Google publica novos robots.txt explicador

Google publica novos robots.txt explicador


O Google publicou um novo robots.txt Refresher explicando como o robots.txt permite que editores e SEOs controlem os rastreadores de mecanismos de pesquisa e outros bots (que obedecem a robots.txt). A documentação inclui exemplos de bloqueio de páginas específicas (como carrinhos de compras), restringir certos bots e gerenciar o comportamento de rastejamento com regras simples.

Do básico ao avançado

A nova documentação oferece uma rápida introdução ao que é robots.txt e avança gradualmente para uma cobertura cada vez mais avançada do que os editores e SEOs podem fazer com robots.txt e como isso os beneficia.

O ponto principal da primeira parte do documento é introduzir robots.txt como um protocolo da Web estável com um histórico de 30 anos que é amplamente suportado por mecanismos de pesquisa e outros rastreadores.

O console de pesquisa do Google reportará uma mensagem de erro 404 se o robots.txt estiver faltando. Não há problema em que isso aconteça, mas se isso o incomodar, ver isso no GSC, você pode esperar 30 dias e o aviso cairá. Um alternativo é criar um arquivo robots.txt em branco, que também é aceitável pelo Google.

A nova documentação do Google explica:

“Você pode deixar seu arquivo robots.txt vazio (ou não tem um) se todo o seu site pode estar rasteado ou você poderá adicionar regras para gerenciar rastejamento.”

A partir daí, abrange o básico, como regras personalizadas para restringir páginas ou seções específicas.

Os usos avançados de robots.txt abrange esses recursos:

  • Pode atingir rastreadores específicos com regras diferentes.
  • Permite bloquear padrões de URL como PDFs ou páginas de pesquisa.
  • Ativa o controle granular sobre os bots específicos.
  • Apoia comentários para documentação interna.

A nova documentação termina descrevendo como é simples editar o arquivo robots.txt (é um arquivo de texto com regras simples), para que tudo o que você precisa é de um editor de texto simples. Muitos sistemas de gerenciamento de conteúdo têm uma maneira de editá -lo e existem ferramentas disponíveis para teste se o arquivo robots.txt estiver usando a sintaxe correta.

Leia a nova documentação aqui:

Robôs Refrescador: robots.txt – Uma maneira flexível de controlar como as máquinas exploram seu site

Imagem em destaque de Shutterstock/Bluestork



Postagens Similares

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *