A compactação é um mito do Google SEO?

A compactação é um mito do Google SEO?


Recentemente, me deparei com um teste de SEO que tentou verificar se a taxa de compressão afeta as classificações. Parece que pode haver alguém que acredite que taxas de compressão mais altas se correlacionam com as classificações mais baixas. A compreensão da compressibilidade no contexto do SEO requer a leitura da fonte original sobre taxas de compressão e o próprio artigo de pesquisa antes de tirar conclusões sobre se é ou não um mito de SEO.

Os mecanismos de pesquisa comprimem páginas da web

A compressibilidade, no contexto dos mecanismos de pesquisa, refere -se à quantidade de páginas da web pode ser compactada. Encolher um documento em um arquivo zip é um exemplo de compactação. Os mecanismos de pesquisa comprimem as páginas da Web indexadas porque economizam espaço e resulta em processamento mais rápido. É algo que todos os mecanismos de pesquisa fazem.

Sites e provedores de hosts comprimem páginas da web

A compactação da página da web é uma coisa boa, pois ajuda a pesquisar os rastreadores a acessar rapidamente páginas da web, que, por sua vez, enviam o sinal ao Googlebot, que não formará o servidor e não há problema em pegar ainda mais páginas para indexação.

A compactação acelera os sites, fornecendo aos visitantes do site uma experiência de usuário de alta qualidade. A maioria dos hosts da web habilita automaticamente a compactação porque é boa para sites, visitantes do site e também é bom para hosts da web porque economiza em cargas de largura de banda. Todo mundo ganha com a compactação do site.

Altos níveis de compressão se correlacionam com spam

Pesquisadores de um mecanismo de pesquisa descobriram que páginas da Web altamente compressíveis se correlacionavam com conteúdo de baixa qualidade. O estudo chamou Spam, maldito spam e estatísticas: usando análise estatística para localizar páginas da web de spam (PDF) foi realizado em 2006 por dois dos principais pesquisadores do mundo, Marc Najork e Dennis Fetterly.

Najork atualmente trabalha na DeepMind como cientista de pesquisa ilustre. Fetterly, um engenheiro de software no Google, é um autor de muitos trabalhos de pesquisa importantes relacionados à pesquisa, análise de conteúdo e outros tópicos relacionados. Este artigo de pesquisa não é apenas um artigo de pesquisa, é importante.

O que o artigo de pesquisa de 2006 mostra é que 70% das páginas da Web que comprimem a um nível de 4,0 ou superior tendem a ser páginas de baixa qualidade com um alto nível de uso redundante de palavras. O nível médio de compressão dos sites foi de cerca de 2,0.

Aqui estão as médias das páginas normais da Web listadas pelo artigo de pesquisa:

  • Taxa de compressão de 2.0:
    A taxa de compressão que ocorre com mais frequência no conjunto de dados é 2.0.
  • Taxa de compressão de 2.1:
    Metade das páginas tem uma taxa de compressão abaixo de 2,1 e metade tem uma taxa de compressão acima dela.
  • Taxa de compressão de 2.11:
    Em média, a taxa de compressão das páginas analisadas é 2,11.

Seria uma maneira fácil de filtrar o óbvio spam de conteúdo, por isso faz sentido que eles fizessem isso para eliminar spam de conteúdo pesado. Mas a eliminação do spam é mais complicada do que soluções simples. Os mecanismos de pesquisa usam vários sinais porque resulta em um nível mais alto de precisão.

Os pesquisadores de 2006 relataram que 70% dos locais com um nível de compressão de 4,0 ou superior eram spam. Isso significa que os outros 30% não eram sites de spam. Sempre existem discrepantes nas estatísticas e que 30% dos sites não spam é o motivo pelo qual os mecanismos de pesquisa tendem a usar mais de um sinal.

Os mecanismos de pesquisa usam compressibilidade?

É razoável supor que os mecanismos de pesquisa usam a compressibilidade para identificar spam óbvio de mão pesada. Mas também é razoável supor que, se os mecanismos de pesquisa empregarem, eles o estão usando juntamente com outros sinais para aumentar a precisão das métricas. Ninguém sabe ao certo se o Google usa a compressibilidade.

Impossível determinar se o Google está usando a compactação

Este artigo é sobre o fato de que não há como provar que uma taxa de compressão é um mito de SEO ou não.

Aqui está o porquê:

1. Se um site acionasse a taxa de compressão 4.0 mais os outros sinais de spam, o que aconteceria é que esses sites não estariam nos resultados de pesquisa.

2. Se esses sites não estiverem nos resultados da pesquisa, não há como testar os resultados da pesquisa para verificar se o Google está usando a taxa de compactação como um sinal de spam.

Seria razoável supor que os sites com altas taxas de compressão 4,0 foram removidas. Mas nós não saber Isso, não é uma certeza. Portanto, não podemos provar que eles foram removidos.

A única coisa que sabemos é que existe este artigo de pesquisa por aí, de autoria de cientistas ilustres.

Compressibilidade não é algo com que se preocupar

A compressibilidade pode ou não ser um mito de SEO. Mas uma coisa é bastante certa: não é algo com o qual os editores ou SEOs que publicam sites normais devem se preocupar. Por exemplo, o Google canonicaliza páginas duplicadas e consolida os sinais do PageRank para a página canônica. Isso é totalmente normal com sites dinâmicos, como páginas da web de comércio eletrônico. As páginas de produtos também podem comprimir a uma taxa mais alta, porque pode não haver muito conteúdo nelas. Tudo bem também. O Google é capaz de classificar isso.

Algo como a compressão leva níveis anormais de táticas de spam pesadas para desencadeá-las. Em seguida, considere que os sinais de spam não são usados ​​isoladamente por causa de falsos positivos, provavelmente não é irracional dizer que o site médio não precisa se preocupar com as taxas de compressão.

Imagem em destaque de Shutterstock/Roman Samborskyi



Postagens Similares

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *