Ajustes no Algoritmo do Google Geram Instabilidades nas Posições Orgânicas



Ruy Miranda



Uma coisa que tem chamado a atenção de quem acompanha as posições dos sites nos resultados orgânicos do Google é sua instabilidade. Por instabilidade eu me refiro a mudanças de uma, duas, três, cinco posições em uma página nos resultados orgânicos.

Razões da instabilidade – O fenômeno é mais observado nos sites posicionados na primeira página de resultados orgânicos. Quando acompanhamos um site cuja palavra-chave principal se acha na segunda ou terceira página, não damos muita atenção aos sites vizinhos. Já quando a disputa é por posições na primeira página, nós não só observamos os vizinhos como passamos a conhecer suas virtudes e pontos fracos. Mas o fato é que as oscilações ocorrem em todas as páginas de resultdos e têm sido rotineiras nos últimos anos, e a razão para isto é a excessiva quantidade de ajustes que o Google vem fazendo no seu algoritmo.

Essa instabilidade não poupa sequer os sites colocados na primeira posição, exceto quando a diferença dele para os demais é muito grande. Tais oscilações geram perplexidade e, dependendo de estar melhorando ou piorando, geram alegrias ou frustrações. Para se ter idéia, o Google fez em torno de 450 ajustes no seu algoritmo de cerca de 200 variáveis, no ano de 2007, e neste ano de 2008 não deverá ser diferente. Cada ajuste, ainda que seja uma sintonia fina aqui e ali, gera uma cadeia de mudanças nas posições.

Oscilaçãoes mais fortes, como por exemplo passagem da primeira página de resultados para a segunda e um ou dois dias depois voltar para a primeira, podem ocorrer também. Elas resultam de ajustes mais profundos ou de maior amplitude. Você pode distinguir um movimento destes no seu site em relação a uma eventual punição, observando os sites vizinhos. Eles também são envolvidos de alguma forma na movimentação.

Mudanças mais significativas em 2008 – Provavelmente a mudança mais significativa no ano de 2008 até aqui, seja a redução da importância do PageRank na definição de posições. A duplicidade de conteúdo é outra variável que passou a ter, segundo minhas observações, uma importância maior. Ambas têm um sentido lógico. A primeira porque é grande a quantidade de links que fogem do objetivo inicial desta medida – os links espontâneos são em menor número do que os comprados ou “forçados” de uma maneira ou outra. Não tem, por exemplo, a menor lógica um site de, digamos, otimização de sites, ter milhares de links externos. A segunda porque o crescimento vertiginoso do número de páginas na Internet, e paralelamente o número de páginas copiadas total ou parcialmente, gera muitos problemas nas definições de posições.

É praticamente impossível evitar que o site sofra oscilações no Google, já que a posição é definida por cerca de 200 variáveis. Ninguém, afora um grupo seleto de engenheiros e dirigentes na matriz amricana do Google, é capaz de saber quais são todas essas variáveis. A alternativa, na minha opinião, é usar o bom senso. Com ele podemos acertar muitas dessas variáveis e, com isto, reduzirmos as oscilações.



Dezembro, 2008

Temas relacionados:

Proprietário    Nota Legal     Política    Blog    Contato
Copyright © 2005-2014, Otimização de Sites Todos os direitos reservados