Falsa Punição Menos 30

Ruy Miranda
Otimização de Sites


Se o seu site se encontra depois da posição 30 no Google e não existe nada de errado com ele, pode estar ocorrendo uma falsa punição menos 30. Com isto quero dizer que os programas do banco de dados do Google estão interpretando equivocadamente as informações do seu site.

Quando ocorre a falsa punição menos 30 – A falsa punição menos 30 ocorre, sobre tudo, em sites que sofreram mudanças seguidas, especialmente quando houve redirecionamentos internos. Ela pode acometer tanto um site que está sendo monitorado pelo Google, via meta verificação, com relatórios na área de webmasters, como outro site que não está. Aparentemente, os sites que estão sendo monitorados com esta meta, são mais susceptíveis a este erro posto que o Googlebot é acionado com mais freqüência.

Implicações do Googlebot – Quando o site é acompanhado pelo Googlebot, via meta verificação, e você faz uma mudança qualquer no site, e comunica isso pelo mapa em xml e reenvia o mapa, o robot vai copiar a(s) página(s) modificada(s) o mais rápido possível. Digamos que antes desses dados serem processados no banco de dados, você faz outra modificação, e segue os mesmos procedimentos. Digamos, ainda, que isto ocorre outras vezes porque você está ansioso para melhorar o desempenho do site ou porque está descobrindo cada vez mais coisas a serem aprimoradas nele. Tudo indica que, em tal situação, ocorre uma paralisia dos programas do banco de dados do Google no trato dos dados do seu site. Essa paralisação é normal e programada em tais situações.

Por outro lado, se tudo isso ocorre, mas o site não tem mapa em xml e tampouco foi submetido ao Google na área de webmasters, as chances de ocorrer essa paralisia são menores porque você não está acionando seguidamente o robot. Ele visita o site dentro de uma programação de tempo, que varia com a freqüência das mudanças ou atualizações anteriores. Ao chegar, o robot escaneia de uma só vez todas as mudanças feitas por você até aquela data, e só voltará na data programada. É uma situação diferente daquela em que você pode solicitar a visita do robot seguidamente.

Outras causas envolvendo links – Uma vez que o norte da bússola do Google está voltado para links, certas coisas que os envolvem podem gerar uma falsa punição. Digamos que o site tem sérios problemas de navegação, como por exemplo, um menu básico em todas as páginas e outro menu que só aparece na home. Isto acarreta vários transtornos na indexação ou re-indexação do site, posto que pode-se requerer seguidas visitas dos robots à home. Digamos que você corrigiu o problema colocando o segundo menu em todas as páginas. Esses novos links, uma vez no banco de dados, são checados inúmeras vezes, e não raro o Google dá informações erradas sobre alguns deles, seja na área de webmasters ou na listagem das páginas do site quando se faz uma busca das páginas do site pela Internet. E enquanto o site estiver sendo "visto” como portador de erro, ainda que inverídico, sofrerá algum tipo de punição.

Um pequeno equívoco em algum link em um site que está sendo "observado” via submissão na área de webmasters, pode “travar” a evolução do site nas listas de resultados orgânicos, seja por meio de uma punição menos 30 ou outra de menor alcance. Outro site que eventualmente cometa equívoco mais sério ou usou um truque (digamos que colocou palavras-chave com a mesma cor do fundo), mas que não se acha sob “observação”, poderá não ser punido. Se estiver recebendo punição, mas corrigir o problema, provavelmente terá a punição suspensa logo após a próxima passagem do Googlebot. Em síntese, há muitas evidências de que o site submetido à área de webmasters passa por análises mais profundas e detalhadas. Este é um dos motivos pelos quais muitos otimizadores não gostam de fazer essa submissão. Mas isso é um equívoco porque se ele fizer as mudanças no mesmo rítmo das mudanças programadas (ou dando espaço de tempo entre as muddanças) não ocorrerão conflitos nos bancos de dados

Causas envolvendo duplicidade de conteúdo – Outra situação muito comum, também por equívoco no manuseio (digamos ao fazer um redirecionamento), ocorre quando há duplicação de conteúdo no site. Toda vez que o Google se depara com uma situação desta, a punição é imediata. Digamos que você recebe alguma informação sobre tal ocorrência, ou a descobre por seus próprios méritos, e faz a correção. Possivelmente a punição vai perdurar por um tempo longo após a correção. Isto pode ser observado na área de webmasters – o problema já foi corrigido, mas a mensagem sobre ele continua lá. Se você insiste e reenvia seguidamente o mapa do site, possivelmente estará complicando ainda mais a sua situação. Certamente, neste caso, você está recebendo uma punição indevida, uma falsa punição, que pode ser a menos 30.

Causas envolvendo uso de páginas dinâmicas – Há situações em que o site tem uma ou mais, ou mesmo todas as páginas editadas dinamicamente, e que compromete(m) a indexação. Esta é uma questão controvertida. Até 2006 apareciam informações oficiais de mecanismos de busca dizendo que a presença de certos caracteres na URL, próprios de páginas dinâmicas, como por exemplo ?, se constituíam em obstáculo para os robots. Em conseqüência, algumas páginas de site dinâmico podiam deixar de ser indexadas ou podiam ser indexadas de forma parcial. É fácil entender os motivos: o robot chega a uma página com uma ordem de escaneá-la, digamos, em 0,015 segundos, ou seja, em quinze milésimos de segundo; terminado este tempo ele segue para outra página do site ou de outro site que consta em sua programação, e manda para a central os dados que conseguiu obter naquele tempo. O resultado é, naturalmente, indexação parcial ou nenhuma. Esta página entra numa programação de re-visita para completar o serviço, o que pode demorar meses. Isto ocorre com certas páginas estáticas também, por motivos diferentes, mas o que interessa aqui são as dinâmicas.

O mais comum nessas situações é a punição como descrita acima e, ainda, punição mais severa da página onde ocorre o obstáculo. Esta pode ficar em alguma posição na casa de centésimos.

A despeito da evolução dos mecanismos de busca em indexar páginas dinâmicas, há evidências de que elas são, quando comparadas a páginas em html pleno, mais suceptíveis de gerar falsas punições. Esta é uma situação típica de punição indevida, posto que decorre de alguma incapacidade do mecanismo de busca em lidar com páginas dinâmicas.

(A evolução nessa área chegou às páginas dinâmicas, mas com URLs amigáveis. Os símbolos que atrapalham o desempenho dos robots, assim como os números às vezes infindáveis, saem da URL e no seu lugar entram palavras e números mais simples. Nós programmaos um re-escrita das URLs.)

Causas Desconhecidas – A punição pode ser absolutamente absurda para você ou qualquer outro que examine o site. (É preciso checar se o site sofreu mudanças feitas por outra pessoa e você não sabe o que ocorreu.)

Uma causa absurda é a retirada de uma página sem qualquer problema, da lista de páginas do site. Deixe-me explicar isto melhor. Digamos que o site está recebendo um punição menos 30 e se acha, digamos, na posição 35. Você corrigiu o problema e ele continua lá ou próximo de 35. Ao checar a lista de páginas do site no Google, via Internet, você observa que está faltando uma página que não tem nada a ver com a história. Esta página pode ser, por exemplo, a do mapa em html. Então você indaga: "O que aconteceu com esta página? Outro dia ela estava aqui". Se os site está na área de webmasters, no relatório de Sitemaps vai aparecer, digamos, Páginas no sitemap em xml: 20 / Páginas indexadas: 19. Por que a página mapa em html que estava indexada para todo o sempre antes, desapareceu?

Se, pelos critérios do Google, a falha foi mais séria (em geral isso significa mais trabalho e mais tempo gasto com o site por meio de visitas do Googlebot e cálculos no banco de dados), o site pode ficar com as palavras-chave principais depois da posição 40. Neste caso você vai checar a lista de páginas na Internet e vê que estão faltando duas (que se achavam ali poucos dias antes). Se o site está na área de webmasters, no relatório de Sitemaps vai aparecer, digamos, Páginas no mapa em xml: 20 / Páginas indexadas: 18. Por que duas páginas que estavam indexadas para todo o sempre antes, desapareceram?

Se uma ou duas páginas forem retiradas de um site pequeno, digamos de menos de 20 páginas, como nos exemplos dos dois parágrafos anteriores, isto causa um grande desequilíbrio no algorítmo, e a punição é mantida. Veja que o Google usa um truque para manter a punição: diante da correção do erro, parece que ele cria um problema artificial, e o site continua sendo punido. Se isto não é feito de forma programada, evidencia uma falha nos programas do banco de dados ou uma lentidão nos processamentos.

Falhas no banco de dados do Google são comuns. Quem está habituado a analisar relatórios emitidos na área de webmaster já se deparou com inúmeras inconsistências, com informações contraditórias e equivocadas. Infelizmente, quem sofre as conseqüências é o dono do site, sem direito a qualquer apelo.

Mas a página está indexada – Para você se certificar de que a página está indexada, ao contrário da informação do Google, há vários caminhos. O mais contundente é fazer uma busca na área de busca do próprio Google do tipo:

inurl:dominio pagina.html

Neste caso você vai substituir a palavra dominio pelo nome do seu domínio e pagina pelo nome da página e sua terminação (html, php, asp, etc). A página deve aparecer na sua busca – você pode, ainda, clicar no link cache que aparece logo abaixo ou depois da URL. Em seguida verifique a data em que o Google fez a cópia da página.

Repita a operação com outra página que aparece na lista de indexadas e faça uma comparação. Não se surpreenda se a página ausente da lista aparece com data anterior à outra.

É lícito pensar que há uma determinação automática para que uma ou mais páginas de certos sites sejam dadas como não indexadas, quando na verdade estão. O leitor pode fazer suas conjecturas; eu farei as minhas.

Freqüência na área de webmasters – Há fortes evidências de que tais coisas ocorrem com muitíssima maior freqüência em sites que se acham na área de webmasters. Por que?

Porque provavelmente o Google parte do princípio de que o webmaster tem elementos para identificar o problema, corrigi-lo a não repeti-lo, e porque, atuando nessa área, o Google está alcançando um maior número de sites, posto que cada webmaster acaba sendo responsável pela otimização e/ou manutenção de vários sites. Enquanto isto, os erros cometidos por sites comuns, fora da área de webmasters, ainda que de má-fé, são considerados de boa-fé e rapidamente retornam às posições devidas. Esta é, provavelmente, uma maneira de obrigar os webmasters a fazer uma faxina na Internet, mas que começa a dar sinais de que está resultando num tiro no pé do Google.

Faturamento vs bug – Há, também, fortes evidências de que tais coisas ocorrem com mais freqüência em sites que vinham fazendo anúncios no AdWords. E devido à falsa punição, continuam a anunciar. Por que isto ocorreria?

É claro que devemos partir do pressuposto que o Google é uma empresa séria e que não usa subterfúgios para aumentar seu faturamento. Abandonada esta hipótese, resta outra, a de que algum tipo de bug localizado na área do banco de dados onde se acha o seu site, é responsável pela "paralisia", "travamento", "perda" de páginas.

Onde é aplicada a punição – A punição é sempre aplicada na palavra-chave principal e todas as suas composições. Digamos que sua principal palavra-chave seja 'água’ e que ela aparece em frases-chave como ‘ água pura’, 'água destilada’, 'água impura’ e assim por diante. Digamos ainda que seu site tem outras palavras-chave secundárias, e que uma delas é ‘líquido’. As composições de frases com esta palavra podem não sofrer punição alguma; pode até ter alguma delas (digamos ‘liquido destilado’) em primeiro lugar nas buscas no Google. Isso certamente é uma indicação de que o site está bem otimizado internamente, mas que, por um engano cometido por você, está sendo punido.

O que fazer – A solução pode ser relativamente simples.

-- Retirar a meta verificação – De forma simplificada, direi que, se seu site está sendo monitorado pela meta verificação, você deve retirar essa meta. Entretanto, é preciso que você “force” os programas a reverem a página onde está ocorrendo a punição indevida. A maneira mais simples de conseguir isso é introduzir alguma mudança no título da Web. Esta mudança pode ser o acréscimo ou retirada de uma palavra. Tenho minhas dúvidas de que seja necessário fazer alguma mudança na meta descrição, mas se você quiser cercá-la também, introduza ou retire uma ou duas palavras. Quando o Googlebot vier para visitar o site dentro da programação normal (o que pode ser de poucos dias ou vários meses – você fica sabendo se veio pela data no cache da página), ele naturalmente enviará para a central de dados a informação de mudanças operadas no site. Se quiser, você pode ainda agir de forma mais radical: além de excluir a meta verificação, exclua também o mapa em xml da área de webmasters e deixe os seus programas acertarem as coisas no seu devido tempo.

-- Submeter o mapa em xml ao Google – Se seu site não está sendo monitorado, você deve fazer um mapa em xml e submetê-lo na área de webmasters. Se quiser, pode introduzir uma pequena mudança no título da web. Parece um paradoxo, mas isso faz parte das “manhas” do negócio. Uma vez submetido, o site passará por uma reavaliação e a punição pode desaparecer em poucos dias.

-- Páginas dinâmicas – Quando se trata de página dinâmica, se as soluções citadas acima não derem resultado, e ainda se for cabível, é melhor colocar bloqueio de acesso nas metas robots, na página “problema”.

-- Erros no CSS – Os mecanismos de busca têm enorme capacidade de lidar com sites cuja estrutura se baseia em CSS, por mais complexa que ela seja. Entretanto, se foi cometido algum equívoco na(s) folha(s) de CSS na construção ou durante uma atualização do site, isto pode se converter em problema de posicionamento de alguma página durante um certo tempo, ainda que o erro tenha sido corrigido. Isto ocorre particularmente quando a(s) folha(s) de CSS carrega(m) muitos links, aliado ao longo tempo que os robots levam para visitar a página em que ocorreu o problema. As alternativas de solução podem ser idênticas às citadas acima.

Estas soluções podem ser resumidas da seguinte maneira: se o Google é mais exigente com quem sabe mais de otimização, então finja-se de ingênuo (saindo da área de webmasters). Se você é considerado ingênuo, então vá para a área de webmasters e obtenha as informações possíveis ali. Mesmo porque, a qualquer época, você pode sair e retonar à condição de "ingênuo".

Algumas destas situações não são, propriamente, “falsas” punições. Melhor seria chamá-las de punições por pseudo erros. Mas usar este ou aquele nome não faz diferença. O que importa mesmo é que páginas na Internet, particularmente as indexados pelo Google, podem estar posicionadas inadequadamente por uma falha nos programas do próprio Google ou por algum tipo de determinação dos programas em seu banco de dados.

Tempo de punição – Há fortes evidências de que o Google pune, por um determinado tempo, certos erros nas páginas. Ou seja, ainda que você corrija o erro rapidamente, a punição vai permanecer por um determinado tempo, e o mais comum é a permanência por 30 (trinta) dias. Entretanto, há casos intrigantes – um site com meta verificação, pode receber uma falsa punição menos 30 por tempo indeterminado; se você não toma providência, ele ficará por ali por meses seguidos e aparentemente para todo o sempre, a despeito de ser objeto de downlods freqüentes.

A maioria desses problemas desa pareceram com o advento do Google Caffeine cujo mérito maior é a extrema rapidez nas operações.

Outubro/2008
Novembro/2008
Julho/2011

Proprietário    Nota Legal     Política    Blog    Contato
Copyright © 2005-2014, Otimização de Sites Todos os direitos reservados