Google Comanda Faxina na Internet

No final de novembro de 2006 eu me perguntei o que teria levado os três maiores mecanismos de busca, e ferozes concorrentes, Google, Yahoo e MSN, a se unir em um projeto comum, chamado mapa do site. Os mapas são feitos em linguagem xml e em arquivo txt. O lançamento de um site, específico para o assunto, em http://www.sitemaps.org/, contendo critérios para a construção dos mapas, oficializou, para o público, essa união. E pensei, então, que esses mapas, que vinham sendo estimulados pelo Google desde dois anos antes, estava envolvidos em algum projeto muito imprtante. Devia ser algo muito mais importante do que eu compreendia e do que a maioria das pessoas entendia e entende hoje. Hoje me parece claro que o Google, com esses mapas, está liderando uma imensa faxina na Internet.

Para que servem esses mapas – Há três ou quatro dias, em um fórum norte-americano, o moderador respondeu á pergunta de uma pessoa sobre a utilidade dos mapas. A resposta, na essência, dizia respeito à possibilidade dos mecanismos de busca poderem indexar todas as páginas de um site, e de disciplinar as visitas a elas, e ainda, se tornarem mais eficientes na captura de conteúdos novos e de atualizações. Esta é uma visão muito estreita deste serviço.

Desde novembro, tenho observado o trabalho que faço, sob orientação do Google, com mapas de sites destinados ao Google (o Yahoo e o MSN ainda não entraram no jogo). Teho observado também, as questões que são levantadas por webmasters e desenvolvedores envolvidos na mesma tarefa, e vejo que somos instrumentos de um grande projeto. Observe os seguintes pontos:

1. Antes de submeter o mapa ao Google, em geral utilizamos um dos muitos programas disponíveis na Internet para construí-los. Ao fazer isto, nos deparamos com vários problemas até então desconhecidos no site, como links quebrados, páginas em duplicata, erros em URLs, etc. É, então, a oportunidade de fazermos várias correções.
2. Quando submetemos o mapa do site, obtemos uma série de informações do Google, informações automáticas é verdade, mas que retratam a forma como o site está sendo visto. E então, outras informações vêm à tona, e novas correções precisam ser feitas. Links mortos, páginas órfãs, páginas em duplicata, links considerados desativados ainda ativos, páginas extintas sendo exibidas, páginas não encontradas, englobam a maioria dos problemas que desafiam o otimizador honesto. Diante desses erros é preciso seguir cada trilha e fazer a correção devida. Vê-se que esses mapas mobilizam muito mais o webmaster e o mecanismo de busca do que os tradicionais mapas em html.
3. Embora automáticas, a interface do serviço é extremamente amigável, tão amigável que lembra as interfaces do AdWords e AdSense, onde o Google tem sua principal fonte de faturamento dos bilhões de dólares anuais. É sugestivo que tal serviço mereça tanta atenção quanto os do faturamento.

Ao executar essas tarefas para um cliente, vejo que estou sendo um instrumento do Google para “limpar” aquele site e, consequentemente, dando uma pequena contribuição para limpar a Internet. Ao fazer essa faxina, estou contribuindo para algo maior e que, independente dos interesses comerciais de qualquer uma das partes envolvidas, resultará numa melhoria para todo o mundo que utiliza a Internet.

Lixão da Internet e mudanças nos costumes – Tenho observado também que esse trabalho me leva a ser mais cuidadoso nas novas tarefas, ao fazer novas páginas, ao lidar com novos links. A verdade é que estamos habituados a lidar com a Internet como se fosse um lixão – não no sentido da qualidade do conteúdo, mas no de jogar na lixeira em que se transformam os servidores, tudo aquilo que consideramos imprestável. Também não nos importamos com o destino de links que não nos interessam mais. Em certos casos, encontramos, nos servidores, maior quantidade de material imprestável do que material que está sendo apresentado na Internet. Então, o Google parece ter assumido o comando de duas metas de longo prazo: fazer essa faxina e “educar” os desenvolvedores e otimizadores de sites.

Trata-se de tarefa gigantesca, já que o Google anunciou, no segundo semestre de 2006, que tem 3,3 bilhões de documentos em seu index (admite-se que, com conteúdo completamente cadastrado, sejam 75% disso; os outros 25% são links que foram capturados ou documentos que foram indexados parcialmente). Se admitirmos, apenas para efeito de raciocínio, que esses documentos têm em média vinte links, chegamos à fantástica cifra de sessenta e seis bilhões de links que foram, são ou serão manipulados pelos programas do Google. Se fosse possível, como num passe de mágica, fazer essa faxina da noite para o dia, esses números possivelmente cairiam para a metade. E o que significaria tal queda? Significaria redução de custos para todos os mecanismos de busca e mais confiabilidade nos resultados das buscas.

Resultados adicionais: projeto complementar – O Google trabalha em outro projeto, cujos resultados convergem para o mesmo fim do mapa do site: o do resultado adicional. Ele é apresentado em certos resultados na lista de busca, logo após o URL. Os responsáveis pelo Google em português foram “bonzinhos” ao cunharem esta expressão. Em inglês a expressão é “supplemental result”, que sugere resultado em segundo plano. Mas eles se constituem em documentos que compõem um segundo index, não incluídos naquela cifra de 3,3 bilhões. Ninguém sabe o tamanho desse segundo index, e até o seu conteúdo não é bem conhecido. Observo, entretanto, que a ocorrência de uma página nesse index indica a existência de algum problema. Por exemplo, é comum a página ter o mesmo conteúdo de outra, ainda que seja um conteúdo parcial. Então, o webmaster responsável, ao se deparar com uma página dessas, faz o mesmo que fez com as informações do mapa do site: procura fazer o diagnóstico e corrigir o problema para que a página seja integrada ao index principal.

O número de resultados adicionais não é desprezível e, claro, pode variar de um site para outro. Há menos de um mês, em um fórum norte-americano, um membro mostrava-se aturdido com o que encontrara em um site sob sua manutenção: milhares (sim, milhares) de páginas se achavam no index suplementar e pouco mais de cinqüenta se achavam no index principal. O alento, quando nos deparamos com resultado adicional, reside no fato de que muitas vezes o que leva uma página para o index secundário, leva também outras páginas do mesmo site, e o diagnóstico do problema de uma página se estende a muitas outras.

Ao efetuarmos as correções, estamos, de novo, sendo instrumentos de “limpeza” da Internet.

Você, eu, todos nós estamos ou estaremos, mais cedo ou mais tarde, envolvidos nessas duas tarefas. E o comando é, inegavelmente do Google, posto que ele começou o processo e continua a sustentá-lo, e ainda, conseguiu a adesão dos outros dois, Yahoo e MSN. E estes dois aderiram porque sabem que os resultados dos mapas dos sites os beneficiarão muito. E é claro, a faxina na Internet beneficiará a todos nós, enquanto usuários.

Esta entrada foi publicada em otimizacao. Adicione o link permanente aos seus favoritos.

2 respostas a Google Comanda Faxina na Internet

  1. Fazer Sites disse:

    E tem realmente dado o maior trabalhão, para pessoas como eu que não suportam ver que há links quebrados ou páginas orfãs em sites que construí. Espero que haja por parte de todos a mesma vontade em realmente fazermos uma internet mais limpa. Quando entro em sites que não carregam devidamente ou tem links para a tradicional 404 eé que sinto como isso irá contribuir sobremaneira para nossa navegação.

  2. Pingback: Minhas Desconfianças com o Canonical Link | Otimização de Sites

Deixe uma resposta

O seu endereço de email não será publicado Campos obrigatórios são marcados *


× seis = 48

Você pode usar estas tags e atributos de HTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>