Google Sitemap

Google vient de sortir une nouvelle technologie pour le référencement. Il s’agit de Google Sitemap une technologie basée sur le format XML. Ça a l’air comme ça assez simple voire trivial. Vous décrivez la façon dont vous souhaiter que votre site soit référencé en utilisant le vocabulaire XML associé. De façon plus détaillée on peut alors spécifier la périodicité de mise à jour, la dernière mise à jour d’une url de votre site et l’importance (ou la priorité) relative d’une url par rapport à une autre de votre site.
C’est donc simple d’utilisation… Mais quels seront les bénéfices réels de celui qui l’implémente ?
En premier lieu il sera mieux référencé dixit Google, mais à quel prix ?

  • Le format est bien libre en apparence, c’est un standard que Google essaye de promouvoir. Mais le temps que les autres moteurs de recherches qui le souhaitent l’implémentent il se passera un temps non-négligeable. Les sites qui utiliseront cette technologie apparaîtront ainsi mieux sous Google et uniquement sous Google. C’est une forme de captivité.
  • Les balises meta en (X)HTML ne suffisent-elles pas au référencement ? Est-ce que c’est réellement le boulot du webmestre de faire en sorte que son site facilite et allège la charge du robot d’indexation ? La balise META revisit-after par exemple qui est assez explicite doit pouvoir suffire. La seule innovation apportée est l’importance relative des pages entre elles et c’est à mon avis très difficile à juger et pas forcément d’un intérêt éclatant à première vue…
  • Et d’un point de vue technique ils ont créés un nouveau format XML en se basant sur un schéma XML de type XSD, que je n’aime pas et auquel je préfère RelaxNG.
  • La centralisation qu’entraîne ce nouveau format où toutes les informations sont dans un unique fichier indépendants des fichier HTML ne me plaît pas. En effet je tiens à ce qu’un site ne soit pas forcément un ensemble, un portail homogène et centralisé. Mélanger statique, généré, dynamique est un pilier important de la création Web.

Par contre il y a des points positifs qu’il faut également relever:

  • en premier lieu la licence du format qui est Attribution-ShareAlike Creative Commons License, donc dans l’esprit de la GNU GPL et surtout compatible avec cette dernière;
  • simplifie grandement l’écriture de robots d’indexation, en théorie plus besoin de chercher dans les pages html pour des liens hypertextes, ceux-ci seront directement présents;
  • permet de controler l’importance de certaines pages et ainsi diminuer l’impacts des pages inutiles;
  • diminution du trafic de bande passante par les robots d’indexation;
  • la «carte du site» ainsi générée permettra de développer de nouvelles sortes d’applications permettant de naviguer dans un site de façon plus efficace, plus accessible peut-être…
  • et finalement en effet de bord intéressant, ça incite très fortement le créateur de site web à faire en sorte que les urls soient permanentes et prévisibles sinon ça deviendrait vite galère à maintenir

Pour conclure, je n’implémenterai pas personnellement ce genre de technique. Ça me semble une façon pour Google de rendre son modèle actuel viable sur une plus grande période et pas forcément d’une pertinence extrême pour le créateur de site web.
Voilà j’aimerais que si ça vous intéresse vous me faites part de vos impressions.

via http://googleblog.blogspot.com/2005/06/webmaster-friendly.html

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *