Impatient de voir les dernières modifications apportées à votre site web remonter dans Google et tutoyer les sommets ? Il faut parfois souvent prendre son mal en patience.

délai avant prise en compte des modifs

Jamais assez rapide, n’est-ce pas ?

Google bot crawle le web en permanence en passant de liens en liens. Derrière cette vision imagée, il y a le principe du surfeur aléatoire et le brevet / algo du PageRank. Pour faire extrêmement simple, plus un site est maillé avec le reste du web et surtout avec des sites de forte autorité, plus Google risque de tomber « par hasard » sur ce site. Et plus Google découvre de contenus intéressants sur le site, plus il risque de revenir souvent.

Modifications structurelles

Lorsqu’un site est vraiment mal pensé pour les outils de recherche (contenu inaccessible ou caché derrière des barrières numériques), Google ne peut pas explorer le site en totalité. À l’inverse, lorsque le moteur de recherche s’égare sur un site web et se trouve face à labyrinthe menant  souvent à des contenus très similaires, le site web n’est pas optimisé. Soit Google ne voit rien et s’en va bredouille, soit il se perd et gâche son budget crawl inutilement. Dans les deux cas, c’est vraiment dommage car l’architecture du site web ne permet pas de montrer aux moteurs quel contenu doit être mis en avant.

Un site web bien conçu pour les moteurs doit permettre d’accéder rapidement à tout le contenu et surtout aux :

  • Contenus incontournables (les meilleurs contenus, les pages qui apportent les meilleurs résultats sur le site)
  • Contenus nouveaux

Depuis Google Search Console, par une exploitation directe des logs serveur ou par un outil dédié, on peut voir le parcours des moteurs et les différents points problématiques. Surtout utile sur les très gros sites ou beaucoup de contenu reste invisible, ce type d’information est indispensable lors d’un audit ou d’une remise à plat.

Un ratio très simple peut être le taux d’indexation (combien de contenu sont indexés par rapport au nombre de contenus uniques du site). Prenons l’exemple d’un site de 300 pages utilies. Plusieurs cas de figure :

  • Ratio inférieur à 1 (200 pages indexées sur 350 soit un taux d’indexation de 0,57) : Google a manqué ou n’a pas voulu indexé 150 pages.
  • Ratio proche de 1 (335 pages indexées sur 350 soit un taux d’indexation de 0,95) : RAS, Google parcourt bien l’ensemble du site.
  • Ratio supérieur à 1 (725 pages indexées sur 350 soit un taux d’indexation de 2,07) : Problème de contenu dupliqué. Google indexe plus de pages que le nombre de contenus utiles. Il y a forcément des doublons.

Modifications sur le contenu

Lorsque le contenu est retravaillé (soit en faisant de l’écrémage, soit en mettant à jour le contenu, soit en ajoutant de nouveau contenu), les moteurs s’en aperçoivent. Et la plupart du temps, s’il n’y a pas de problème structurel (voir ci-dessus) et si les modifications sont suffisamment marquées, le moteur va s’intéresser aux changements apportés. Et éventuellement adapté son crawl en volume ou en ciblage.

Si les modifications sont trop légères (ajouter 20 pages sur un site qui en compte 1000), il y a peu de chances que l’impact se voit. À l’inverse passer de 10 pages à 100 pages à plus de chances d’apporter un changement profond. Encore faut-il que le contenu soit intéressant, utile à l’internaute, parlant pour le moteur de recherche et suffisamment costaud pour rivaliser avec la concurrence. S’amuser à créer un site sur l’immobilier sur Annecy avec 50 pages et aucun lien par exemple ne sert à rien. C’est aussi pour cela que le SEO est difficile. Une mise à jour qui peut sembler importante pour le webmaster pourra très bien être jugée comme négligeable par les outils de recherche.

La  patience a du bon

Il y a quelques années (2012), Google a publié un brevet qui disait que pour prévenir les actions de rétro-ingénierie des référenceurs, les modifications constatées sur le référencement des sites web pourraient être prises en compte seulement plusieurs mois après et en fonction des actions ultérieures menées par les référenceurs.

Sur (contre ?) Google, ce ne sont pas les plus malins qui gagnent, ce sont les plus endurants.