Une architecture parfaitement adaptée au référencement naturel

À quoi sert un site web si les moteurs de recherche ne peuvent pas le parcourir, le comprendre et le faire ressortir dans les pages de résultats lorsque les internautes effectuent des requêtes ? À pas grand chose… C’est pourquoi l’architecture d’un site web est un pré-requis indispensable à tout référencement.
Structure adéquate = référencement SEO efficace
Pour savoir ce qu’il y a dans un site web, les moteurs de recherche envoient des robots (spiders ou crawlers) en reconnaissance. Ces derniers ont pour tâche de lire le contenu de vos pages web. À l’intérieur de ces dernières, ils vont tenter de :
- comprendre le contenu d’une part (afin de classer et qualifier les pages explorées pour les faire ressortir sur certaines requêtes d’internautes) ;
- chercher des liens vers d’autres pages pour pouvoir les parcourir plus tard.
Pour mettre en place une architecture qui facilite le travail des robots, il est nécessaire d’optimiser la structure d’un site web. Visuellement, il n’y a aucun impact. C’est donc un travail relativement abstrait. Par contre, en arrière plan, tout est fait pour faciliter et guider le travail des spiders.
Simplifier le travail des robots de recherche
Concrètement, dans le cadre d’une prestation de référencement, il s’agit d’aider les outils de recherche à :
- parcourir le plus efficacement votre site web en évitant de les faire passer au mêmes endroits et en les faisant parcourir rapidement le site ;
- faciliter la découverte des nouveaux contenus et leur indexation grâce à des alertes automatiques ou des promotions temporaires des nouvelles pages par exemple ;
- ne pas perdre de temps sur des pages à faible valeur ajoutée (les pages creuses de type mentions légales, contact, connexion à un espace membre… sont typiquement inintéressantes pour les moteurs) ;
- montrer et guider vers les pages les plus pertinentes pour votre métier ;
- accompagner la compréhension du contenu et de la structure du site web.

Représentation graphique du maillage non optimisé entre les pages d’un site web ecommerce
Travailler la structure d’un site est la première étape d’optimisation SEO
Analyser le parcours des Bots
Savoir quelles sont les pages visitées par les robots de recherche et quels sont leurs parcours préférés permet d’optimiser la découverte des nouvelles pages. Quel contenu préfère Google sur votre site ? Pourquoi ?
À l’inverse, quelles sont les pages oubliées ou les portions d’un site que les moteurs semble délaisser ? Pourquoi ?
Gérer la popularité et faire ressortir les bons contenus
Quels sont les pages les plus importantes ? Quels contenus doivent être le plus valorisés ? Comment optimiser la répartition du linkjuice et la diffusion de la popularité au sein d’un site web ? En construisant la structure du site web autour du besoin de l’utilisateur, on peut organiser les contenus et pousser le SEO des pages les plus importantes.
Rendre visible tous les contenus
Pas forcément évident de s’assurer que le contenu profond (loin de la page d’accueil) est bien connu des outils de recherche. La construction du site web et le parcours des catalogues de contenus nécessite de mettre en place des optimisations (cocon SEO, arborescence) et des règles de crawl particulières.
Éviter le piège des doublons
Lorsque le contenu est disponible via plusieurs accès (typiquement sur une boutique en ligne avec des mécanismes de filtres multiples), comment indiquer aux moteurs de recherche quels sont les contenus à conserver et à présenter à l’internaute ? Comment s’assurer que les doublons ne polluent pas la navigation et la découverte des autres contenus ?

Visualisation récapitulative macro des aspects techniques d’un crawl de site web
Vous voulez faire mieux avec l’architecture du votre site ?
Remettre à plat une structure de site web et repenser le parcours robots/utlisateurs ne se fait pas à la légère. Discutons-en et voyons ce qu’il est possible de faire.
