Lors de nos échanges avec les propriétaires de sites web et leurs webmasters, il s’agit d’une question qui revient constamment. Idéalement, combien faudrait-il de pages ou de contenus sur un site web pour qu’il soit bien référencé, qu’il satisfasse l’internaute et apporte les résultats attendus à l’entreprise.

combien de pages sur un site web

10, 100 ou 10000 pages sur un site web : quel est le bon nombre ?

Et la bonne réponse est… ça dépend. Ce serait trop simple s’il y avait une seule bonne réponse. Google classe des pages (pas des sites) et historiquement, le conseil était de cibler un mot clé par page produite. Aujourd’hui, la réflexion est différente. Regardons différents cas de figure.

Référencement naturel ou publicité ?

Lorsque l’on écrit du contenu pour être bien placé dans Google pour répondre au besoin de l’internaute ET être bien placé dans Google, il y a forcément des règles que l’on respecte pour plaire aux moteurs. Ces règles, tout le monde les connaît : utiliser des mots clés métiers forts, utiliser une mise en page qui valorise certains termes (titraille…), faire des liens entre les pages et organiser l’architecture du site web afin de guider les robots par les pages les plus intéressantes. Mécaniquement, on est plus sur des sites avec un nombre de pages élevés. D’ailleurs, il y a une causalité assez franche entre le nombre de contenus publiés et le trafic qu’envoie les moteurs.

À l’inverse, si le trafic provient essentiellement de publicité, l’objectif est toujours de plaire l’internaute mais beaucoup moins aux moteurs. Comme le trafic est acheté, il est important de le rentabiliser. Pour cela, on va mettre en place des pages d’atterrissage (pas forcément liées avec le reste du site), on va faire des tests à base de variations (pour voir quelle version convertit le plus), et on va centrer le discours sur l’utilisateur. Exit les gros mots clés bien placés pour plaire à Google. À la place, tout va être orienté pour finaliser une vente, récupérer un email ou générer un appel. Bien souvent, ces pages seront interdites d’accès aux moteurs. La logique est donc complètement différente. On ne raisonne plus en terme de trafic depuis les moteurs mais en terme de leads ou de vente. Le nombre de pages est beaucoup moins important et on aura 1 page maître par campagne publicitaire qui sera déclinée en X versions.

Gros mots clés ou longue traîne ?

Si on part dans une optique de référencement naturel, vaut-il mieux cibler tout de suite de gros mots clés ou bien des requêtes plus faciles mais apportant individuellement moins de trafic (longue traîne) ? Dans la majorité des cas (site peu ou moyennement référencé), l’approche qui consiste à viser les top mots clés sera un échec. On ne se bat sur les gros mots clés que si on a les épaules suffisamment solides. Et cela se construit au fil du temps par une architecture solide, un contenu dense et quali et une popularité et des liens en provenance du reste du web.

C’est parce que le contenu peu ou moyennement concurrentiel est d’abord traité et organisé sous la forme d’une arborescence bien pensée (pensez à un arbre avec ses ramifications de plus en plus fines) que la recette magique va fonctionner. En faisant cela, on traite les 2 première problématiques du SEO (l’architecture avec ses liens internes et le contenu). Reste toujours le problème des liens depuis l’extérieur. Mais en travaillant d’abord les petites requêtes, le site peut commencer à capitaliser un peu de référencement. Ce référencement peut remonter l’arborescence et transmettre son potentiel bénéfique au pages de niveaux supérieurs qui ciblent des mots clés de plus en plus gros.

La boucle est bouclée : la longue traîne correctement organisée dans l’architecture du site favorise les mots clés plus concurrentiels. Pas de miracle avec seulement quelques pages.

Entreprise connue sur son marché ou pas ?

La notoriété est vraiment importante. Elle influe sur l’utilisateur et transparaît sur les métriques qualitatives du site : taux de rebond, durée de visite, nombre de pages vues, nombre de partages pour les critères les plus basiques mais aussi interactions, contacts et ventes lorsque l’on regarde du côté des métriques plus orientées métier. Une entreprise connue (et reconnue) auprès de son public cible pourrait se contenter d’un site web avec moins de contenus car son capital de notoriété influe positivement sur le reste.

Pour ceux qui ne sont pas connus, pas le choix : il faut travailler et être irréprochable sur le contenu et l’UX car il faut convaincre aussi bien Google que les utilisateurs. Bien souvent, ça passe par de très jolies pages qui sont orientées vente et de nombreuses pages qui rassurent et apportent aux visiteurs les réponses dont ils ont besoin.

Passif SEO ou petit nouveau ?

On se retrouve ici proche du cas précédent : l’historique en terme de visibilité est important car il peut grandement faciliter les choses ou au contraire rendre la tâche plus ardue. Pour faire simple, un site ancien, bien aimé par les moteurs de recherche, qui n’a pas tenté de manipuler sa visibilité est doté d’un capital de confiance et de sympathie auprès des outils de recherche (c’est plus compliqué que ça mais l’idée est bien celle-ci). À l’inverse, le nom de domaine récent est inconnu des moteurs : pourquoi lui faire confiance ? La confiance et l’autorité se méritent et vont croissants avec le temps. Quand aux sites web qui ont été sanctionnés pour mauvais comportement (suroptimisation, piratage subi, volonté de truander Google, UX et expérience utilisateur décevante), il va falloire ramer dur. Parfois, la solution consiste à faire table rase du passé et repartir sur un nouveau nom et un nouveau contenu.

Injuste ou pas ? Les anciens sites en odeur de sainteté auprès des moteurs peuvent se permettre certaines actions qui vont les propulser et les maintenir haut dans les classements. À l’inverse, les petits sites devront produire du contenu dense et efficace pour espérer rattraper leur retard et atteindre le même résultat. Aux gros, la possibilité de se contenter du minimum, aux challengers la mise en place d’un paquet de pages.

Ce qu’il faut vraiment éviter

  • Les sites monopage (one page) sont particulièrement difficiles à référencer et à positionner sur des requêtes un minimum concurrentiel.
  • Produire des pages pour produire des pages (les pages de type actu sont typique de contenu inutile pour la visibilité).
  • Penser quantité plutôt que qualité. Les pages creuses ne sont jamais une bonne solution.
  • Ne pas organiser ses pages en fonction des robots ET du parcours utilisateur au fil de la vente.
  • Les pages très similaires (navigations par différentes portes d’entrée en ecommerce à remplacer par une navigation à facette, archives de catégories…) entraîne du contenu dupliqué et gaspillent inutilement le budget crawl des moteurs.

Pour conclure

  • Plus un site a de pages, plus il aura de trafic à condition que ces pages soient qualitatives et aident le visiteur.
  • Produirai-je cette page si Google n’était pas présent ? Autrement dit, la page est-elle utile à l’internaute ?
  • Produirai-je autant de pages si Google n’étais pas là ? Autrement dit, simplifier, regrouper, fusionner plusieurs pages apporterait-il une plus value à l’internaute ?