Être bien placé dans Google amène-t-il nécessairement des clics ? À partir de ces clics, Google est-il capable de juger si le taux de clic d’une page web est bon ou pas ? le CTR sert-il à Google pour affiner le classement des résultats ? Les critères EAT sont-ils importants ? Si oui, comment se fait-il que certains sites remontent toujours alors qu’il ne sont pas particulièrement fiables ? Dans cet article, on tord le cou à 3 idées bien ancrées autour du poids des critères CTR, taux de rebond et EAT.

eat ctr taux de rebond

Les moteurs de recherche peuvent-ils raisonnablement se servir de ces indicateurs ?

Pourquoi le taux de clic dans les résultats de recherche est surévalué

Le taux de clics dans les résultats de recherche serait un critère dont se sert Google pour affiner ses classements. Sur le fond, la réflexion est intéressante. En mesurant les clics sur les différents résultats d’une requête, Google pourrait se rendre compte que les utilisateurs cliquent plutôt sur tel ou tel résultat et favoriser ceux qui sont le plus cliqués. Procéder ainsi serait fiable car les données sont justes (Google peut mesurer ces clics sans dépendre d’un outil tiers mal configuré – typiquement les données de Google Analytics qui sont fausses sur la majorité des sites web). Avec ces données de première main et faciles à exploiter, Google et les autres moteurs pourraient améliorer leur pertinence en utilisant le retour du terrain : les clics des vrais internautes.

Oui mais. Google a sorti ce 24 mars une étude pour expliquer qu’il ne gardait pas pour lui la majorité du trafic en réponse à un article de Rand Fishkin. Au delà des recherches à 0 clic, le moteur explique que les internautes cliquent en fait assez peu sur les résultats… Contre-intuitif ? Et pourtant, quand vous vous connectez à votre Google Search Console, vous remarquerez le très grand écart qu’il y a entre les impressions (le nombre de fois ou votre site web ressort en résultat) et le nombre de clics. Même lorsqu’on limite aux tops positions (lorsque votre site est dans le top 3). Le CTR est parfois ridicule même en étant bien placé.

Le job de Google c’est de comprendre l’intention de recherche de l’internaute et lui donner la bonne réponse. Et parfois l’internaute a besoin de préciser sa requête. Parfois encore, il veut simplement une info rapide, un numéro de téléphone… Au final, l’internaute peut être satisfait de la réponse obtenue même s’il a cliqué sur aucun résultat.

Pour corser le tout, les moteurs se rappellent des recherches précédentes en fonction du lieu, de l’heure, de l’internaute et essaient de comprendre l’intention de recherche au fil d’une session de recherche pour proposer de meilleurs résultats. De quoi rajouter une belle couche de complexité qui rend l’interprétation du CTR difficile. Et chez Google, on a pas vraiment envie de dépenser des ressources (source de coût !) pour une amélioration finalement pas si justifiée.

Pas mieux pour le taux de rebond et le pogosticking

Si on continue la réflexion, le taux de rebond sur un site peut-il être considéré comme un indicateur fiable de l’intention ou mieux de la satisfaction de l’utilisateur ? Non. Et pour plusieurs raisons :

  • Un internaute qui consulte une page web et qui s’en va satisfait est satisfait. Autre exemple : l’internaute qui trouve le contenu intéressant mais qui n’a pas le temps peut placer la page web en favoris pour y revenir plus tard. Est-il insatisfait ? Pourtant dans ces deux cas, le taux de rebond sera mauvais. À l’inverse, un internaute qui ne trouve pas ce qu’il veut et cherche plusieurs pages sur le site est-il satisfait de sa session de navigation sur votre site web ?
  • Le tracking est rarement juste et avec les contraintes RGPD il l’est encore moins. Ainsi, un internaute qui arrive sur un site et clique sur « Accepter les cookies » seulement à sa troisième page de navigation ne sera tracké qu’à partir de la troisième page…
  • Alors, oui, il existe d’autre indicateurs que l’on peut mettre en place pour mesurer la satisfaction de l’utilisateur (taux de scroll sur des pages de contenus par exemple) mais Google ne va pas faire confiance à ces données qui ne sont pas de première main et qui peuvent donc être manipulées.

Fin de la parenthèse avec le taux de rebond et transition avec le CTR : C’est en partie à cause des explications précédentes que le pogosticking (le fait de cliquer sur les résultats de recherche successivement et revenir à la recherche Google pour voir les autres pages) n’est pas non plus exploitable par les moteurs…

Certes, il existe des brevets qui ont été déposés et des théories qui expliquent que les outils de recherche pourraient se servir du CTR, du pogosticking, du taux de rebond mais au final, est-ce que Google s’en sert ? Si oui, c’est certainement en tenant compte des fortes contraintes évoquées plus haut et l’impact doit logiquement être marginal…

Pourquoi les critères E-A-T sont, eux aussi, surestimés ?

Google encourage les webmasters à produire du contenu de qualité et à mettre en avant leurs expertises, leur autorité et rassurer les internautes en montrant patte blanche. Il y a, là aussi, un brevet de Google pour EAT (Expertise – Autorité – Confiance). Mais cela ne veut pas dire que Google l’utilise.

C’est surtout sur les sites sensibles (que Google catalogue comme « YMYL » – Your Money or Your Life – sites traitant de santé, d’argent…) qui ont besoin d’envoyer des signaux EAT. Google souhaite vraiment envoyer les internautes vers des pages ou le contenu est juste et de qualité. C’est un souhait de la part du moteur mais est-il capable de savoir si un site est un site de confiance, s’il fait autorité et s’il publie du contenu expert ?

Les sites qui remontent le plus dans les résultats sont-ils vraiment EAT ? Wikipédia, par exemple, contient une masse considérable d’information mais des approximations sur presque toutes ses pages. Le contenu des pages peut changer au fil du temps, les rédacteurs ne sont pas forcément identifiés et liens vers les sources (les citations en pied de page) sont faciles à manipuler. Pour l’expertise, l’autorité et la confiance, peut mieux faire ! Et pourtant le site remonte sur quasiment toutes les requêtes informationnelles.

Autre exemple avec Le Gorafi, site parodique, qui publie des histoires tellement grosses qu’elles ne résistent pas à une lecture un peu attentive. Idem avec les réseaux de sites de fake news ou de vérité alternative… Les moteurs ne savent pas les repérer et ont besoin d’humains et de « fact-checking » pour différencier le vrai du faux. Ces sites peuvent faire autorité auprès de certains cercles d’internautes et avoir leur confiance. Ces sites peuvent avoir dans leur équipe un vrai expert qui se trompe ou qui parle avec assurance d’une expertise qui n’est pas la sienne…

Pour un moteur, ou placer le curseur ? Aujourd’hui, concrètement, il est impossible aujourd’hui de se baser sur les critères E-A-T. Alors Google les utilise peut-être mais de façon très légère.

Oui mais j’ai un exemple…

Dernier point de vigilance qui s’applique à tout ce qui est dit plus haut. Ce n’est pas parce qu’un site web semble parfaitement cadrer avec une explication (CTR, EAT, taux de rebond… ou autre) que l’on peut extrapoler au reste du web. Les moteurs de recherche traitent différemment les métiers, les langues, les types de sites… Ce qui peut sembler être la conséquence d’une mise à jour, une pénalité ou au contraire un bonus et un gain de performance n’est certainement qu’une vaguelette imperceptible dont il est impossible de tirer la moindre conséquence. Surtout lorsque l’on sait que les mises à jour chez Google ont lieu plusieurs fois par jour et que leur impact n’est pas forcément immédiat.

Attention donc avec les études et les rumeurs… CTR, taux de rebond et EAT sont simples à comprendre mais il y a peu de chances qu’ils aient un impact solide dans les résultats de recherche. Quel sera le prochain indicateur que les webmasters et référenceurs se plairont à incriminer et extrapoleront sur ces potentielles conséquences ? Parions que les Core Web Vitals et la web-perf seront de parfaits candidats !