Pour écrire du contenu qui plaira aux outils de recherche et qui permettront de se faire indexer et bien positionner dans les résultats de recherche, il fallait écrire du contenu unique. Avec les outils IA capables d’écrire tout seul, ça ne suffit plus.

gain informationnel

Contenu unique et information nouvelle sont deux concepts bien différents

Le contenu unique, un mantra longtemps répété

Le contenu unique fait partie des grands principes d’écriture pour le web. Derrière cette notion reprise par tout le monde à tort et à travers, il y a une idée forte. Si je suis un outil de recherche, par exemple au hasard Google, et que je trouve deux contenus très très similaires, je vais choisir d’en proposer qu’un seul à mes internautes car il n’y a aucun intérêt à proposer deux liens qui disent la même chose.

À partir de ce constat, les référenceurs recommandent aux rédacteurs web d’écrire des contenus uniques. Lorsque le rédacteur écrit uniquement avec son cerveau, le contenu est toujours unique. Dès lors, qu’il ne maîtrise pas vraiment le sujet et qu’il va chercher de l’aide (sur le web, c’est le plus simple), les problèmes commencent à arriver :

  • Le contenu peut être copié à partir d’un contenu déjà existant ;
  • Le contenu peut être paraphrasé à partir de contenus déjà existants ;
  • Le contenu peut être traduit à partir de contenus existants (et pas seulement du texte) ;
  • Le contenu peut être modifié (synonimisation, changement de temps, permutation de phrases) ;
  • L’ensemble des techniques ci-dessus peuvent être utilisées.

Pour s’assurer de l’unicité des contenus, des outils de vérification ont été développés et sont utilisés lorsqu’on produit du contenu à la chaîne. Parfois, les rédacteurs les proposent eux-mêmes, parfois lorsqu’on passe par une plateforme de rédaction de contenus, ce sont les plateformes qui l’incluent dans leur process qualité.

Au final, on obtient bien un contenu unique, si on considère que « unique » veut dire : une suite de mots encore jamais vus organisés de cette manière.

Et l’IA est arrivée

Il était de plus en plus facile et peu onéreux d’arriver à produire des masses de textes uniques. Depuis que les outils type ChatGPT, propulsés à l’intelligence artificielle, sont devenus très grand public, la production de nouveaux contenus a explosé. À la main ou plutôt via les mécanismes d’échanges automatisés (les fameuses API), produire et publier des milliers de textes se fait désormais en un rien de temps.

On peut demander aux outils d’IA de produire des résumés, de développer un sujet, de reformuler, d’agréger les données, de se baser sur ce qu’on écrit les 10 premiers placés sur Google, d’ajouter les bons mots au bon endroit dans le texte, de traduire… Bref, tout ce que les rédacteurs faisaient avant à la main ou aidés de quelques outils.

Avec ces nouveaux outils, on obtient toujours du contenu qui correspond à la définition de contenu « unique ». Mais est-ce que ce contenu est utile pour autant ?

Mécaniquement, le nombre de pages à indexer a grossi de façon exponentielle et les robots de recherche se sont trouvés paniqués. Comment faire face à l’afflux de ces nouveaux contenus à traiter ? Comment choisir ceux qui doivent être auscultés en premier ? Comment s’économiser (crawler et indexer consomme beaucoup de ressources) ?

La réponse ? Le gain informationnel

Les moteurs ont déjà des algorithmes pour distinguer le contenu de « qualité » du reste. Par exemple, est-ce que l’historique de publication est de qualité ? Est-ce que l’auteur montre une expérience particulière sur le sujet ?

Chez Google, en juin 2022, un brevet propose la notion de « information gain score ». Le brevet, qui était dans les cartons depuis au moins deux ans, mesure le gain informationnel entre les contenus de la même niche. Dit autrement, l’idée c’est de mesurer l’apport d’informations nouvelles plutôt que le niveau d’unicité d’un contenu. Et là, tout change.

Apporter une information nouvelle ne peut pas se faire via une IA. L’IA n’est pas capable de produire de nouvelles informations. Elle est dépendante du corpus de contenus sur lequel elle se base. Les rédacteurs qui ne sont pas experts d’un sujet ne sont pas non plus capables d’apporter une information neuve.

Seuls les connaisseurs d’un sujet deviennent alors capables d’apporter ce fameux contenu neuf. Exit 99% des producteurs de contenus. Et pour les robots, exit les problèmes de surutilisation de ressources de crawl face aux vagues de contenus recyclés sans vrai gain pour l’utilisateur.

Le travail de production de contenus au niveau de qualité attendu par les outils de recherche redevient difficile. Et donc valorisé.