Chaque année, je me dois de relire les “Quality Rater Guidelines” de Google, 160+ pages de pur bonheur et de statistiques reliées aux mystérieux “quality raters” employés par Google.
Alors que certains acteurs du domaine SEO utilisent ce genre de document pour trouver la moindre faille dans le système de Google, ce qu’il faut comprendre de ce guide c’est qu’il n’explique qu’en partie comment Google indexe et positionne les sites qu’il analyse; la partie gérée par des humains, et non celle gérée par des robots. C’est en lisant le brevet du PageRank de Google que je suis tombé sur une remarque très intéressante en rapport avec l’influence des Raters:
“[…] selecting seeds involves a human manually identifying these high-quality pages […]”
Producing a ranking for pages using distances in a web-link graph – P.4, L.34-35
Dans le but de conserver l’intégrité de la phrase ainsi que sa signification, la citation ici-haut restera en anglais. Voici donc quelques définitions à comprendre avant de poursuivre:
- Seeds :Celles-ci sont des pages considérées comme des sources fiables selon Google. Donc des pages qui ont précédemment obtenu une bonne cote lors du processus de notation de leur qualité.
- Human :Dans ce brevet, on peut interpréter que les humains sont en fait les “Raters”, les gens employés par Google pour manuellement évaluer certaines pages.
- High-Quality Pages :Une page de bonne qualité est une page qui rempli bien ou très bien les différents facteurs
Il sera plus facile de comprendre le véritable rôle des interactions humaines dans le Search en gardant ces définitions en tête, ainsi que de comprendre comment les multiples algorithmes de Google peuvent bénéficier de telles interventions qualitatives. D’ailleurs, l’année 2015 était la dernière fois que ce brevet de Google à été mis à jour, coïncidence avec le lancement de RankBrain?
Un rapide récapitulatif du processus de positionnement
La recherche, l’indexation et le positionnement des pages web n’a pas vraiment changé depuis les années 1990, les fondations sont solides et ne sont pas prêtes de changer.
- Le robot parcours le web à la recherche de pages web
- Le robot catégorise et interprète les pages basées sur leur contenu et leur contexte
- Les pages catégorisées et interprétées sont compressées, indexées et positionnées dans le moteur de recherche
- La compression est utilisée pour faciliter le transfert de données
- L’indexation est le résultat de la catégorisation
- Le positionnement est le résultat final de plusieurs facteurs
- Tout est ensuite consolidé dans un centre de données (serveur) puis parcouru par les utilisateurs (moteurs de recherche côté client)
- Chaque fois qu’un utilisateur soumet une requête au moteur de recherche, ce dernier parcours sa base de données et fournit la réponse la plus pertinente selon l’indexation et la position
Rien de tout cela ne devrait être une surprise pour des gens plus expérimentés dans le domaine du SEO. En fait, il existe une multitudes d’autres ressources qui décrivent plus en détail comment fonctionnent les moteurs de recherche, comme cet article de nos amis chez OnCrawl. Ce qui nous intéresse particulièrement, c’est la méthodologie utilisée pour positionner les pages web — la 2ème étape du processus ici-haut — le “comment” de ce processus qui implique l’intervention humaine à des fins qualitatif.
Les bases du positionnement: Ce qu’on sait
Encore une fois, rien de nouveau pour ceux et celles qui s’y connaissent déjà. Les experts du milieu estiment qu’ils y a plus de 200 facteurs différents qui peuvent influencer le positionnement d’une page web dans l’index de Google. Cet article de Backlinko en liste une grande partie, mais il n’existe pas de nombre “officiel” ou “stable” de facteurs de positionnement. Chez Bloom, nous regroupons ces facteurs en trois(3) grandes catégories:
- Facteurs techniques
- Facteurs reliés au contenu
- Facteurs externes
Il est vrai que nos audits techniques analysent plus de 80 points différents, mais vous remarquerez qu’on ne touche pas aux 200 facteurs listés par Backlinko ainsi que par d’autres sources externes. C’est simplement parce que nous n’avons pas le contrôle sur une majeure partie de ces facteurs et que nous nous concentrons sur l’amélioration de facteurs contrôlables pour nos clients. Au niveau du contenu, il existe des règles plutôt standards pour nous aider à trouver les bonnes opportunités, mais la pertinence en tant que tel est déterminée par les utilisateurs. Et enfin, les facteurs externes sont externes et très peu influençables.
Alors en théorie, si une page web coche toutes les cases des trois grandes catégories de positionnement mentionnées ci-haut, elle devrait bien performer de manière organique, c’est ça? En fait, si c’était si simple, chaque page aurait sa position #1 sur n’importe quel terme et ce serait le chaos total dans les SERP. Même si le moteur de recherche de Google est composé de plusieurs algorithmes complexes qui travaillent en parallèle, ayant pour seul but d’améliorer la pertinence des résultats fournis, la meilleure manière de déterminer la pertinence d’un résultat reste de passer par un utilisateur, dans ce cas-ci, un “Rater”.
Les « Raters », leur tâche et leur impact sur le Search
En gardant en tête que la majeure partie du travail de positionnement est fait par des machines dotées d’intelligence artificielle, des robots et autres technologies, l’aspect qualitatif des résultats de recherche requiert une intervention humaine. Les “Raters” sont les gens employés par Google pour manuellement analyser des pages web et déterminer leur pertinence face à des requêtes particulières.
Ces “Raters” ont une liste de consignes claires et strictes à suivre ainsi qu’une méthodologie précise pour analyser ces pages. Je vous épargne les détails, mais vous pouvez trouver le manuel de 160+ pages juste ici.
On remarque que la pertinence de ces pages est déterminée par deux(2) facteurs:
- La qualité de la page (Page Quality ou PQ)
- Satisfaction des besoins (Needs Met ou NM)
La qualité de la page (PQ)
La qualité de la page, ou “PQ”, est une caractéristique basée uniquement sur le contenu de la page en question. Ce contenu est divisé en trois(3) sections différentes:
- Contenu principal (Main Content ou MC)
- Contenu secondaire (Secondary Content ou SC)
- Publicité & Monétisation (Advertisements & Monetization ou Ads)
Chaque section est évaluée individuellement et est ensuite assemblée avec les autres sections pour une analyse sommaire. Le MC d’une page réfère au “coeur” de la page, c’est où on y trouve de l’information qui aide l’utilisateur à accomplir quelque chose ou à répondre à une question précise. Le SC d’une page est tout ce qui touche à la navigation d’un site, des ressources additionnelles, des documents, etc; tout ce qui aide le MC à répondre aux attentes de l’utilisateur. Le volet “Ads” comporte toute forme de monétisation excluant le service ou le produit offert par le site. Cette section est strictement réservée aux publicités.
Toutes ces sections, une fois évaluées, sont ensuite soumises à une analyse de leur paramètres “E-A-T”. Si vous êtes familier avec le SEO, vous avez fort probablement déjà entendu parler du “E-A-T” — “Expertise, Authority & Trustworthiness”. Cette partie du processus d’évaluation implique une recherche exhaustive de la réputation non seulement de la page web, mais aussi de la personne l’ayant rédigée. Un expert, une autorité du domaine ou une personne de confiance sont tous trois des sources fiables pour les “Raters”.
Depuis quelques années, Google est sans merci lorsqu’il découvre des pages avec un bas score de “E-A-T”, surtout lorsque la page en question traite de sujets pouvant se rapporter au “YMYL” (Your Money Your Life) tels que des conseils de santé financière, mentale ou physique. Ces sujets sont jugés beaucoup plus sévèrement car ils peuvent avoir un impact direct sur les utilisateurs, autant positifs que négatifs.
En somme, le PQ d’une page évalue le but de la page web (ainsi que si la page accompli ledit but) ainsi que les facteurs “E-A-T”.
Satisfaction des besoins (NM)
Ce facteur pourrait être considéré comme une extension du “but” évalué par le PQ, à la différence où le NM se base principalement sur le résultat de recherche obtenu au lieu de la page web en soit. Le NM évalue la pertinence du résultat comparé à la requête proposée par l’utilisateur. Le but final étant alors de comprendre si les résultats obtenus dans le SERP sont satisfaisants. Les “Raters” doivent donc analyser chaque résultat indépendamment, pour des requêtes spécifiques.
Ce qui est intéressant ici c’est qu’une page web spécifique pourrait être très bien construite et avoir un bon score de PQ, mais ne serait pas satisfaisante pour les utilisateurs qui la consultent, obtenant alors un score NM en deçà de la moyenne. Une page bien positionnée devrait avoir un bon score autant pour le PQ que pour le NM. Une autre différence marquante par rapport au NM est qu’ils est beaucoup plus facile à tester car il ne suffit de prendre les métriques d’engagement du site et de les analyser.
Tout dépendamment de la nature du site, un taux de rebond élevé (dans la plupart des cas) indique que l’intention de l’utilisateur ne correspond pas à ce qui est mis à sa disposition sur la page. Même si nous savons que Google (le moteur de recherche) et Google Analytics ne partagent pas de données, vous pouvez faire vos propres conclusions et tester différentes requêtes.
Une autre manière efficace de tester le NM est en analysant une SERP pour une requête spécifique. Par exemple, un utilisateur que cherche “hôtel” sur son mobile, quelle est son intention? Un résultat Google Maps? Un site d’un hôtel spécifique? Un répertoire? En listant les résultats attendus, il devient très facile de bien gérer les attentes des utilisateurs et de personnaliser le contenu en fonction de cela.
Il n’y a pas que les robots
Les experts SEO ont toujours dit que “les utilisateurs sont toujours priorisés” et que toute action SEO devrait servir à mieux satisfaire les utilisateurs et pas les robots. L’intervention des “Raters” dans le processus de positionnement ne fait que renforcer cet argument. Si un “Rater” remarque que le contenu de la page web est explicitement conçu pour plaire aux robots, la page obtiendra un score très bas, voire même nul. Ceci influencera les algorithmes de recherche et causera potentiellement une perte de performance organique.
Certaines personnes tentent toujours de trouver LA faille dans les algorithmes de Google en utilisant des techniques qui “fonctionnent” telles que créer des sites de basse qualité pour essayer de déclasser des sites performants. Il y aura toujours des manières de détourner certaines règles, mais les “Raters” ne sont pas seulement utilisés pour mettre à jour ces barèmes, ils sont aussi utilisés pour parfaire les algorithmes de recherche tels que RankBrain pour qu’ils détectent des sites de mauvaise qualité plus rapidement.
P.S: Une autre très intéressante analyse a été publiée par un autre expert SEO du Royaume-Uni, Matthew Woodward, pendant que je faisais moi-même mes études sur le sujet. Je vous invite à la consulter ici.