Être premier sur Google semble un objectif légitime et jusqu’à il y a quelques années à peine, c’était comme ça. Mais les temps ont changé, Google a évolué et nous nous retrouvons souvent à remettre en question de véritables pierres angulaires du passé.
Nous parlons de classements de mots clés, c’est-à-dire la position où Google affiche un résultat spécifique pour la requête de recherche de l’utilisateur dans le SERP (Search Engine Results Page).
Pourquoi le classement des mots clés n’est-il pas aussi précis qu’auparavant ?
Contrairement au passé, aujourd’hui on peut affirmer avec certitude que le suivi des positions d’un site dans les SERPs n’est plus une méthode 100% précise et fiable comme cela pouvait être le cas il y a quelques années encore. Et ce, sans même utiliser de logiciel professionnel équipé de robots plus ou moins avancés avec rotation des proxys géolocalisés SOCKS5 ou d’autres dispositifs techniques.
Personnalisation et relativité des résultats
Si en 2008 certaines requêtes montraient les mêmes dix résultats identiques dans n’importe quelle partie du territoire, avec n’importe quel appareil et avec n’importe quel utilisateur, aujourd’hui les choses ont profondément changé et le référencement n’est plus aussi « simple » qu’autrefois.
Google essaie de plus en plus de personnaliser le contenu des SERPs en fonction de l’historique de navigation de l’utilisateur pour offrir des résultats de plus en plus pertinents et si cela est bon pour le public, cela peut évidemment fausser le travail des personnes impliquées dans le référencement.
Pour cette raison, un navigateur tel que Chrome est généralement utilisé pour vérifier les positions, ce qui permet la navigation incognito.
Vous accédez à ce mode de navigation en cliquant simplement sur le bouton « Nouvelle fenêtre de navigation privée ». Cela ouvrira une nouvelle fenêtre avec une inscription semblable à «incognito» dans la partie supérieure.
Et si jusqu’à présent la solution de contournement semble efficace, il ne faut pas oublier que souvent les résultats dépendent également de la géolocalisation de l’utilisateur.
Par exemple, si vous recherchez un « coiffeur » avec une adresse IP à Strasbourg, vous aurez probablement des résultats très différents de ceux qui effectuent la même recherche avec une connexion de Brest, malgré le fait qu’aucun composant faisant référence à des lieux spécifiques n’ait été indiqué dans le mot-clé entré par l’utilisateur.
Cela signifie que, en particulier pour ceux qui traitent avec le référencement local , le contrôle de position doit être effectué à l’aide d’adresses IP géolocalisées et ce n’est pas toujours facile, surtout lorsque vous travaillez avec des clients distants.
Si cela ne suffisait pas, l’appareil utilisé est également une variable à considérer, car il arrive souvent de voir SERP sur des appareils mobiles autres que ceux obtenus en accédant à partir du bureau.
Je comprends parfaitement les efforts des différents outils SEO pour fournir à leurs clients des informations et des données analytiques précises, mais à la lumière des problèmes décrits ci-dessus, ce n’est pas toujours possible, même si la tentative de se rapprocher atteint un excellent degré d’approximation.
Résultats au dessus de la première position
Ce n’est pas une nouveauté, mais depuis plusieurs années, le SERP est parsemé d’extraits de plus en plus articulés et équipé d’éléments supplémentaires pour attirer l’attention et fournir des informations supplémentaires au public.
Il suffit de penser au carrousel de vidéos ou d’images qui apparaissent souvent dans les résultats de recherche dans la section organique en haut (avant tout autre), distrayant considérablement et visuellement l’utilisateur des 10 sites classiques et les contournant souvent avec une extrême facilité.
Le fait d’afficher des photographies ou des contenus multimédias dépend du mot-clé spécifique, étant donné que certains sujets sont les mieux adaptés pour présenter du contenu vidéo, tandis que pour d’autres, ils n’apporteraient aucune valeur ajoutée en raison de la nature du sujet traité.
Parmi les éléments de nouveauté, nous ne pouvons pas oublier les fameux extraits en vedette, à savoir ces résultats développés au début du SERP pour répondre immédiatement à une recherche spécifique d’informations utilisateur.
Ces résultats sont si élevés et si différents du reste de la page, que nous avons tendance à les considérer en position zéro, c’est-à-dire par une unité supérieure à la première.
Si d’une part c’est un excellent service au public, car il évite de forcer la visite des pages pour une information rapide, d’autre part ils permettent de donner une visibilité extrême à un résultat qui en réalité n’est pas forcément en première position.
Il existe divers cas dans lesquels cet extrait spécial appartient à des pages qui sont en cinquième, sixième ou même dixième position, ce qui rend le premier résultat classique invisible.
Visibilité sans être en première position sur Google
Sans tenir compte des SERP avec divers carrousels, publicités payées (Google Ads), extraits en vedette ou autres éléments particuliers, une question spontanée peut se poser: un résultat dans la première position a-t-il plus de trafic que les autres?
Si par le passé la réponse était généralement positive, aujourd’hui il y a plusieurs cas qui la nient. Maintenant, nous pouvons utiliser de vraies mesures structurelles pour obtenir plus de trafic que ceux qui nous sont supérieurs.
On nous a toujours dit que la première position obtient plus de trafic car, évidemment, elle est plus visible que les résultats sous-jacents et à l’appui de cette thèse, il existe de nombreuses études, telles que l’étude de cas Smart Insights où il y a un CTR de 30% pour le premier résultat, un 13% pour le troisième, jusqu’à un maigre 2% pour le neuvième (ou celui de Backlinko , avec des données plus ou moins similaires).
Si ces données sont correctes et pour la plupart des SERPs italiens ou étrangers, elles représentent la vérité, cependant, ce n’est pas un dogme valable pour n’importe quel mot-clé, car divers facteurs entrent en jeu qui peuvent même renverser la situation.
Pensez simplement à une recherche qui contient une marque dans le mot clé. Évidemment, si le site officiel était en troisième position, il recevrait probablement plus de trafic que le deuxième résultat et peut-être aussi le premier.
Un autre cas frappant est l’utilisation des célèbres Rich Snippets, via JSON-LD ou Microdata, qui vous permettent d’ajouter des étoiles colorées, des informations sur les temps de cuisson des recettes ou des données sur les films au cinéma.
En raison de l’espace supplémentaire réservé à ces extraits, il arrive qu’un résultat inférieur ait un CTR plus élevé que celui au-dessus, simplement parce qu’au niveau graphique, il attire davantage l’attention du visiteur.
D’un autre côté, il est probable que ces résultats, ayant un CTR supérieur à celui des concurrents sus-jacents, pourraient remonter, car c’est un signal utilisateur fort pour l’algorithme de Google, mais cela dépend au cas par cas selon de nombreux d’autres facteurs SEO.
Référencement : quelle approche adopter pour les années à venir ?
À la lumière de toutes ces complications qui n’existaient pas du tout il y a une dizaine d’années, je voudrais conclure par quelques indications pratiques pour mieux résoudre le problème.
Tout d’abord, personnellement, je surveille toujours le classement des mots clés car ils offrent un excellent indicateur sur la santé du site, notamment en cas de baisse brutale de positions ou pour des passages de la troisième à la première page.
Fondamentalement, je préfère une approche plus « d’évaluation de la visibilité » plutôt que de se concentrer sur l’emplacement spécifique.
Considérant alors que Google effectue des tests de fractionnement continus, on pouvait voir à 10h00 une troisième position qui à 18h00 devient septième, répétant la même situation le lendemain.
C’est précisément pour cette raison, à mon humble avis, qu’il est plus prudent d’évaluer les classements en termes approximatifs et sans perdre le sommeil, en se référant peut-être au panneau Search Console approprié ou à des outils SEO professionnels spécifiques.
Deuxièmement, en plus de se concentrer sur l’acquisition de plus en plus de trafic pour certains mots clés, il est important de faire du CRO (Conversion Rate Optimization) pour essayer de convertir autant que possible le trafic organique déjà à notre disposition.
Pour conclure, il n’est absolument pas dans mon intention de dire que les classements par mots clés sont désormais inutiles et obsolètes, mais je voudrais simplement donner matière à réflexion pour évaluer dans la pratique ce qui compte vraiment aujourd’hui, en particulier dans un secteur en mutation tel que le référencement .
Chaque spécification SERP est différente et à mon avis, il faut considérer qu’un aperçu ou un conseil déduit d’un cas donné pourrait être complètement inapplicable ou même nuisible dans un autre.