Sélectionner une page
Publié par Olivier Andrieu | 8 Nov 2022 | | Temps de lecture : 4 minutes
Toute personne qui s’intéresse au SEO connait son célèbre tryptique : technique, contenu, liens, ces 3 piliers du référencement naturel ayant, historiquement, un rôle, un impact et une importance égale. Cependant, le monde du SEO évolue et, ces dernières années, on a vu d’une part une évolution forte de la prise en compte des aspects techiques (budget crawl, traitement des pages « zombies », Search Console, crawlabilité, indexabilité, etc. en plus bien sûr des balises classiques) et du contenu (le célèbre « Content is King » cher à Bill Gates).
Le crawl, l’indexation et le contenu éditorial sont de plus en plus tirés vers le haut (malgré les tentatives d’automatisation par AI, qui tendent parfois à aller en sens contraire). Pour chacun de ces domaines, une tendance forte se dessine pour aller vers toujours plus de qualité (en dehors des spammeurs, bien sûr). Mais pour ce qui est des liens, force est de constater que la qualité globale de ce critère estimé sur la Toile est en chute libre depuis plusieurs années : liens factices, avec encore parfois des ancres suroptimisées, sur des sites bidons créés uniquement pour le SEO (et qui ne créent donc aucun trafic), etc. Le monde du netlinking s’est en moyenne considérabement appauvri ces derniers temps, et l’un des premiers fautifs de cette situation est bien Google, qui ne pénalise plus mais ignore désormais les liens de faible qualité. Une stratégie qui a ouvert en grand la boîte de Pandore des backlinks spammy. Après tout, si le pire qu’on risque est de voir un lien ignoré, et au mieux, s’il passe entre les mailles du filet et au-dessous des radars, de voir ce backlink spammy faire gagner des positions (même dans une faible moyenne), pourquoi s’en priver ? Au mieux ça fonctionne, au pire, rien ne se passe. Dans un monde sans règles et donc sans sanctions, la chienlit s’installe vite. C’est bien ce qui s’est passé pour le monde des backlinks.
Et Google en convient finalement à demi-mot, puisque, dans un de ses derniers podcasts « Search Off The Record » lors du salon BrightonSEO, John Mueller (porte-parole Google) a déclaré (à 13’52”, voir ci-dessous) qu’il pense qu’avec le temps, les liens en tant que facteur de classement ne seront plus aussi importants qu’aujourd’hui. Et il ajoute : « dans une certaine mesure, les liens seront toujours quelque chose dont nous nous soucierons parce que nous devons trouver des pages d’une manière ou d’une autre. C’est comme si vous trouviez une page sur le web sans y faire référence. (…) Mais je pense qu’avec le temps, ce ne sera plus un facteur aussi important qu’aujourd’hui. Je pense que c’est déjà quelque chose qui a beaucoup changé. » En clair, si on interprète les mots de John Mueller, les liens serviront toujours à trouver des pages pour le crawl, beaucoup moins pour l’analyse de la popularité ou l’ancrage.
Ce serait après tout une évolution assez logique : les immenses progrès fait par les algorithmes des moteurs de recherche grâce à l’intelligence artificielle rendent moins nécessaires des informations de contexte comme les liens, beaucoup trop facilement manipulables. Rien ne dit bien sûr qu’ils vont disparaître, mais leur impact pourrait effectivement baisser dans les années qui viennent, pour prendre en compte des critères plus fiables et moins spammy pour attribuer une pertinence donnée à un contenu en ligne. Est-ce une bonne évolution ? C’est difficile à dire, mais elle nous semble n tout cas inéluctable…
Le podcast « Search Off The Record ». Source : YouTube
Partager :
Note :
Depuis un bon moments je ne tiens plus compte de ces grandes annonces de veunant de google de ses représentants compte tenur de l’effet placebo recherché.
« l’un des premiers fautifs de cette situation est bien Google, qui ne pénalise plus mais ignore désormais les liens de faible qualité. » Si Google pénalise, se serait-ce pas la porte ouverte au negative SEO !
Google a toujours dit que, pour lui, le NSEO n’atit pas un problème. Faut-il le croire ? 🙂
Oui tout change. C’est peut-être dû à Google, mais je dirais que la faute revient aux personnes qui abusent de la création de liens bas de gamme (achat/vente).
Certes, Google aura toujours besoin de backlinks (de qualité) pour connaître l’existence de la page web, mais les propriétaires de sites internet devront de plus en plus travailler à la qualité de leur contenu en concomitance avec une optimisation technique SEO.
Le graal est donc à terme (rapproché) le contenu de haute qualité (critère EAT) avec un bon maillage interne, mais la mauvaise utilisation de l’IA n’aura t’il pas les même conséquences ?
Affaire à suivre
Laisser un commentaire (*** Cliquez ici pour lire la charte de saisie de commentaire ***)
Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *







La charte Abondance.com pour la soumission de commentaires est la suivante :

– Champ Nom : obligatoire. Seuls les noms de famille et/ou prénoms sont acceptés. Un commentaire n’est pas écrit par une entreprise, mais par une personne physique. Les textes d’ancre (sur)optimisés et les noms d’entreprises indiqués dans ce champ verront automatiquement l’URL associée supprimée et la mention [Anonyme] indiquée à cet endroit.

– Champ E-mail : obligatoire. L’adresse mail n’est pas affichée si le commentaire est validé.

– Champ Site web : facultatif. Uniquement affiché si le champ “Nom” contient le patronyme d’une personne (voir ci-dessus). Le mieux est certainement d’y indiquer l’URL de votre compte Facebook, Twitter ou Google+. Mais vous pouvez également y indiquer l’URL de votre site web (page d’accueil uniquement).

Merci !!!
Consultez le site Livre Référencement !
© Abondance | Toute l'actualité sur le SEO et les moteurs de recherche

source

Catégorisé: