Pour tout abonnement, recevez notre livre blanc “Réussir son blog”.

La profondeur d’une page, en SEO… qu’est-ce que c’est ? Dans notre quotidien au sein de l’agence, nous étudions régulièrement la structure d’un site web, c’est-à-dire la profondeur d’une page correspond au nombre de clics nécessaires pour atteindre cette page depuis la page d’accueil, en utilisant le chemin le plus court. Par exemple, une page reliée depuis la page d’accueil sera à profondeur 1…
Elle n’est pas à confondre avec la notion de profondeur de page mentionnée dans les outils de Web Analytics, qui se rapporte à la visite d’un utilisateur et à la séquence de pages qu’il a vues au cours de cette visite. Dans ce contexte précis, la profondeur d’une page est le nombre de clics qu’il a fallu à l’utilisateur pour atteindre la page.
Les pages profondes ont un PageRank moins élevé (ou aucun PR) et sont moins susceptibles d’être crawlées par les robots des moteurs de recherche. Cela signifie que les robots sont moins susceptibles de les découvrir, et s’ils les ont découvertes, ils sont moins susceptibles de revenir les explorer pour vérifier si elles sont toujours là et si elles ont changé. Il est bien entendu que le fait qu’elles soient crawlées ne signifie pas que ces pages vont être positionnées dans les moteurs de recherche, mais c’est un prérequis.
Ce qu’il faut retenir, c’est que les pages profondes sont moins susceptibles d’être positionnées dans les moteurs de recherche.
Voici quelques exemples de graphes de répartition de la profondeur à l’échelle du site, qui montrent qu’il y a un problème.
Exemple d’un graphique de BOTIFY.
Dans l’exemple ci-dessus, les profondeurs 11 et au-delà sont cumulées, mais nous pouvons voir que le site va jusqu’à la profondeur 18. D’un clic sur l’icône en haut à droite, nous obtenons un tableau de données, que nous pouvons trier selon la colonne profondeur pour voir les pages les plus profondes en premier.
Exemple 2 :
À noter : la profondeur est artificiellement augmentée d’un niveau puisque la page d’accueil générale du site est redirigée vers la page d’accueil locale d’un pays.
Exemple :
À qui la faute ?
Dans le premier exemple ci-dessus, le problème de profondeur est causé par des filtres.
Dans le second, il est généré par des urls mal formées, certaines d’entre elles créant par ailleurs un lien perpétuel.
Dans le 3ème, on a une combinaison de pagination profonde, de paramètres de tracking et de filtres multiples.
Regardons ces principales causes d’un peu plus près, et voyons comment localiser et gérer ces problèmes.
Quoi ?
Toute longue liste paginée. Encore pire avec toute combinaison des facteurs suivants :
Où ?
Dans des listes qui présentent le contenu principal du site : des produits, des articles, etc., ou dans d’autres listes qui ne viennent pas forcément immédiatement à l’esprit, comme les listes de contenu généré par les utilisateurs (évaluations de produits, commentaires sur des articles).
C’est grave ?
Ce sera le cas si ces longues listes sont le seul chemin d’accès à une partie du contenu clé. Par exemple, des produits qui ne sont listés nulle part ailleurs, donc ne figurent dans aucune autre liste plus courte – une zone de recherche interne au site aidera les utilisateurs à trouver du contenu, mais elle ne sera d’aucune utilité pour les robots.
Vous saurez si c’est le cas en explorant les pages les plus profondes dans l’URL Explorer (cliquez sur l’une des profondeurs max dans le graph) et en vérifiant si elles incluent des produits (ajoutez un filtre sur l’URL pour ne voir que vos pages produit).
L’autre cas de figure, c’est que ces pages profondes soient principalement constituées de contenu inutile (au sens SEO : inutile pour le référencement) :
Une petite partie de ce contenu a peut-être un certain potentiel de trafic, la question est de savoir comment détecter ce contenu de plus haute qualité (quelques idées dans le cas de contenu généré par les utilisateurs : le fait que d’autres utilisateurs aient trouvé un commentaire utile, le nombre de réponses, une taille minimale pour les commentaires…). Une fois identifié, ce contenu devrait être placé plus haut dans la structure du site.
Que faire ?
Vérifiez que vous avez ajouté des balises et à vos liens de pagination. Cela n’a pas d’impact sur la profondeur, mais aide les robots à bien comprendre le séquencement des pages.
Est-ce qu’il y en a beaucoup, comparé à votre contenu de qualité, celui de votre cœur de métier ?
Quoi ?
Si la navigation, appelée aussi les « facettes » de votre site inclut des filtres qui sont accessibles aux moteurs de recherche, et si ces filtres sont combinables à volonté, alors les robots n’arrêtent pas de trouver de nouvelles combinaisons de filtres au fur et à mesure qu’ils découvrent des pages, et cela génère une profondeur et un volume important de pages.
Où ?
Dans tout système de navigation à filtres multiples qui crée de nouvelles pages (par opposition à un rafraîchissement Ajax de la même page).
C’est grave ?
Cela peut devenir préoccupant très rapidement étant donné que le volume est exponentiel. Quelques combinaisons de filtres ont un potentiel de trafic organique, mais la plupart n’en ont pas, en particulier ceux qui génèrent l’essentiel du volume de pages.
Que faire ?
La bonne pratique consiste à limiter systématiquement les liens (crawlables par les robots) vers les listes filtrées à un seul filtre, ou deux simultanés, pas plus. Par exemple, si vous avez un site de vente de vêtements, avec des filtres par type / marque / couleur, vous pouvez autoriser les combinaisons systématiques de deux filtres. Dans ce cas, type + marque (“jeans” + “diesel”), type + couleur (“robe” + “rouge”) ou marque + couleur (“UGG” + “beige”). Si vous savez qu’une combinaison de davantage de filtres à un certain potentiel de trafic (“t-shirt”+ “noir” + “GStar”), un lien peut être ajouté manuellement, mais il ne faut surtout pas activer toutes les combinaisons de 3 filtres (ce qui créerait par exemple “Armani” + “bottes” + “jaune”, qui n’a probablement pas de potentiel de trafic et pourrait bien être une liste vide).
Quoi ?
Un paramètre de tracking (comme « ?source=cettepage ») qui est ajouté à l’URL pour refléter la navigation de l’utilisateur. Cela peut créer un très grand nombre d’urls (toutes les combinaisons: toutes les pages de provenance possible, pour toutes les pages avec tracking), voire un nombre infini d’urls si les paramètres peuvent être combinés pour suivre le chemin complet (c’est alors un piège à robots).
Où ?
Par exemple dans un bloc “produits similaires” ou “articles connexes”, où les liens vers les autres produits ou articles contiennent un paramètre pour savoir de quelle page l’utilisateur venait (à ne pas confondre avec les paramètres de tracking de publicités ou de campagnes d’emails: ici, nous parlons de tracking systématique des liens internes à un site).
C’est grave ?
Oui. Les paramètres de tracking créent une grande quantité de contenu dupliqué, et il s’agit de duplicatas de pages importantes, puisque vous voulez les traquer !
Que faire ?
Passez le paramètre derrière un “#” à la fin de l’URL, où il ne changera donc pas l’URL (et pas dans un paramètre d’URL derrière un “?”, qui fait partie de l’URL). Redirigez les urls avec paramètre(s) de tracking vers la version de l’URL sans tracking.
Quoi ?
Certaines pages comportent des liens mal formés qui génèrent de nouvelles pages, alors qu’ils devraient pointer vers des pages existantes.
Les liens mal formés renvoient souvent un statut code http 404 (Page non trouvée). Mais il est également fréquent qu’une URL mal formée renvoie une page qui semble normale pour l’utilisateur. Typiquement, dans ce cas, les liens mal formés incluent tout de même un identifiant qui est utilisé pour construire la page normalement. Les problèmes les plus fréquents sont entre autres :
par exemple http://www.mywebsite.com/products/_id123456.html
au lieu de http://www.mywebsite.com/products/product-description_id123456.html

Home


Où ?
N’importe où sur le site.
C’est grave ?
Cela dépend du volume. C’est pire lorsque les urls mal formées renvoient un status code http 200 (OK), puisqu’on a alors potentiellement un grand nombre de duplicatas, et probablement des duplicatas de contenu clé.
Que faire ?
Remplacez les liens mal formés par les liens corrects sur le site.
Redirigez les urls mal formées vers l’URL correcte (redirections permanentes http 301) ou renvoyez un status code http 404 (Page non trouvée), puisque les robots vont continuer à crawler ces pages pendant un certain temps.
Quoi ?
Tout lien présent sur toutes les pages d’un template donné qui génère toujours une nouvelle URL.
Où ?
L’exemple classique est celui du bouton “jour suivant” ou “mois suivant” dans un calendrier. Certaines urls mal formées ont aussi le même effet (si un élément est ajouté à l’URL à chaque fois que l’on a une nouvelle page).
L’impact sur la structure du site est similaire à celui d’une pagination, en pire: on ne peut avancer que d’une page à la fois et c’est sans fin.
C’est grave ?
Cela dépend là aussi du volume (est-ce que ces pages créent à leur tour d’autres pages, en plus du fil infini ?) et du caractère stratégique ou non du template des pages créées.
Que faire ?
Dans le cas d’un bouton “suivant” perpétuel : implémentez une valeur de fin (dans l’exemple du calendrier, cela pourrait être le dernier jour qui comporte un événement).
Les urls mal formées sont traitées dans la section 4.
Mathieu Chapon : Fondateur de l’agence SEO Search Foresight, nous accompagnons avec passion les sites web à remonter dans les pages de résultat de Google. Connue pour notre approche technique et Data Driven, notre agence propose des analyses et recommandations dans les sujets techniques et sémantiques qui permettent à nos équipes de fournir des recommandations qui font le succès de nos clients.
LinkedIn

97% des participants recommandent nos parcours certifiants ! Découvrez leurs témoignages
Lire les témoignages
Votre adresse e-mail ne sera pas publiée.







Le meilleur de Webmarketing & co’m dans votre boite mail.
Grâce à notre parcours certifiant “Développer son activité avec le webmarketing” , vous serez complètement autonome dans votre stratégie emarketing !
Sylvain LEMBERT
Consultant-formateur
Notre parcours certifiant “Création et développement d’une activité de formation” vous donnera les clés pour développer votre activité de formateur.
Sylvain LEMBERT
Consultant-formateur
Depuis 2006, Webmarketing & co’m accompagne les entrepreneurs et professionnels du marketing à monter en compétence.
Abonnez-vous à la newsletter et recevez notre guide pour réussir son blog
ON A UN
CADEAU
POUR VOUS !
Vous souhaitez être au top de votre veille Webmarketing ? Abonnez-vous à notre newsletter et recevez gratuitement votre guide “Réussir son blog”.
Votre adresse mail
En cliquant sur “S’inscrire”, vous acceptez notre politique de confidentialité décrivant la finalité des traitements de vos données personnelles

source

Catégorisé: