Comment rendre votre site SEO friendly (structure/architecture) ?

site seo friendly

Table des matières

Je vous accompagne sur :

1. La construction et le développement de votre projet digital.

2. La résolution de vos points de blocage.

3. La construction d'une communication personnelle et axée sur vos valeurs.

Nicolas Vidal
Coach SEO et facilitateur de projet

Comment rendre votre site SEO friendly tout en ayant une approche user centric (approche centrée utilisateur) ?

L’objet de cet article est de répondre à cette double problématique.

Bonne nouvelle, vous n’avez pas besoin d’être développeur web pour lire cet article. Toutefois un minimum de connaissances techniques (connaitre les bases du code html) sont requises (même si votre site est hébergé sur un CMS tel que WordPress ou Wix).

En effet, il vous faut être capable d’anticiper les éventuels bugs techniques et mener ainsi les actions correctrices nécessaires.

Nous allons lister ci-dessous les axes à prendre en compte pour rendre votre site SEO friendly.

site SEO friendly

 

Retour aux bases : Pourquoi vous focaliser sur la structure et l’architecture SEO friendly de votre site ?

 

Revenons aux origines de la réflexion : votre objectif est de faire en sorte que vos pages génèrent du trafic et des interactions à partir des listes de résultats Google.

Pour ce faire, vous injectez du contenu qualifié répondant aux interrogations de vos utilisateurs cibles dans vos pages.

Mais rappelons que vos pages ne peuvent générer du trafic depuis Google qu’à partir du moment où les internautes cliquent sur les liens pointant vers vos pages depuis Google.

Vos pages sont donc positionnées sur les listes Google. Mais elles ne seraient jamais positionnées si elles n’avaient pas été indexées au préalable.

Elles n’auraient pas été indexées si elles n’avaient pas été crawlées / analysées.

C’est ici que le sujet nous intéresse : donner à Google les moyens d’identifier les pages de votre site et de les analyser (=crawler).

Cela peut paraitre simple à priori. Mais à regarder de plus près, et bien non ce n’est pas si simple.

Voir le dossier sur ce qu’est le référencement naturel.

 

Qu’est ce qu’un site SEO-friendly ? Parle-t-on uniquement de structure et d’architecture ?

 

Un site SEO friendly répond à différentes bonnes pratiques permettant aux robots des moteurs de recherche d’identifier puis crawler les pages dudit site, en en priorité les pages ayant des objectifs trafic et business.

Les objectifs business peuvent être : Conversions, téléchargements de livres blancs, souscriptions à des offres, inscriptions à la newsletter.

Rendre votre structure de site SEO-friendly, c’est aussi donner accès aux pages de votre site aux moteurs et aux utilisateurs avec un temps de chargement le plus faible possible (on parle de 200 ms pour la première phase de chargement).

Voir le dossier comment améliorer le référencement naturel de votre site.

 

Qu’est ce que la structure de votre site ?

 

Il s’agit des fondements de votre site, de la même manière que les 4 murs et le toit sont les fondations de votre maison. Fondations sans lesquelles votre maison n’existerait pas.

C’est la même chose avec votre site.

On parle ici d’un sujet qui est en lien direct avec le premier pilier du SEO : la structure. On est dedans.

Alors la structure de votre site c’est bien, même indispensable, une structure qui plaise aux moteurs de recherche (car les contenus sont facilement identifiables) c’en est une autre !

 

Comment rendre votre site SEO friendly : Critères, règles et bonnes pratiques SEO

 

Voir le rapport officiel de la Search Console pour vous aider à comprendre vos éventuels problèmes de structure.

 

Site SEO friendly – Règle # 1 : Le format des url

 

structure de site SEO-friendly

structure de site SEO-friendly

 

Ce sont les url que les moteurs indexent. Ceux-ci doivent facilement et rapidement comprendre quelle url indexer ou ne pas indexer.

Si possible créez des formats d’url propres à chaque typologie de page. Bien sûr ce choix dépendra de vos types de contenus.

Exemples de formats avec les pages génératrices de trafic.

  • Pages produits : Par exemple www.votresite.fr/produit-****.html
  • Pages catégories : Par exemple www.votresite.fr/categorie-****.html
  • Pages articles : Par exemple www.votresite.fr/article-****.html

Pourquoi ?

  • Lors des analyses que vous ferez ce sera plus facile pour identifier le volume de pages par typologies de pages.
  • En terme de développement en amont, cela ne demande pas beaucoup plus de travail.
  • Et enfin cela permet d’avoir des url propres.

Faites attention à ce que les url ne génèrent pas de bugs (à voir avec votre développeur) par exemple l’ID de l’url qui change à chaque chargement de la page.

J’anticipe votre question, oui c’est grave (c’est mal même), parce que Google peut revenir indéfiniment sur la page, il aura toujours un ID différent, et de fait ne saura pas quelle url indexer (ou du moins sera méfiant par rapport à cette page).

Et en plus cela vous fait un magnifique cas de contenu dupliqué.

Sauf que si vous avez le problème sur une page, cela veut dire que vous avez le problème sur TOUTES vos pages. Vous imaginez le bazar.

Règle absolue : Une page = une url. Une url = une page.

Plus vous aurez une volumétrie de pages importante, plus ce sera indispensable pour vous de vous y retrouver dans toutes vos url.

 

Site SEO friendly – Règle # 2 : Gestion de vos cas de contenu dupliqué

 

site SEO friendly

 

Qu’est ce que le contenu dupliqué ?

Globalement c’est le fait de disposer des mêmes contenus à des endroits différents de votre site. Google et autres moteurs ont besoin d’un seul accès par contenu.

Sauf que souvent, même si ce n’est pas volontaire de votre part, vos contenus sont accessibles via plusieurs url, plusieurs pages. En effet, votre site est certainement touché par ce problème sans même que vous le sachiez.

L’objectif en SEO est de limiter le plus possible le taux de crawl inutile : c’est à dire le crawl sur les pages ne présentant pas d’intérêt SEO et/ou les pages présentant des cas de contenu dupliqué.

 

Donc la règle absolue c’est :

Un contenu = Une page. Une page = Un contenu.

Le contenu dupliqué est un véritable fléau, car le volume de pages de votre site est peut être artificiellement gonflé à cause d’un problème de duplication.

Un bug qui vous parait mineur peut au final avoir des répercussions assez néfastes.

Il peut y avoir plusieurs causes :

 

Un ID sur une url qui change à chaque appel serveur (donc à chaque chargement de la page).

 

Exemple avec https://www.domaine.fr/produit-[nom-duproduit]-[ID].fr

==> URL canonique https://www.domaine.fr/produit-livre-cornebidouille-123.fr
==> URL dupliquée https://www.domaine.fr/produit-livre-cornebidouille-456.fr
==> URL dupliquée https://www.domaine.fr/produit-livre-cornebidouille-789.fr

 

Une url accessible en X versions différentes à cause du système de filtre de données (listes e-commerce par exemple).

 

Exemple avec https://www.domaine.fr/categorie-[nom-categorie].fr

==> URL canonique https://www.domaine.fr/categorie-livre-enfant.fr
==> URL dupliquée https://www.domaine.fr/categorie-livre-enfant.fr?price=34
==> URL dupliquée https://www.domaine.fr/categorie-livre-enfant.fr?range=new

 

Une balise title dupliquée sur 30 pages.

 

Titre : “Cornebidouille part en vacances” disponible sur les pages suivantes :

==> https://www.domaine.fr/produit-livre-cornebidouille-123.fr

==> https://www.domaine.fr/produit-livre-cornebidouille-version-2.fr

==> https://www.domaine.fr/produit-livre-cornebidouille-version-3.fr

 

Une balise H1 dupliquée sur 30 pages.

 

H1 : Livre “Cornebidouille part en vacances chez papi mamie” disponible sur les pages suivantes :

==> https://www.domaine.fr/produit-livre-cornebidouille-123.fr

==> https://www.domaine.fr/produit-livre-cornebidouille-version-2.fr

==> https://www.domaine.fr/produit-livre-cornebidouille-version-3.fr

 

Un site accessible en http ET en https, avec www ou sans www.

 

==> Url canonique : https://domaine.fr

==> Url dupliquée :

  • http://domaine.fr
  • https://www.domaine.fr
  • http://www.domaine.fr
  • https://fr.domaine.com

Bref, les cas de duplication sont très nombreux et propres à chaque site.

 

Votre objectif à vous est de les anticiper / identifier afin de mieux les corriger :

  • Les corriger le plus en amont possible (besoin de votre développeur) pour stopper l’hémorragie.
  • Les corriger en aval et mettant en place des actions correctrices.

Exemples de corrections :

  • Robots.txt
  • Balise rel canonical
  • Balise noindex
  • Navigation orientée vers les pages référentes et génératrices de trafic et de conversions

Si ce sont les balises title ou H1 qui sont dupliquées vous pourrez les modifier plus facilement via votre cms.

Encore une fois chaque cas est particulier, propre à votre site, et peut-être difficile à appréhender.

Le contenu dupliqué a un impact négatif sur la manière dont Google va appréhender votre site.
Si votre site présente 50 url pour une même page sans indication de référence, il va se perdre et ne se focalisera pas sur les pages vraiment utiles.

Il vous faut corriger ce problème puis dans un second temps d’orienter le crawl de Google vers les pages génératrices de trafic et de conversions.

Le plus simple au moment de la conception de votre site est d’anticiper tous ces éventuels problèmes et ainsi de formater les url de telle manière qu’il ne peut pas y avoir de cas de duplication de contenu.

Concrètement cela donne :

  • pas de système de filtre dans les url,
  • pas de rechargement d’ID dans les url,
  • pas d’url accessibe via deux répertoires différents.

 

Astuce du jour pour faire un test rapide en quelques minutes :

  1. Identifiez le volume de pages de votre site.
  2. Installez Screaming Frog.
  3. Générez un crawl de votre site avec cet outil.
  4. Comparez le volume de pages identifié dans le crawl versus le volume de pages de votre site.
  5. Si vous trouvez un gros différentiel regardez le détail des url du rapport de crawl, cherchez des url “bizzares” ou en tout cas que vous n’avez pas demandées, elles sont peut-être dupliquées.
  6. Comparez ces deux indicateurs avec le volume de pages indexées sur Google (commande site:).
  7. Rien qu’avec cet exercice vous avez plusieurs réponses.

 

Structure de site SEO – Règle # 3 : Gestion du fichier robots.txt

 

Voir notre guide sur la gestion du robots.txt

 

site SEO friendly

Le fichier robots.txt a pour objectif de bloquer aux robots des moteurs de recherche l’accès aux url ou variables d’url qui ne présentent pas d’intérêt pour le référencement (sans que cela gène bien sûr la navigation de l’utilisateur).

Pour rappel, le fichier robots.txt empêche le crawl des pages.

Il peut par exemple des pages telles que :

  • Création de compte : /mon-compte
  • Mot de passe oublié : /mot-de-passe-oublie
  • Se connecter : /connexion
  • Panier :/panier
  • Confirmation de commande : /confirmation-commande

Il peut aussi s’agir de variables de filtre et / ou de navigation :

  • ?price=
  • ?range=
  • ?color=
  • ?brand=

Comme dit plus haut, ce sont des variables qui peuvent gonfler artificiellement le volume de pages du site et qui dans certains cas peuvent présenter une véritable contrainte pour le crawl de Google.

Pour identifier ces variables, regardez sur vos pages les filtres de navigation disponibles et les variables qu’ils génèrent dans l’url.

Sinon, aidez-vous du crawl de Screaming Frog : lancez un crawl, l’outil va vous identifier vos variables de filtres.

Il suffit donc de rentrer ces url et variables ligne par ligne, comme ceci :

  • User-agent : *
  • Disallow : /mot-de-passe-oublie
  • Disallow : ?price=
  • Disallow : ?range=
  • Disallow : ?color=
  • Disallow : ?brand=

Bref, mettez autant de lignes que vous jugerez nécessaire.

Maintenant vous allez me demander “Mais enfin Nicolas, il est où ton fichier robots.txt ??”. Et vous aurez bien raison.

Une fois que votre fichier robots.txt est complété vous n’avez plus qu’à le placer à la racine de votre serveur (via un ftp comme filezilla).
Si ce n’est pas clair, demandez à votre développeur, ou envoyez moi un mail, je regarderai.

Si votre fichier robots.txt existait déjà, vous l’avez donc récupéré via votre ftp.
Si il n’existait pas, vous devez enregistrer un fichier txt en robots.txt tout simplement, le remplir et l’uploader ensuite (c’est à dire le placer sur votre serveur).

En 30 secondes c’est fait, c’est un jeu d’enfant.

 

Site SEO friendly – Règle # 4 : Mettre en place une arborescence SEO-friendly

 

Voir notre guide sur l’arborescence SEO ainsi que sur l’architecture de l’information.

 

site seo friendly

Créer une arborescence, ou même la refondre n’a rien d’évident, tant le champs des possibles est vaste.

Pour autant votre objectif sera de concorder votre arborescence avec les besoins et attentes de votre utilisateur cible (identifiable avec le fameux portrait-robot ou persona).

 

D’un point de vue SEO, les règles à respecter pour avoir une arborescence SEO-friendly :

  • Limiter les niveaux de profondeur (5 en comptant la hp).
  • Ne pas accéder à de nouvelles pages depuis des pages profondes.
  • Il faut que l’ensemble des pages catégories soient accessibles dès la hp.
  • Plus vous aurez de niveaux de profondeur moins Google aura envie de voir les contenus que vous avez à proposer.
  • Limiter le trop grand nombre de pages de pagination en cas de grand volumes de produits et / ou articles.
  • Si il y a trop de pages de pagination, cela veut dire que la catégorisation est trop serrée, il faut donc l’élargir en créant de nouvelles catégories (plus de points d’entrées pour les moteurs et les utilisateurs).
  • Donc au lieu d’avoir 10 catégories et 20 pages de pagination, on peut imaginer 20 catégories ayant chacune 10 pages de pagination.
  • Il est possible d’imaginer plus de produits affichés par page. Par exemple passer de 30 produits affichés à 60. On divise déjà par deux le volume de pages de pagination.

Donc oui, c’est un point important à ne pas prendre à la légère.

Comment identifier les niveaux de profondeur : Utiliser Screaming Frog, le résultat est affiché dans le bloc de droite.

 

Site SEO friendly – Règle # 5 : Mettre en place une navigation SEO-friendly

 

Voir notre guide sur la navigation SEO.

Au sein de la navigation il est important d’orienter les robots des moteurs de recherche et les utilisateurs vers les zones utiles du site c’est à dire les pages canoniques (de référence donc) et génératrices de trafic et de conversion.

Tout dépend donc de la manière dont vous avez planifié votre parcours utilisateur.

Deux règles à respecter :

  1. Ne pas avoir de page “cul de sac”. C’est à dire une page profonde sans lien vers d’autres pages : Veiller à proposer des liens vers d’autres pages produits ou articles du même niveau de profondeur.

Objectif : Faciliter la navigation de l’utilisateur et faciliter le crawl des robots des moteurs de recherche.

2. Ne pas avoir de page orpheline (page hors structure du site, c’est à dire plus aucun lien qui ne pointe vers elle, ça arrive bien plus qu’on ne l’imagine).

Votre système de navigation doit permettre aux moteurs de recherche et aux utilisateurs d’accéder facilement et rapidement à vos pages génératrices de trafic et de conversions, c’est à dire à priori vos pages SEO, celles qui ont un intérêt à être indexées.

Comment savoir si vous avez des pages orphelines si celles-ci ne sont plus dans la structure du site ?

La difficulté avec les pages orphelines est que souvent ce sont des pages qui répondent toujours en 200 (code serveur 200 signifiant que votre page répond correctement), donc elles s’affichent comme il faut quand on les appelle dans le navigateur. Difficile alors de savoir si oui ou non ces pages sont orphelines ou pas.

Comment peut on en arriver là ?

Vous changez les produits de votre catalogue, ou vous modifier le maillage de liens de votre site. Rapidement sans même vous en rendre compte, vous produisez des pages orphelines : plus dans la structure du site mais accessibles sur votre navigateur.

Comment les identifier ? Je vous propose deux solutions :

  • Regarder le trafic généré page par page sur Analytics. En parcourant le détail des url ou des typologies d’url (pages produits d’un ancien catalogue par exemple) on peut identifier les url qui ne sont plus d’actualité. Mettez de côté les url génératrices de trafic et qui sont hors de la structure du site.
  • Taper la commande “site:site.fr” dans la barre de Google, vous aurez ainsi le volume de pages indexées de votre site sur Google. Si le nombre de pages indexées dépasse le nombre de pages rattachées à votre site, vous savez alors que vous avez “trop” de pages dans l’index. On peut alors imaginer que le “trop” correspond à des pages orphelines. Faites une recherche aléatoire, regardez le contenu des pages testées, regardez si elles sont d’actualité. Si elles ne le sont pas, mettez les de côté.
  • Vient ensuite le travail de vérification : regardez chaque page identifiée, et définissez si ladite page a un intérêt à revenir dans la structure du site (si oui il faudra faire des liens vers elle), si elle n’en a pas, il faut la rediriger en 301 vers la page la plus proche (page catégorie souvent).
  • Il faut ensuite ajouter le plan de redirection des url à rediriger dans le fichier htaccess.

En cas de forte volumétrie de pages, simplifiez le problème en analysant les formats d’url, ou les typologies de pages : par exemple les url comportant le répertoire /catalogueV3/ ou le répertoire /editorial/ alors que le répertoire actuel est /articles/.

 

 

Site SEO friendly – Règle # 6 : Optimiser le temps de chargement + Attention aux signaux web essentiels

 

Voir le dossier sur les évolutions du SEO en 2021.

 

temps de chargement de page avec dareboost

 

Le sujet a déjà été traité sur ce blog, pour plus d’info suivez le guide : Voir le dossier complet sur le temps de chargement.

 

Structure de site SEO – Règle # 7 : Gérer votre Sitemap.xml

 

fichier sitemap.xml

 

Le fichier sitemap.xml est un fichier au format xml (format txt est valable aussi) qu’on place à la racine du serveur (même endroit que le robots.txt).

Vous y indiquez l’ensemble des url que vous souhaitez indexer sur Google.

A la base il servait de navigation alternative aux moteurs de recherche afin que ceux ci indexent lesdites pages.

Si votre structure de site est bonne (c’est à dire que 100% des contenus crawlables et indexables de votre site sont rapidement identifiés par Google) vous n’aurez pas besoin d’un fichier sitemap.xml.

Pourtant celui-ci va nous être très utile : on va le soumettre à la Search Console. Celle-ci va nous indiquer le volume de pages listées dans le sitemap.xml qui sont bien indexées sur Google.

C’est un super indicateur de l’efficacité de votre structure.

Concrètement si vous n’avez que 50% des url de votre sitemap qui sont indexées cela veut dire qu’il y a un souci quelque part (en partant du principe bien sûr que le fichier sitemap est correctement renseigné, sans erreur, et comportant les url actuelles).

Pour construire votre sitemap vous pouvez vous contenter d’un fichier txt, ça suffit largement.

Vous le remplissez : une url par ligne.
Evitez les url non SEO.
Ensuite comme le robots.txt vous l’uploader à la racine du serveur.
Soumettez le dans la Search Console. Vous aurez le résultat deux jours plus tard.

 

Site SEO friendly – Règle # 8 : Surveillez votre Search Console

 

Voir notre guide sur la Search Console.

search console

La Search Console est un outil puissant créé par Google. Voir le guide sur comment bien utiliser votre Search Console.

 

Site SEO friendly – Règle # 9 : Liens vers des pages en 301

 

On retrouve très fréquemment dans les pages des liens pointant vers des pages en redirection 301.

Todo : Modifier l’url de destination : pointer directement vers la page finale.

Cela peut être fait avec Screaming Frog.

 

Site SEO friendly – Règle # 10 : Pages 404

 

Avec Screaming Frog, identifier toutes les pages répondant en 404.

Soit il faut “réactualiser” certaines d’entre elles.

Soit il faut les rediriger vers une autre page, ou les mettre en statut 410.

 

 

 

Exemple d’un cas pratique de structure de site non SEO

 

Exemple avec Chapitre.com :

 

structure de site SEO chapitre

structure de site SEO-friendly

 

Le site présentait deux soucis (avant modifications) :

  1. 8 niveaux de profondeur à cause d’une arborescence beaucoup trop profonde.

Il faut réduire les niveaux de profondeur en proposant plus de catégories de niveau 1.

 

2. Plus de 100 pages de pagination disponibles pour chaque catégorie : beaucoup trop de produits par catégories.

Il faut réduire le volume de pages de pagination en rattachant les produits à de nouvelles catégories.

 

Autre exemple de mauvaise structure SEO, le site Norm’Info du groupe Afnor :

 

structure de site SEO

 

1. Les pages catégories (en nombre insuffisant au regard du nombre de fiches normes disponibles) s’avèrent être massivement dupliquées.

2. Lesdites pages catégories utilisent de l’Ajax, les liens vers les fiches normes sont introuvables pour Google.

3. Les fiches normes sont elles aussi massivement dupliquées car accessibles via plusieurs url.

Actuellement Google n’a pas accès à l’exhaustivité des fiches normes. Pour finir la sémantique utilisée sur les pages catégories est perfectible car pas recherchée par les internautes.

 

Site SEO friendly : Il n’y a pas que la structure dans la vie

 

Un site SEO friendly, c’est un site dont les pages sont facilement identifiables, crawlables et indexables. Des pages qui se chargent rapidement.

Un site SEO friendly c’est également un site dont les pages sont SEO friendly.

C’est également un site mobile friendly, prêt à la bascule vers le mobile index first.

C’est encore un site dont les pages respecte les règles d’ergonomie mobile.

Un site SEO friendly c’est aussi, tout simplement un site dont l’approche est centrée utilisateur.

 

Site SEO friendly : Du contenu enrichi et qui apporte de la valeur

 

C’est un site dont les contenus ont été travaillés, enrichis, qui répondent aux besoins, contraintes et interrogations des utilisateurs cibles.

 

Avant un site SEO friendly, un site “utile”

 

Un site qui réponde aux besoins des utilisateurs cibles, qui propose une navigation aisée, qui soit utilisable / ergonomique, qui apporte un contenu qualifié, qui inspire les prospects par le biais des valeurs du créateur du site, qui transforme les prospects en clients, qui fait voyager les utilisateurs. Un site qui se différencie par sa proposition de valeur, les services et produits proposés, le message du créateur.

Voir le dossier sur le site “utile”.

 

Conclusion

 

Rendre votre site SEO friendly requiert le respect des bonnes pratiques, et de la réflexion en amont. Pour autant c’est loin d’être impossible : Il faut être patient et organisé.

En résumé voici les pistes que vous devez étudier pour rendre votre site SEO friendly :

  • Veillez à avoir une structure de site qui permette l’identification et l’analyse facile et rapide de vos pages.
    • Veillez à avoir un format d’url pérenne et non générateur de bug.
    • Veillez à bien gérer vos éventuels cas de duplication de contenu, n’hésitez pas à utiliser Screaming Frog autant que nécessaire.
    • Veillez à avoir un fichier robots.txt correctement rempli.
    • Veillez à avoir une arborescence et une navigation claires et permettant l’accès rapide et facile à vos pages SEO.
    • Veillez à avoir un temps de chargement performant (chargement du premier octet autour de 200ms).
    • Veillez à avoir un fichier sitemap.xml correctement rempli.
    • Veillez à bien suivre les indicateurs de votre Search console.
    • Avoir un fichier robots.txt correctement rempli.
  • Veillez à ce que vos pages respectent les règles SEO, s’affichent correctement sur mobile.
    • Balises méta, et autres balises, microdata, contenus, fil d’Ariane, attributs alt, etc…
  • Veillez à ce que vos contenus soient avant tout écrits pour vos utilisateurs tout en respectant les règles d’écriture pour le web avec juste ce qu’il faut d’enrichissement sémantique.
  • Veillez à ce que votre site soit “utile”, et réponde à un besoin.

D'autres sujets à découvrir sur le même sujet