Audit technique SEO : étapes, méthode d'audit SEO complet et axes d'améliorations par type

Réaliser un audit technique SEO pour un site web performant en 4 étapes

audit-technique-seo

L’audit technique SEO d’un site web est une démarche qui peut intervenir à différents moments de la vie d’un site web : création, migration, refonte… ou dès lors que ses performances ont besoin d’être optimisées.

Comment faire pour identifier les points à optimiser ? Quels critères clés observer pour faire émerger des axes d’amélioration ? Et quels outils utiliser pour effectuer ces vérifications techniques ?

Découvrez toutes les étapes à suivre afin d’améliorer votre référencement sur les moteurs de recherche et, à terme, vos conversions !

Suggestion de logiciels pour vous

OnCrawl

OnCrawl
Crawler SEO technique pour ouvrir la boîte noire de Google
Démarrez gratuitement
Voir ce logiciel

Channable - Outil SEA

Channable - Outil SEA
E-commerçants & Agences : automatisez vos campagnes SEA
Démo gratuite
Voir ce logiciel

Solocal Audit Digital

Solocal Audit Digital
Analyse SEO de votre site internet !
Démarrer l’audit gratuit
Voir ce logiciel

Qu’est-ce qu’un audit SEO technique ?

Audit technique SEO : définition

Un audit SEO technique est une analyse d’un site web sur la base de multiples critères techniques et structurels, en vue de son optimisation.

Premier point d’ancrage de toute approche SEO, il peut suivre les grandes branches de vérification suivantes :

  • l’indexabilité,
  • l’architecture,
  • les performances web,
  • l’expérience utilisateur,
  • les microdonnées,
  • l’international,
  • l’accessibilité.

Objectifs d’un audit technique SEO

Mener un audit technique SEO sert à :

  • relever des facteurs bloquants techniques qui impactent le référencement sur Google (représentant 90 % des internautes), et de manière générale sur les moteurs de recherche,
  • identifier des solutions opérationnelles et concrètes en vue de rendre votre site plus performant.

☝️ L’audit SEO technique diffère en cela de l’audit SEO sémantique, qui vise à analyser la qualité des contenus ainsi que leurs interconnexions.

Cette démarche s’accompagne d’effets positifs pour votre site, qui gagnera :

  • en visibilité sur les moteurs de recherche,
  • en trafic,
  • en qualité d’expérience utilisateur,
  • et, idéalement, en conversions.

Audit technique et indexation des pages

Pour rappel, la présence des pages d’un site dans l’index de Google est primordiale pour exister sur internet.

Seuls 10 % des contenus web sont indexés par Google.

L’indexation est le processus suivi par un moteur de recherche pour donner de la visibilité à un contenu.

De la phase d’indexation à la captation de trafic pouvant aboutir aux conversions, une URL suivra les étapes suivantes :

  1. Création de l’URL — page avec du contenu ;
  2. Crawl de l’URL par Googlebot ;
  3. Ajout ou non de l’URL dans l’index de Google, avec attribution d’un « score » caché à la page lors de la phase d’indexation ;
  4. Positionnement ou non de la page sur certaines requêtes, en fonction du scoring de qualité ;
  5. Génération de visites (ou trafic) sur la page positionnée ;
  6. Conversion des internautes.

entonnoir-indexation-conversion-url

Comment réaliser un audit SEO : les prérequis

  • Cerner la problématique à l’origine de votre audit SEO. Intervient-il :
    • en raison d’une déperdition de trafic après une mise à jour ou une mise en production,
    • suite à une mise à jour d’algorithme (ex : Speed Update),
    • dans le cadre d’une migration de votre site (plan de redirection, etc.) ?
       
  • Définir le périmètre que l’audit de site va couvrir, sachant que la technique est au service des deux autres piliers du SEO : le contenu et la popularité. Il s’agit de déterminer la nature de chaque action à mener :
    • les critères SEO techniques à analyser sont principalement on-site, c’est-à-dire intervenant sur le site ;
    • les paramètres off-site interviendront plutôt lors d’un audit de netlinking ;
    • le maillage et la structure, qui mêlent des aspects techniques et sémantiques.
       
  • Disposer d’outils d’audit SEO spécifiques, comme :
    • un crawler,
    • un analyseur de logs,
    • la Google Search Console,
    • un compte Analytics.
  • Faire appel à l’expertise d’un professionnel, comme un consultant SEO ou une ressource interne. Cette personne sera capable d’interpréter et d’exploiter toutes ces informations, afin de vous proposer un plan d’action priorisé et de vous apporter le meilleur ROI.

☝️ Un audit technique SEO est indispensable dans tous les cas, mais un état des lieux pour mieux cerner votre contexte spécifique s’impose, afin de déterminer la marche à suivre et de prioriser les différents aspects à étudier.

Méthodologie complète d’audit SEO : étapes à suivre

Voici ici un exemple de procédé qui sera à adapter selon les problématiques relevées au fur et à mesure de vos analyses.

Étape 1 : démarrer avec la Google Search Console

Avant même de lancer le crawl, commencez par analyser le site avec la Google Search Console (ou GSC, anciennement Google Webmaster Tools). Cette étape peut intervenir en amont, afin d’orienter les étapes à suivre pour la suite de l’audit.

Que permet de détecter la Google Search Console ?

La GSC est l’outil de pilotage de site web gratuit fourni par Google permettant d’obtenir, sur le plan technique, des informations sur :

  • des problèmes d’exploration rencontrés,
  • des incohérences entre le fichier sitemap et le site exploré,
  • les défauts techniques relevés (site responsive ou non, temps de réponse, etc.).

Exemples de points de contrôle avec la Google Search Console

  • les erreurs d’indexation : pour détecter un défaut de proposition de plan de votre site, qui inclut des URL que vous ne souhaitez pas voir figurer dans l’index Google.
     
  • une mauvaise implémentation du hreflang : s’il est défaillant, Google ne comprend pas que le même contenu est disponible sur des pages en d’autres langues.
     
  • la gestion des sitemaps : le sitemap.xml désigne le fichier que les robots lisent en allant par défaut sur www.ndd.xx/sitemap.xml. Le sitemap HTML, lui, sert à remonter des URL trop profondes ou à proposer des pages récentes à l’indexation.
     
  • des erreurs de crawl : l’URL poussée dans le sitemap soumis sur la Search Console n’est pas accessible, mais Google n’indique pas que la page est orpheline.
     
  • le choix d’une seule version du site : il convient de choisir la version affichée préférée (www ou non www), puis de veiller à l’absence de contenu dupliqué.
     
  • un responsive design fonctionnel : l’expérience d’exploration doit être adaptée aux usages des internautes et des mobinautes… sachant que le trafic mobile représente aujourd’hui + de 50 % du trafic web !

erreurs_indexation_Google-Search-Console

Erreurs de couverture de l’indexation avec Google Search Console

Parcours de vérification de l’indexation avec la Google Search Console

1. En tant que référenceur, il convient de vérifier si les contenus publiés sont :

  • dans un premier temps indexés,
  • dans un second temps bien référencés sur les mots clés recherchés.

Si ce n’est pas le cas, vérifiez si le problème est d’ordre technique ou sémantique.

sc_-_liste_des_erreurs_rencontrees

Liste des erreurs rencontrées sur Google Search Console

2. Pour vérifier qu’une URL est bien présente dans l’index Google, vous pouvez soumettre l’URL via la Search Console ou utiliser la commande site:monurl dans la barre de recherche Google.

3. Ensuite, contrôlez via la SC que les pages sont bien crawlables et indexables en observant la couverture du site par Google : le site a-t-il été exploré par Google ?

4. Constatez ensuite s’il a rencontré des erreurs lors de son exploration en auditant chacun des codes d’erreurs renvoyés :

  • des boucles de redirection,
  • des redirections 301 ou cassées,
  • des erreurs serveur (5XX),
  • des URL déclarées en noindex bien qu’elles soient intégrées au sitemap,
  • des 404,
  • des URL dont l’accès est bloqué par le fichier robots.txt.

Étape 2 : réaliser une analyse de crawl

Selon les indicateurs relevés sur la Search Console, vous pourrez lancer le crawler en vous fixant des objectifs d’analyse.

Que permet de détecter un crawler ?

Un crawler simule le chemin que prendrait le robot Google pour scanner le site. Il permet ainsi d’obtenir une cartographie du site tel qu’il est perçu par un moteur de recherche, en conduisant son exploration au fil des liens rencontrés.

Le lancement d’un crawl permet de vérifier, entre autres :

  • l’indexation des contenus,
  • la structure des pages,
  • la cohérence du maillage interne,
  • l’absence d’erreurs dans le sitemap, en fournissant la liste des URL au crawler.

Exemples de points de contrôle on-site tenus par le crawler

  • du contenu dupliqué (ou duplicate content) : pour trouver des pages généralement à 90 % similaires qui mériteront :
    • une canonicalisation,
    • ou un autre traitement spécifique (ex : suppression, redirection, etc.).
       
  • des erreurs de canonical.
     
  • les enchaînements de redirections et les boucles de redirections au-dessus de 4 consécutives.
     
  • des erreurs serveurs : la cause sera à étudier avec l’équipe développement.
     
  • des 404s : elles correspondent à du contenu introuvable ou à un lien incorrect.
     
  • la pagination : sa pertinence doit être justifiée.
     
  • le suivi de l’installation de la balise Google Analytics et de Google Tag Manager (GTM), pour s’assurer que la surcouche est appliquée aux endroits souhaités du site.
     
  • le schéma de microdonnées : elles rendent les pages éligibles à certains formats de données affichés dans les SERPs et peuvent ainsi favoriser les taux de clics.
     
  • le suivi du rendu JavaScript : option à activer quand le site est construit sur une base JavaScript complète, pour faciliter l’interprétation du code par le crawler.
     
  • le suivi de robots.txt : ce fichier contient les règles que les robots doivent suivre sur un site, pour leur baliser un parcours et leur restreindre certains accès.

Error-code_submitted-URL-blocked-by-robots.jpg

Parcours de vérification de l’arborescence du site avec le crawler

1. Commencez par configurer votre crawler, en lui indiquant différents types de règles, selon ce que vous souhaitez analyser ou non :

  • rendu Javascript activé,
  • suivi du nombre de liens nofollow,
  • respect du noindex,
  • suivi des URL canoniques,
  • suivi du fichier sitemap.xml fourni,
  • recueil des microdonnées rencontrées.

Vous ne partez pas nécessairement de la page d’accueil. Selon vos besoins, définissez d’abord si vous souhaitez obtenir une cartographie :

  • de l’intégralité du site,
  • d’une partie ou d’une section du site.

2. Observez l’arborescence du site :

  • l’arborescence est-elle logique ?
  • y a-t-il des défauts de maillage entre les pages ?
  • certaines pages sont-elles trop profondes (plus de 4 clics) ?
  • le contenu essentiel peut-il être rendu accessible plus facilement par la navigation interne ?
  • y a-t-il des pages sans tag canonical ou qui ne sont pas self canoniques ? Si oui, observez sur quoi elles pointent.
  • en recoupant avec les données du sitemap, identifiez-vous :
    • des pages actives : générant au moins une visite d’utilisateur,
    • des pages inactives : crawlées, mais ne générant aucune visite,
    • des pages orphelines actives : qui ne sont plus maillée à aucune page, mais continuent de générer des visites SEO ?

3. Ensuite, identifiez dans le maillage :

  • les pages ayant un trafic très faible ou nul, en croisant les données du crawler avec Analytics ou la Search Console,
  • les pages dupliquées, et si elles disposent d’une page canonique,
  • si les ancres textuelles au sein d’une catégorie ou menant à une catégorie sont logiques.

4. Après cela, vous pouvez travailler sur la structure du site en choisissant une structure bien définie :

  • en silo,
  • sous forme de cocon sémantique, etc.

5. Enfin, auditez la web performance par type de pages, pour déceler des problèmes relatifs à chaque catégorie de page et voir si des améliorations sont possibles.

Étape 3 : procéder à une analyse des logs

Que permet de détecter un analyseur de logs ?

Le rôle de l'analyseur de logs est de donner un compte-rendu de l’activité réelle du robot de Google sur votre site. L’analyseur de logs :

  • extrait des données concernant les visites réelles de Googlebot et le passage des visiteurs sur le site ;
  • rend exploitables ces données enregistrées par le serveur sur la plateforme utilisée.

Il délivre notamment des informations sur :

  • les pages du site vues (ou crawlées) par Googlebot,
  • les pages du site non crawlées par Googlebot,
  • la fréquence de crawl et l’incidence que cela a sur les visites, en permettant de jauger la charge demandée à Google pour scanner l’entièreté du site, etc.

☝️ Cette analyse est tout particulièrement intéressante pour les sites à fort volume de pages, comme les sites e-commerce par exemple. Elle permet :

  • de vérifier que les nouveaux contenus ont bien été trouvés et crawlés par Google ;
  • de jauger la fréquence de mise à jour déclenchée par le crawl ;
  • de s’assurer que le budget de crawl n’est pas utilisé inutilement ;
  • et finalement d’identifier quelles actions d’optimisation mener sur le site avec leur ordre de priorité.

L’analyse des logs peut s’appuyer sur :

  • des outils SEO dédiés à l’analyse de logs comme Ahrefs ou Screaming Frog,
  • une plateforme SEO technique complète, associant un crawler et une fonctionnalité d’analyse de logs,
  • des commandes Linux,
  • des tableaux Excel croisés dynamiques.

Exemples de points de contrôle avec l’analyseur de logs

  • le taux de crawl, soit la part du site qui a été visitée par Googlebot,
  • le ratio crawl/visites, soit le ratio du taux de crawl sur le nombre de visites générées,
  • la fréquence de crawl, soit le délai entre deux crawls sur le site concerné par Googlebot.

Parcours de vérification lié à l’analyse des logs

1. Segmentez le site, afin de prioriser les objectifs SEO par groupe de pages. L’idée ici est d’obtenir :

  • une vue des catégories les plus importantes du site,
  • ou une vue selon les types de pages (par exemple, une vue sur toutes les pages déterminées comme pages de conversion SEO).

2. Contrôlez les liens internes en vue de les optimiser : utilisez un texte d’ancrage sémantiquement lié, avec un maillage ininterrompu jusqu’à la page mère du sujet.

3. Mettez en place un monitoring de logs.

4. Identifiez les problèmes de pages orphelines, qui démontrent une défaillance dans le maillage interne. Une page orpheline est une page qui n’est liée à aucune autre, généralement parce que les URL qui devaient pointer vers elle n’existent plus.

5. Combinez les analyses de crawl avec les analyses de logs, avec une solution dédiée.

La plateforme de SEO technique OnCrawl, outil complet de pilotage de la santé d’un site internet, permet l’analyse croisée de plusieurs sources de données (logs, Google Analytics, Google Search Console, Majestic, AT Internet, etc.).

Grâce au croisement des données de crawl et des fichiers de logs, vous pouvez :

  • suivre le parcours des robots d’indexation sur votre site,
  • découvrir si vos pages les plus stratégiques sont visitées et indexées,
  • et comprendre comment vos performances SEO influencent votre budget de crawl.
     

Analyses_croisées_logs_crawls_Oncrawl

Croisement d’analyses de crawl et de logs sur OnCrawl

Étape 4 : étudier les web performances

Vous pouvez ensuite vous focaliser sur les performances web, ce qui équivaut à un audit de la vitesse du site.

Que permettent de révéler les web performances ?

L’étude des performances permet vérifier si le site répond aux critères techniques recommandés par Google, à savoir :

  • l’accessibilité du site,
  • la vitesse du site,
  • la crawlabilité.

Parcours de vérification lié aux performances web

Voici les principaux points à vérifier en matière de performance web :

1. Mobile first indexing : le site doit être pleinement utilisable en version mobile et déclaré « mobile first ». Une navigation mobile non optimale peut nuire au site.

Vous pouvez constater si le site est passé ou non en mobile first à l’aide d’une plateforme d’audit SEO ou de la Search Console, qui vous indique si les visites du site proviennent d’un Googlebot Desktop ou Googlebot mobile.

oncrawl_mobile_vs_desktop_seo_visits.png

Desktop vs mobile visits sur OnCrawl

2. Accessibilité : le site est-il accessible aux non-voyants, mal voyants ? Par exemple, vérifiez la présence de descriptions dans les balises images (alt).

3. Vitesse du site :

  • le site affiche-t-il du contenu rapidement ? Le temps de chargement est un critère indispensable de l’expérience utilisateur. Un site qui charge en moins de 2 secondes est considéré comme performant.
  • quels facteurs ralentissent le chargement des pages ? TTFB (time to first byte) - axe de contenu, cache, usage CDN, hébergement à revoir, etc.

4. Visiteurs :

  • Le site affiche-t-il bien son contenu sans distinction entre les robots et les visiteurs ?
  • Pour vérifier que les mêmes contenus sont proposés que dans la version standard des navigateurs, ajoutez la commande cache:ladressedelapage.com et consultez la page stockée en cache par Google.

5. Sécurité : le site est-il bien en HTTPS ? (SSL)

6. International : l’intégration du hreflang est-elle complète ? (pour les sites internationaux)

7. Microdonnées : le site dispose-t-il des microdonnées importantes pour être éligible à certains formats d’affichage sur la SERP ? (FAQ, Carrousel, etc.). Vous pouvez utiliser l’outil de test des résultats enrichis de Google.

Le mot de l’expert SEO — Cédric Cherchi :
« En réponse aux contraintes liées à la prédominance des usages mobiles, Google annonçait la Speed Update au tout début de l’année 2018. Depuis, les performances de chargement sont devenues un critère de classement sur mobile alors que l’indexation mobile-first commençait déjà à être déployée. D’ici mars 2021, 100 % des sites internet seront exclusivement analysés dans leur version mobile par Google. Les audits SEO techniques doivent plus que jamais se focaliser sur les performances de chargement et l’affichage des pages sur les terminaux mobiles ! »

Donnez suite à l’audit technique !

L’audit SEO technique vous révèle toutes les optimisations SEO possibles dans le but de rendre le parcours de navigation simple et fluide à la fois pour les utilisateurs et les robots.

Il constitue les bases saines d’un site web performant, rapide, à la navigation claire et multisupport, capable d’accueillir et de mettre en avant vos contenus.

Au-delà des aspects techniques, vous pourrez ensuite vous centrer sur les autres volets d’un audit SEO, en vous assurant de créer un contenu unique et engageant pour le lecteur, et de travailler sa popularité avec le netlinking.

Et vous, avez-vous déjà mis en œuvre un audit technique SEO dans votre entreprise ? Avez-vous des points de vérification complémentaires ou des retours d’expérience à partager ?

Suggestion de logiciels pour vous

SEISO

SEISO
Analyse de votre compte Google Adwords en 3 clics
Tester gratuitement
Voir ce logiciel

PriceComparator

PriceComparator
Veille tarifaire et concurrentielle BtoB
Exclusif - 1 mois gratuit
Voir ce logiciel

Hub Marketing

Hub Marketing
Plateforme marketing pour les entreprises en croissance
Demander une démo
Voir ce logiciel
Commenter cet article

Ajouter un commentaire