Eng
svg
Close

By Cédric HIHEGLO 15 avril 2024 In Blog

Comment réaliser un audit SEO technique ? 

Dans l’univers en constante évolution du référencement naturel (SEO), il est impératif pour tout propriétaire de site web de comprendre et de mettre en œuvre un audit technique approfondi. C’est un processus fondamental qui permet d’identifier et de résoudre les problèmes techniques qui pourraient entraver la visibilité de votre site sur les moteurs de recherche. Dans cet article, nous vous guiderons à travers les étapes essentielles pour réaliser un audit technique efficace en SEO.

Dans cet article nous allons revêtir le costume d’un consultant en référencement naturel et passer en revue les points les plus importants qu’on observe habituellement dans un audit technique.

Analyse de l’Indexation

La première étape consiste à examiner attentivement la structure de votre site web. Assurez-vous que votre architecture est bien organisée, avec des URL claires et des liens internes cohérents. Veillez également à ce que votre site soit compatible avec les appareils mobiles et qu’il offre une expérience utilisateur optimale.

Assurez-vous que votre site est correctement indexé par les moteurs de recherche. Utilisez l’outil Google Search Console pour vérifier le statut d’indexation de vos pages et identifiez les éventuels problèmes d’indexation. Corrigez les erreurs d’exploration et soumettez un plan de site XML pour faciliter le processus d’indexation.

L’indexation des pages 

Utilisez la Google Search Console pour visualiser l’indexation de vos pages web. Vous verrez comment les robots explorent vos pages. Cette fonctionnalité de la Google Search Console est une vue comparative des pages indexées vs les pages non indexées. Toutes les raisons pour lesquelles certains de vos contenus ne sont pas indexées sont également listées. 

Les erreurs 4XX

L’erreurs 4xx ou “not found” indique que le serveur HTTP n’a pas trouvé la ressource demandée. Cela signifie que la page demandée n’existe plus ou n’a jamais existé. Les erreurs 4xx sont assez nuisibles pour votre référencement. Ils envoient de très mauvais signaux à Google car il a besoin d’indexer des pages valides en 200 pour ses utilisateurs. Elles nuisent également à l’expérience utilisateur parce que vos utilisateurs perdent du temps en arrivant sur des pages qui n’existent pas. 

Plusieurs outils vous permettent d’identifier les erreurs 4xx. L’onglet “indexation de la Google Search Console, les liens cassés sur ahrefs ou internes, erreur du client (4xx) sur Screaming Frog. 

Pour réparer ces erreurs 4xx, la principale méthode est celle d’une redirection définitive ou 301 vers une url existante et fonctionnelle. A noter que l’url fonctionnelle doit répondre à la même intention de recherche que l’url redirigée. 

Les problèmes de redirection 

Les redirections constituent un point important de notre checklist SEO technique.

Il existe deux types de redirection en SEO. La redirection temporaire avec le status code 302. La redirection définitive ou permanente dont le status code est le 301. La redirection permanente est un transfert du potentiel SEO d’une page vers une autre. Même si l’url fonctionnelle reçoit bien le pagerank de l’url redirigée, il n’est pas garanti de retrouver l’intégralité des mots-clés sur lesquels cette dernière était positionnée. 

La redirection temporaire quant à elle entraîne bien des pertes de positionnement de la page redirigée. Cette redirection apporte de la confusion non seulement pour les utilisateurs mais également pour Google. Une utilisation prolongée des redirections temporaires peut fortement réduire votre pagerank interne. L’indexation de la Google Search Console, interne, redirection (3xx) sur Screaming Frog…vous montrent les erreurs 3xx présentes sur votre site. 

Les erreurs 5xx ou erreurs serveurs

Une erreur 5xx est un code d’erreur HTTP qui indique un problème au niveau du serveur.Contrairement aux erreurs 4xx qui sont liées à des problèmes du côté du client, les erreurs 5xx se produisent lorsque le serveur rencontre une difficulté qu’il ne peut pas résoudre pour répondre à une requête HTTP. Les exemples courants d’erreurs 5xx sont : l’erreur 500 (Erreur interne du serveur), l’erreur 502 (La surcharge du serveur web), l’erreur 503 (Service non disponible) et l’erreur 504 (Délai d’expiration de la passerelle). 

Les erreurs 5xx sont disponibles dans tous les crawlers comme Oncrawl ou Screaming Frog. La correction des erreurs 5xx nécessite de prendre contact avec votre fournisseur d’hébergeur. 

Les problèmes de canonical

La balise canonical est un outil clé en SEO. Elle permet de gérer les problèmes de duplication sur un site. La balise canonique permet de spécifier quelle version d’une page doit être considérée comme originale. Cela aide à ne pas faire indexer plusieurs versions d’une même page. 

Le self-referencing : Cette pratique canonise la page sur elle-même. En d’autres termes, vous indiquez à Google de ne pas prendre en compte une autre url en dehors de celle-ci. 

Canonisé : l’url canonique est différente de la page. Lorsque vous avez deux pages avec le même contenu, la bonne pratique serait de canoniser l’une des versions pour éviter la duplication de contenu. Par exemple, vous avez deux pages : A et B. 

La page B étant une copie de la page A, celle-ci aura pour url canonique la page A. Vous indiquez donc à Google que la page B est une copie de la page A. 

L’onglet versions canoniques de Screaming Frog vous renseigne sur l’état de vos balises canoniques.

Le robots.txt

Le fichier robots.txt est un fichier texte situé à la racine de votre site web. Son rôle principal est de communiquer avec les robots des moteurs de recherche, également appelés “bots” ou “spiders”, et de leur indiquer quelles pages de votre site ils sont autorisés à explorer et à indexer. 

Il spécifie les directives d’exploration pour les robots des moteurs de recherche. Ces directives indiquent aux robots quelles parties de votre site ils peuvent visiter et quelles parties ils doivent ignorer.

La fonction disallow interdit le crawl d’une page web ou d’un répertoire. Toutes les pages inutiles sont-elles bloquées au crawl ? Le crawler a t-il accès à toutes les pages importantes du site ? 

Le sitemap.xml

Le sitemap.xml permet aux moteurs de recherche d’explorer et d’indexer efficacement toutes les pages de votre site, y compris celles qui pourraient ne pas être facilement accessibles par les liens internes. 

Le sitemap.xml contient t-il toutes les pages valides ? Y a t-il des pages non valides (4xx, 5xx, 3xx..) dans le sitemap.xml ? 

Le niveau de profondeur 

Le niveau de profondeur est le nombre de clics nécessaire à un utilisateur ou un à un bot pour accéder une page donnée. Dans la profondeur d’un site, la page d’accueil est considérée comme le niveau 0. 

En pratique, les pages les plus importantes pour votre business doivent se situer assez haut dans l’arborescence. En effet, plus une page est profonde, plus les robots fourniront d’efforts pour les crawler. 

Le balisage html 

Les balises meta et les données structurées jouent un rôle essentiel dans le classement des moteurs de recherche. 

Certains éléments importants comme la balise title, le titre H1 doivent être correctement renseignés pour le bon référencement de vos pages. Le balisage de vos pages est un facteur clé dans l’optimisation de vos contenus pour Google. Les balises importantes permettent d’envoyer des instructions sémantiques à Google et aux autres moteurs de recherche. 

Assurez-vous que chaque page de votre site possède des balises meta uniques et pertinentes, en accord avec le contenu de la page. De plus, implémentez des données structurées pour aider les moteurs de recherche à comprendre le contexte de votre contenu.

Les données structurées

En utilisant les données structurées, vous donnez aux moteurs de recherche une compréhension plus approfondie du contenu de votre site. Cela peut conduire à une meilleure visibilité dans les résultats de recherche et à un classement plus élevé, car les moteurs de recherche sont mieux en mesure de comprendre la pertinence de votre contenu par rapport aux requêtes des utilisateurs.

Les données structurées permettent également d’afficher des extraits enrichis, tels que des balises de titre et de description améliorées, des évaluations, des prix, etc. Ces extraits peuvent rendre votre résultat de recherche plus attrayant et inciter les utilisateurs à cliquer, ce qui peut augmenter le taux de clics (CTR) de votre site.

Vous pouvez lire la documentation de Google sur les données structurées pour bien implémenter les vôtres. 

Le système de pagination 

La pagination fait référence à la division du contenu d’un site web en pages distinctes pour faciliter la navigation des utilisateurs. Cela se produit souvent lorsque le contenu est trop volumineux pour tenir sur une seule page, comme dans le cas des listes d’articles, des résultats de recherche, ou des produits dans un catalogue en ligne. 

La pagination est très utilisée en e-commerce et sa gestion nécessite de prendre en compte quelques détails importants comme l’optimisation (ou la désoptimisation) des méta des pages paginées, l’option navigation entre les différentes pages…

La pagination a vocation à améliorer l’expérience utilisateur et à faciliter l’indexation de tous vos produits ou articles. 

Le maillage interne

Le maillage interne consiste à relier les différentes pages du site entre elles. 

Le maillage de votre site doit répondre à une logique, un maillage bien pensé vous permettra d’améliorer le classement de vos pages web. Voici quelques points à analyser pour l’audit de votre maillage interne. 

Les pages maillées

Premier point à vérifier dans votre maillage interne : quelles sont les pages les plus maillées de votre site ? Où va le pagerank interne ? Vos pages business font-elles partie des pages les plus maillées. 

En effet, Google va plus crawler les pages vers lesquelles les liens internes pointent. Il est donc crucial d’orienter le jus vers les contenus qui vous semblent importants pour l’activité. Il s’agit donc de pages susceptibles de convertir vos leads. La popularité doit être davantage attribuée aux pages stratégiques du site. 

En triant par liens internes sir Screaming Frog, vous aurez accès aux pages les mieux maillées de votre site. 

Le maillage des pages redirigées 

La redirection est un sujet délicat en SEO. Le maillage des contenus redirigés doit être délicatement géré pour éviter une déperdition du jus. 

A titre de rappel, il existe deux redirections fréquentes en SEO : la redirection permanente ou 301 et la redirection temporaire ou la 302. Dans le cas d’une redirection 301, assurez-vous à ce que les liens pointent vers la bonne url. C’est -à -dire celle qui est valide avec un status code 200. La redirection temporaire quant à elle ne nécessite pas une modification des liens car la page d’origine va revenir. 

Les boîtes de liens 

Les boîtes de liens sont des zones de liens présentes sur le site. Elles peuvent être uniquement sur certaines pages du site ou sur toutes les pages du site. L’exemple le plus fréquent est celui du footer. Il est très important, ces liens distribuent du jus aux pages stratégiques. Faut-il avoir un template dynamique ? Les urls maillées sont-elles compatibles ? 

Le fil d’ariane 

Le fil d’ariane permet aux utilisateurs et aux moteurs de recherche de naviguer facilement entre les différentes pages et sections d’un site. Le fil d’ariane améliore l’expérience utilisateur (UX) : En fournissant une navigation claire et intuitive. Il optimise l’indexation : Les moteurs de recherche utilisent les liens du fil d’Ariane pour comprendre la structure d’un site web et indexer ses pages de manière plus efficace. Le fil d’ariane est-il accessible au bot et aux utilisateurs ? La donnée structurée BreadCrumblist est-elle implémentée ?

La stratégie d’ancrage 

Vous devez vérifier les ancres de texte utilisées dans les liens internes pour s’assurer qu’elles sont descriptives et pertinentes pour le contenu de la page liée, ce qui peut aider les moteurs de recherche à comprendre le contexte. Il faut éviter l’utilisation des ancres génériques comme “en savoir plus”, “lire plus”…car elles n’ont aucun poids sémantique donc ne servent pas votre SEO. 

La Web performance 

Le temps de chargement est devenu depuis plusieurs années un facteur clé de votre stratégie de référencement naturel. Une vitesse de chaergement trop lente dégrade l’exprience utilisateur et envoie de très mauvais signaux à Google. En effet Google cherche d’abord à fournir aux internautes une bonne expérience de navigation via les sites qu’il propose dans ses résultats. Un temps de chargement trop lent est pénalisé par Google. Voici quelques éléments à vérifier dans votre audit webperf. 

Le poids des images 

Les images volumineuses sont l’un des principaux coupables de la lenteur des sites web. Réduisez la taille des fichiers d’image sans compromettre la qualité pour des temps de chargement plus rapides. La gestion des images est assez simplifiée sur les CMS. Il existe des extensions comme Imagify qui permettent d’améliorer votre SEO sur WordPress.

Les ressources inutilisées 

Identifiez et supprimez les scripts inutilisés ou superflus de votre site web. Chaque script supplémentaire ralentit le chargement de la page, donc maintenez uniquement ceux qui sont essentiels à la fonctionnalité de votre site.

Google page speed

Google PageSpeed est un outil fourni par Google pour évaluer et optimiser les performances d’une page web. Il analyse divers aspects de la performance, notamment le temps de chargement, la taille des fichiers, la compression des images, la mise en cache et bien d’autres encore. 

Je suis consultant SEO & Web Analyst

Leave a reply