Objectif : Améliorer le Crawl budget
Le but de l’audit technique SEO est de détecter les freins techniques entraînant un gaspillage de Crawl Budget. Il est donc nécessaire de s’assurer que les robots de Google puissent aller le plus rapidement possible vers les pages pertinentes de votre site Web. Plus votre site a un fort volume de pages, plus la notion de Crawl Budget* sera importante !
L’audit technique SEO est fondamental, c’est un des trois piliers du SEO avec le contenu et la partie Netlinking. Optimiser l’aspect technique de son site, c’est prendre de l’avance sur les concurrents en ne proposant que des pages optimales et ciblées aux moteurs de recherche.
Crawl Budget *: c’est un est un élément clé, en particulier pour les sites web comprenant un grand volume de pages. Le Budget de Crawl fait référence à la quantité de ressources que les moteurs de recherche, tels que Google, dédient à l’exploration et l’analyse d’un site web. Le Crawl Budget dépend entre autres du volume de page, de la popularité du site, de son antériorité et de la fréquence de publication.
Demande de devis !Les différents points abordés lors de l’audit technique :
Contrôle des entêtes HTTP
Sitemap XML
Indexabilité des pages
Maillage interne / Profondeur des pages
Balisage Hn (H1, H2, H3…)
Duplication de contenu
Duplication balise Title / Meta Description
Hreflang (attribut international)
Données structurées (schema.org)
Conformité des images
Cycle de vie des pages
Optimisation du robots.txt
Gestion de la pagination
Les bonnes questions sur l’audit technique SEO
Selon la taille du site, vous devez compter 1 à 4 jours pour réaliser un audit technique SEO complet. Mon tarif horaire sera communiqué lors de nos discussions.
La réponse est simple et honnête… En optant pour un freelance expérimenté, vous êtes certain de profiter de mes 15 ans d’expérience. En choisissant une agence, un débutant ou pire un sous-traitant pourrait se charger de votre audit.
Une page non indexée est une page qui ne figure pas sur l’index de Google, elle est donc introuvable sur la SERP.
Une page non indexable est une page qui ne devrait pas être indexée sur Google car un de ces facteurs bloquants est présent : Entête non 200, attribut Rel canonicale différent de la page en cours, balise Meta Robot Noindex, URL bloquée via le robots.txt.
J’utilise différents outils en fonction du budget alloué par le client et de la volumétrie du site. Screaming Frog SEO Spider a grandement évolué et est désormais très complet, je l’utilise pour la majorité de mes audits.
Seolyzer, Botify, OnCrawl ou encore JetOctopus sont également des solutions SAS avec lesquelles j’ai l’habitude de travailler.
Les entêtes non 200 indiquent des erreurs qui peuvent nuire à l’indexation de votre site et à son classement. Les robots de Google vont perdre du temps à parcourir ces pages, ce qui est assimilé à une perte de crawl budget.
La duplication de contenu peut diluer votre autorité SEO et induire en erreur les moteurs de recherche quant au choix de la page à privilégier.
Un sitemap XML bien structuré aide les moteurs de recherche à mieux comprendre et indexer votre site. C’est une porte d’entrée non négligeable pour les robots de Google et elle est souvent oubliée côté client.
S’assurer que toutes vos pages importantes sont accessibles et indexées par les moteurs de recherche est crucial pour maximiser votre visibilité.
Les priorités de l’audit technique
Selon le projet, les priorités sont différentes mais il y a tout de même quelques éléments à auditer en priorité, quel que soit le site car ces éléments peuvent être bloquants pour les robots de Google.
- Entête HTTP non 200 : L’entête HTTP est la réponse du site internet au navigateur de l’internaute. Si l’entête répond le code 200, tout va bien, la page est accessible. D’autres entêtes vont faire perdre du temps (et donc du crawl budget) aux robots de Google, en voici quelques-uns :
- Entête 404 : le plus connu, la page est introuvable, GoogleBot va donc perdre du temps à venir visiter une page qui n’existe plus…
- Entête 301 : l’ancienne page est redirigée vers une autre page. GoogleBot va donc arriver sur la première adresse avant de devoir aller à l’adresse finale, c’est une perte de Crawl Budget même si c’est moins alarmant que l’entête 404.
- Entête 500 : erreur serveur, la page est inaccessible, même constat que pour l’entête 404.
- Attributs Rel Canonicales : d’après les recommandations de Google, l’attribut « Rel Canonical» est obligatoire et doit être présent sur chaque page. Cet attribut permet de définir la page principale parmi un ensemble de pages. Si l’attribut Canonicale renvoie vers la page en cours, c’est une « Self canonicale», la page est donc indexable. Si l’attribut Canonicale est différent de la page en cours, c’est une « URL canonisée« , la page est considérée comme non indexable. Cet attribut a des avantages comme des inconvénients :
- Avantage : l’attribut Canonicale permet d’éviter la duplication de contenu en prévenant Google. C’est utile, par exemple, pour les déclinaisons de produit ou les URL avec paramètres de tri.
- Inconvénient : Google va venir voir des « URL canonisées » qui sont non indexables. C’est donc une perte de temps et de crawl budget…
- Balises Meta Robots : la balise Meta Robots permet d’indiquer à Google si vous souhaitez indexer ou désindexer une page en précisant «index» ou «noindex». Cette balise indique si vous voulez que les robots de Google suivent le contenu (follow) ou ne suivent pas le contenu (nofollow).
- Le fichier robots.txt : ce fichier présent à la racine du site permet de donner des instructions aux robots de Google en indiquant si une page ou un ensemble de pages doit être crawlée. Attention, le robots.txt bloque uniquement l’accès et ne désindexe pas les pages.
- Duplication de contenu : Screaming Frog SEO Spider, outil utilisé lors de l’audit technique SEO, assure l’analyse du taux de similarité des pages et identifie les pages qui sont considérées comme de la duplication de contenu.
- Sitemap XML : c’est un plan de votre site au format « XML » et c’est une porte d’entrée non négligeable pour les robots de Google. Ce plan de site est à actualiser quotidiennement et automatiquement de façon que les pages présentées dans ce fichier soient toutes indexables.
- Profondeur des pages : la profondeur d’une page est le nombre de clics en partant de la page d’accueil pour aller jusqu’à la page de destination. Google recommande une profondeur moyenne de 3. Cette analyse permet de déceler des problèmes de pagination ou même pire, des « spider trap » qui entraînent un crawl infini sur le site.
- Google Search Console : Parfait complément de l’audit technique, cet outil permet de voir réellement ce que voient les robots de Google.
Demande de devis gratuit
Demandez votre devis gratuit pour une prestation d’audit technique SEO.