Qu’est-ce que l’analyse de logs en SEO ?
L’analyse de logs en SEO est une analyse technique très avancée des fichiers journaux (logs) du serveur web. Le serveur enregistre toutes les requêtes dans ces fichiers de logs, y compris celles des moteurs de recherche comme Google. Cette analyse permet de comprendre le comportement des moteurs de recherche sur le site, d’identifier les problèmes d’indexation et d’optimiser le Crawl Budget. L’analyse de logs permet de faire une vérification de l’état de santé d’un site après plusieurs années de vie ou tout simplement après une refonte. Généralement, nous collectons de 3 à 12 mois de données de logs pour faire l’analyse. Une deuxième analyse peut être faite après mise en place des recommandations pour observer les améliorations.
L’analyse de logs aide à répondre aux questions suivantes :
- Quelles sont les pages les plus crawlées par les robots de Google ?
- Sur quel type de page ou ressource, GoogleBot vient inutilement voir ?
- À quelle fréquence les robots de Google parcourent mes pages stratégiques ?
- Quelles sont les pages ignorées par Google ?
- Combien de temps met Google pour crawler toutes les pages de mon site ?
Quel impact sur le Crawl Budget ?
L’analyse de logs permet de constater quelles pages ont été crawlées inutilement par les robots de Google :
- Pages ayant un entête 404 ou 500 : Les entêtes 404 (page introuvable) ou 500 (erreur serveur) crawlés par les robots de Google constituent un gaspillage de Crawl Budget. L’analyse de logs permet de voir le nombre de 404 et 500 rencontrés par GoogleBot et d’analyser leur origine.
- Pages avec paramètres d’URL : En segmentant les URL du site au Crawl et des logs, les outils comme Seolyzer ou Botify aide à identifier les URL avec des paramètres d’URL qui génèrent souvent de la duplication de contenu (sauf pagination) et de voir si elles sont fréquemment crawlées par GoogleBot.
Analyse croisée Logs VS Crawl
Le croisement des données de logs et de Crawl permet d’aller plus loin en analysant le très populaire diagramme de Venn (premier graphique sur l’image de gauche).
- Quelles sont les pages orphelines ? Les pages orphelines sont des pages crawlées par les robots de Google et visibles dans les logs mais qui ne sont plus présentes au crawl, dans la structure du site.
- Quelles sont les pages ignorées ? Les pages crawlées uniquement par le simulateur de crawl mais pas par les robots de Google.
- Quelles sont les pages actives vs inactives ? Les pages actives sont des pages ayant généré au moins une visite SEO durant le dernier mois.
Quels sont les outils d’analyse de logs ?
Outil 100% français créé par le passionné Olivier Papon. Seolyzer va à l’essentiel et est un des plus abordables sur le marché.
Connue pour son logiciel Screaming Frog SEO Spider, cette entreprise propose également un logiciel pour les logs, Log File Analyser, à un tarif très abordable.
Botify est une suite d’outils SEO très avancée. Un des outils de Botify permet de faire de l’analyse de logs.
Solution d’analyse de logs très complète proposée par Oncrawl.
Assez méconnu, JetOctopus propose des tarifs abordables à l’image de son concurrent Seolyzer.
Demande de devis gratuit
Demandez votre devis gratuit pour une prestation d’analyse de Logs.