oncrawl webinar - les 10 métriques seo à suivre avec oncrawl
TRANSCRIPT
Webinaire
#oncrawlwebinar
Les 10 métriques SEO à suivre en 2017 avec OnCrawl
Par Erlé Alberton, Customer Success Manager
Webinar
#oncrawlwebinar
J’adore quand un plan se déroule sans accroc !
ERLE ALBERTONCUSTOMER SUcCESS manager10 ans de dev / 5 ans de SEO dont 2 ans en tant que responsable SEO des boutiques en ligne Orange et Sosh spécialiste schema.org
seo monkONCRAWL TRAinERcustomer climax & GOOD IDEAS
Webinar
#oncrawlwebinar
• Google en 2017• Budget de crawl Google• Les 10 metrics à surveiller • Focus sur l’analyse de logs• Comment bien paramétrer ses logs• Conclusions• Q&A
Programme
Webinar
#oncrawlwebinar
Google en 2017 Google représente plus de 94% de part de marché en France (92% WorldWide)
C’est un moteur en constante mutation – direct Answers, mobile dépendance, https, … – pour coller aux nouveaux besoins/usages des internautes
Il impose un rythme de mises à jour très soutenu aux éditeurs de sites qui doivent s’adapter vite et le plus précisément possible
Il devient de plus en plus « intelligent », apprend en continu des « Human Behaviors » mais il doit aussi optimiser ses ressources au plus juste – Crawl Budget
Webinar
#oncrawlwebinar
Le mot du Patron…
Webinar
#oncrawlwebinar
Source : Eric Schmidt – Google CEO – How Google Works https://www.slideshare.net/ericschmidt/how-google-works-final-1
Webinar
#oncrawlwebinar
Budget de Crawl Google
C’est le crédit que Google alloue à ses robots pour parcourir l’ensemble des ressources d’un site web
Même si ce budget plutôt dédié aux gros sites, les sites de moyenne ou petite taille doivent tout de même optimiser les temps de Crawl Google pour montrer leur qualité
Chez OnCrawl on constate que, plus Google alloue de crédit à un site plus le site reçoit de visites SEO
Source : Qu'entend donc Google quand il parle de "Crawl Budget" (budget d'exploration) ?
Webinar
#oncrawlwebinar
Crawl metrics – Google crawl
Comparer le nombre de pages crawlées, le nombre de Hits Google bot et surtout le volume de nouvelles pages découvertes par le bot
Comprendre la répartition du budget de crawl par groupe de pages permet de détecter les zones de faiblesse du site
Permet de connaitre « la dose d’amour » que Google à pour votre site
Webinar
#oncrawlwebinar
SEO impact
Connaitre l’impact du crawl Google sur les visites SEO
Vérifier que les nouvelles pages découvertes deviennent activesActive : reçoit des visites avec pour referer Google (news, SERP, android-app)
Valider la stratégie de visibilité en se penchant sur les vistes SEO par groupes de pages
Le FreshRank permet de savoir le temps écoulé entre la découverte d’une page par Google et la première visite SEO
Webinar
#oncrawlwebinar
Qualité technique du site
Vérifier les « status code » renvoyés aux robots Google afin de s’assurer que le SI est propre
Suivre leur évolution dans le temps permet de s’assurer que les mises à jour du code sont SEO Friendly
Combien de budget, Google dépense-t-il sur mes ressources (css, img, js)
Est-il envisageable d’optimiser ce budget (304, réduction du poids des ressources)
Webinar
#oncrawlwebinar
Content metrics - HTML
Quel est le nombre de pages crawlables, indexables par les robots – ce nombre doit être en relation avec votre stratégie de nouveaux contenus
Quel est l’état de la duplication : Title, Meta Desc, H1 ?
Le ratio texte/code permet de valider la qualité du code source produit
En fonction du type de site le bon ration texte/code peut varier, mais on estime qu’au dessus de 30% c’est parfait ;)
Webinar
#oncrawlwebinar
Content metrics - Sémantique
Google fait très attention à l’unicité des contenus, vous devez en faire autant
Détecter les clusters de pages dupliqué afin de proposer une stratégie de mise en place de Canonical
Connaitre le nombre de pages avec contenu pauvre, on sait que Google crawl plus les pages lorsqu’elles possèdent un plus grand nombre de mots
Webinar
#oncrawlwebinar
Analyse de l’architecture
Vérifier la répartition du InRank (popularité interne) en fonction des profondeur et des groupes de pages
Connaitre l’impact a le maillage interne sur le crawl de Google
Comparer les pages : dans la structure vs crawlées vs actives
• résoudre le problème des pages orphelines pour lesquelles Google dépense du budget inutilement
• corriger l’architecture du site pour renvoyer des liens vers des pages Actives mais hors structure
Webinar
#oncrawlwebinar
Performance
Connaitre la répartition des temps de réponse et des poids des fichiers en fonction des groupes de page
S’assurer que le chargement des pages n’impacte pas le budget de crawl de Google
Les temps de chargement jouent sur le ranking notamment sur les recherches Mobile
Attention : Mobile First Index en préparation
Webinar
#oncrawlwebinar
Qualité
La Cross Analyse : Crawl + Logs permet de vérifier que toutes les zones du site respectent les conditions optimales pour faciliter le crawl de Google
Relever les erreurs serveur et connaitre leur répartition par type de pages afin de s’assurer qu’il n’y a pas de freins à l’indexation du site
Webinar
#oncrawlwebinar
Human Behaviors
Les facteurs de ranking basés sur les comportement humains sont de plus en plus important pour Google
Avec son Algorithme « Rank Brain » qui apprend de manière continue en se basant sur les comportements des internautes depuis les SERPs, Google peut classer ou déclasser une page quasiment en live
Il est important de suivre les taux de rebond, taux de clics, temps de visites de votre site et de détecter les zones du sites en retard
Faire le point par type de crawler (mobile/desktop)
Webinar
#oncrawlwebinar
Analyse de log avec OnCrawl
Afin de compléter les rapports de crawl de l’outil, vous devez souscrire à l’option d’analyse de logs
Vos logs sont hébergés sur les serveurs et doivent être envoyés via FTP à OnCrawl : http://help.oncrawl.com/
OnCrawl va extraire chaque ligne pour vérifier si :• la ligne représente une trace Google Bot• la ligne correspond à une visite depuis un moteur de
recherche – visite SEO
Webinar
#oncrawlwebinar
Comment bien paramétrer ses fichiers de log
OnCrawl se base sur les variables contenues dans les lignes de log pour créer ses rapports
Chez OnCrawl nous garantissons que les données représentent bien des hits Google bot vs Scrap
Les données nécessaires pour garantir l’exhaustivité sont :
• DateTime with Timezone• Ip client• Referer• UserAgent• Vhost• Port (80/443)
• Status code• Path• Bytes
Webinar
#oncrawlwebinar
ConclusionsDans le contexte concurrentiel actuel, les analyses des metrics SEO deviennent l’arme ultime pour prendre le lead face à la concurrence
Les responsables SEO doivent pouvoir se baser sur des données fiables et des analyses croisées avec intelligence
OnCrawl permet d’ouvrir la boite noir de Google et de cibler rapidement les QuickWins et évolutions structurelles à entreprendre
Webinar
#oncrawlwebinar
Des questions ?
Webinar
#oncrawlwebinar
MERCI !Votre contact
[email protected] us : @Oncrawl