audit seo : atouts du croisement de données...audit standard : crawl + analyse 1. le crawler...
TRANSCRIPT
1#seocamp
Audit SEO :Atouts du croisement de données
jeudi 22 mars 2018
2#seocamp
Olivier DUFFEZ
Créateur du sitewebrankinfo.com
Consultant SEOwebrankexpert.com
Formateur SEOranking-metrics.fr
Cofondateur de la plateforme SEO
myrankingmetrics.com
4#seocamp
Noyé sous les données
■ SEO, nous avons accès à de + en + de données
■ C’est très utile ! Mais un piège également…
■ Le risque : ne plus savoir quoi (en) faire
5#seocamp
Le but de cette présentation...
Comment exploiter au maximum toutes ces données ?
■ Issues d’un audit SEO (crawler + analyseur)
■ + de Google Analytics
■ + de Google Search Console
6#seocamp
A quoi sert un audit SEO ?
Il sert à trouver :
■ des problèmes qui pénalisent le référencement du site
■ des idées d’optimisation du référencement
7#seocamp
Quel est le but d’un audit SEO ?
Lister des recommandations :
■ applicables
■ triées par rentabilité décroissante
■ permettant d’améliorer le référencement du site
8#seocamp
D’un audit “standard”à un audit couplé àdes données externes
1
9#seocamp
Audit standard : crawl + analyse
1. Le crawler récupère toutes les pages du site
2. L’analyseur traite les données et formate des résultats
Au final, on essaie de repérer les pages avec problèmes
■ On essaie d’évaluer la qualité des pages
■ Si c’est bien fait, on se concentre sur les pages à problèmes
10#seocamp
Audit standard : crawl + analyse
Crawler Analyseur
L’audit standard permet d’évaluerla qualité “intrinsèque” de chaque page indexable
évaluation de qualité pour chaque page
11#seocamp
Comment évaluer la qualité intrinsèque ?
Il faut tenir compte de toutes les caractéristiques techniques et de contenu de chaque page, notamment :
■ contenu inédit dans la zone principale
■ rapidité, profondeur, compatibilité mobile
■ optimisation des balises HTML classiques du SEO
■ etc.
12#seocamp
Audit avancé : crawl + analyse + couplage
Donnéesexternes performance réelle
de chaque page
Crawler Analyseurévaluation de qualité pour chaque page
Grâce à toutes ces données, l’audit peut aboutir à des recommandations à haute valeur ajoutée
données enrichies
13#seocamp
Comment valider l’estimation de qualité ?Etude sur 1,2 milliard de visites, 42 millions de pages
2
14#seocamp
Mon étude RM Tech
Sur ma plateforme My Ranking Metrics, je dispose de big data pour des dizaines de milliers d’audits SEO.
La qualité intrinsèque de chaque page indexable est calculée par un algorithme spécifique : QualityRisk.
15#seocamp
Mon étude RM Tech
Quelques chiffres (étude mars 2018) :
■ 4 823 sites audités
■ 42 543 337 pages, dont
○ 27 millions indexables
○ 8 millions actives
■ 1 171 411 276 sessions générées en “organic” (réft. naturel)
16#seocamp
Mon étude RM Tech
Précisions :
■ chaque page d’accueil est exclue pour ne pas fausser l’analyse (le trafic “marque” n’est pas réellement “organic”)
■ 100% des données ont pu être récupérées (par l’API),sans jamais avoir d’échantillonnage
17#seocamp
1 : analyse de la profondeur
Précisions :
■ la profondeur est le nombre de clics nécessaires(sur des liens suivis par Google) pour atteindre la page
■ page d’accueil (ignorée ici) : 0
■ pages atteignables depuis l’accueil : 1
■ etc.
18#seocamp
Résultats : profondeur
Les pages de profondeur 1 à 3génèrent 8 fois + de visites SEOque celles de profondeur 4 ou plus !
19#seocamp
2 : analyse du manque de contenu
Précisions :
■ Nous nous concentrons sur le contenu de la zone principale de la page (c’est idiot d’inclure menu, sidebar, footer…)
■ l’exigence de taille dépend des cas de figure (article éditorial, listing, site ecommerce, etc.)
■ un indice est calculé de 0 (aucun manque de contenu) à 100 (manque total de contenu)
20#seocamp
Résultats : manque de contenu
Les pages avec assez de contenu textegénèrent 4,5 fois + de visites SEOque celles qui en manquent !
21#seocamp
3 : analyse de la qualité intrinsèque
Précisions :
■ L’indice QualityRisk est calculé à partir de nombreux critères on-page et on-site
■ il représente le risque qu’un internaute (ou Google) soit déçu par la qualité intrinsèque de la page
■ il va de 0 (aucun problème) à 100 (qualité très mauvaise)
22#seocamp
Résultats : qualité intrinsèque
Les pages sans aucun problème de qualitégénèrent 12 fois + de visites SEOque celles qui en ont (QualityRisk > 20) !
23#seocamp
Remarque QualityRisk et UX
■ QualityRisk n’utilise aucune donnée liée à l’utilisateur, mais justement en le couplant avec, des analyses UX / SEO sont possibles
■ cela permet tout de même des analyses avancées même quand on ne dispose pas des données Google Analytics
24#seocamp
Quelles recommandations SEO peut-on tirer du couplage des données ?
3
25#seocamp
1- Notion de Page active
■ Avec les données Google Analytics, sur la période :
○ page active : elle a généré des visites (organic)
■ Avec les données Google Search Console, sur la période :
○ page active : elle a reçu des clics
○ page indexée : pas de clics, mais des impressions
26#seocamp
1- Notion de Page active
■ Analyse simple mais essentielle...
■ En croisant avec les données du crawl, on comprend pourquoi certaines pages (ou types de pages) sont inactives
■ Les rendre actives augmente (évidemment) le trafic !
27#seocamp
2- Pages à supprimer ou désindexer
■ Les pages de trop mauvaise qualité plombent le reste du site (Panda, Phantom et autres algos qualité)
■ Repérez les pires pour les supprimer ou désindexer
■ Le couplage du crawl et des données de performances fait gagner un temps gigantesque
■ L’analyse humaine doit toujours avoir le dernier mot
28#seocamp
2- Pages à supprimer ou désindexer
Calculez un indice par page basé au moins sur :
■ les performances actuelles (on cherche les pages sans trafic)
■ la qualité intrinsèque (on cherche les pages très décevantes)
■ les backlinks (on cherche les pages sans BL intéressants)
■ le CA généré (on cherche les pages à CA nul)
Permet de faire ressortir parmi l’immensité des pages du site celles à supprimer sans crainte (pas d’impact trafic / CA)
29#seocamp
3- Pages rentables à travailler en 1er
Pendant longtemps, j’ai fait mes audits avec un simple crawlerDifficile de savoir par quoi commencer pour satisfaire le client !
Il faut trier parmi plein de cas de figure :
■ les pages qui performent déjà bien et pour lesquelles on trouve encore des choses à améliorer
■ les pages à performance moyenne ou faible, mais avec beaucoup de choses à améliorer
■ les pages à performance très faible, où tout est à améliorer
30#seocamp
3- Pages rentables à travailler en 1er
Calculez un indice de rentabilité par page basé au moins sur :
■ les performances actuelles
■ le potentiel d’amélioration (cf. indice de qualité intrinsèque)
■ la difficulté d’amélioration
Permet de faire ressortir parmi l’immensité des pages du site les plus rentables à travailler (gain en trafic / effort à fournir)
+ de détails dans cette vidéo de 35’
31#seocamp
4- Pages à améliorer en termes UX
■ Les internautes arrivés depuis Google (organic) déçus par votre site reviennent dans les SERP.
■ C’est un très mauvais signal envoyé à Google !■ Si c’est fréquent pour votre site, sa visibilité va chuter
PS : ne confondez pas tout
■ uniquement les internautes venant des SERP (organic)■ c’est différent du taux de rebond pris isolément
32#seocamp
4- Pages à améliorer en termes UX
Calculez un indice de déception (internaute) basé au moins sur :
■ des données Analytics liées à l’internaute (taux de rebond, nb de pages vues / session, en comparant les pages entre elles et non par rapport à un idéal universel qui n’existe pas)
■ les performances actuelles (sessions générées en “organic”)
■ le potentiel d’amélioration (cf. indice de qualité intrinsèque)
33#seocamp
4- Pages à améliorer en termes UX
Permet de faire ressortir parmi l’immensité des pages du site celles qui génèrent le plus de déception détectable par Google
34#seocamp
5- Pages à pousser en page 1 de Google
Ce n’est pas un scoop, pas grand monde s’aventure en page 2 des SERP…
C’est encore plus flagrant sur mobile, donc l’impact de cette habitude va augmenter.
Je l’ai étudié fin 2017, c’est impressionnant (cf. WebRankInfo)
35#seocamp
5- Pages à pousser en page 1 de Google
36#seocamp
5- Pages à pousser en page 1 de Google
37#seocamp
5- Pages à pousser en page 1 de Google
Calculez un indice de potentiel par page basé au moins sur :
■ le volume de recherches des requêtes pour cette page
■ le potentiel d’amélioration (cf. indice de qualité intrinsèque)
■ la position moyenne actuelle
Permet de faire ressortir les pages avec le meilleur ratio “nombre de visites à gagner” / “effort à fournir”
Parfois on trouve des pépites (page #1 sans trop d’efforts)
38#seocamp
Conseils (retours d’expérience)
1. Basez-vous sur les pages indexables !
○ débrouillez-vous pour en obtenir la liste
○ ne prenez pas simplement un export du crawl(tenez compte des noindex, canonical, etc.)
○ sinon vous perdrez du temps
39#seocamp
Conseils (retours d’expérience)
2. Choisissez bien la période pour récupérer les données !
○ stratégique en cas de saisonnalités
○ permet d’anticiper les saisons futures
Pour certaines analyses, 1 an de données c’est mieux.Pour d’autres, il faut personnaliser selon l’analyse.
40#seocamp
Conseils (retours d’expérience)
3. Ne vous basez pas sur des données non fiables !
○ exemple typique : prendre les valeurs dans Google Analytics sans vérifier s'il y a eu de l'échantillonnage
○ l'échantillonnage est fréquent, surtout avec 1 an de données
41#seocamp
Conseils (retours d’expérience)
4. Soyez exhaustifs !
○ par exemple dans Search Console, combinez les données de tous les sous-domaines
○ attention aussi à HTTP / HTTPS
42#seocamp
Le mot de la fin
Ce n'est qu'un aperçu des possibilités du couplage d'un audit SEO avec des données externes…
Elles sont impossibles à faire "à la main" et apportent une très forte valeur ajoutée !
Pour ma part j'en fait d'autres que celles-ci, je les rendrai publiques un peu plus tard ;-)
43#seocamp
Question MugSelon mon étude, les pages sans problème de qualité génèrent + de trafic SEO que les pages pourries (QualityRisk > 20) :
■ 2x plus ?
■ 6x plus ?
■ 12x plus ?