audit seo : atouts du croisement de données...audit standard : crawl + analyse 1. le crawler...

Post on 19-Jun-2020

4 Views

Category:

Documents

0 Downloads

Preview:

Click to see full reader

TRANSCRIPT

1#seocamp

Audit SEO :Atouts du croisement de données

jeudi 22 mars 2018

2#seocamp

Olivier DUFFEZ

Créateur du sitewebrankinfo.com

Consultant SEOwebrankexpert.com

Formateur SEOranking-metrics.fr

Cofondateur de la plateforme SEO

myrankingmetrics.com

4#seocamp

Noyé sous les données

■ SEO, nous avons accès à de + en + de données

■ C’est très utile ! Mais un piège également…

■ Le risque : ne plus savoir quoi (en) faire

5#seocamp

Le but de cette présentation...

Comment exploiter au maximum toutes ces données ?

■ Issues d’un audit SEO (crawler + analyseur)

■ + de Google Analytics

■ + de Google Search Console

6#seocamp

A quoi sert un audit SEO ?

Il sert à trouver :

■ des problèmes qui pénalisent le référencement du site

■ des idées d’optimisation du référencement

7#seocamp

Quel est le but d’un audit SEO ?

Lister des recommandations :

■ applicables

■ triées par rentabilité décroissante

■ permettant d’améliorer le référencement du site

8#seocamp

D’un audit “standard”à un audit couplé àdes données externes

1

9#seocamp

Audit standard : crawl + analyse

1. Le crawler récupère toutes les pages du site

2. L’analyseur traite les données et formate des résultats

Au final, on essaie de repérer les pages avec problèmes

■ On essaie d’évaluer la qualité des pages

■ Si c’est bien fait, on se concentre sur les pages à problèmes

10#seocamp

Audit standard : crawl + analyse

Crawler Analyseur

L’audit standard permet d’évaluerla qualité “intrinsèque” de chaque page indexable

évaluation de qualité pour chaque page

11#seocamp

Comment évaluer la qualité intrinsèque ?

Il faut tenir compte de toutes les caractéristiques techniques et de contenu de chaque page, notamment :

■ contenu inédit dans la zone principale

■ rapidité, profondeur, compatibilité mobile

■ optimisation des balises HTML classiques du SEO

■ etc.

12#seocamp

Audit avancé : crawl + analyse + couplage

Donnéesexternes performance réelle

de chaque page

Crawler Analyseurévaluation de qualité pour chaque page

Grâce à toutes ces données, l’audit peut aboutir à des recommandations à haute valeur ajoutée

données enrichies

13#seocamp

Comment valider l’estimation de qualité ?Etude sur 1,2 milliard de visites, 42 millions de pages

2

14#seocamp

Mon étude RM Tech

Sur ma plateforme My Ranking Metrics, je dispose de big data pour des dizaines de milliers d’audits SEO.

La qualité intrinsèque de chaque page indexable est calculée par un algorithme spécifique : QualityRisk.

15#seocamp

Mon étude RM Tech

Quelques chiffres (étude mars 2018) :

■ 4 823 sites audités

■ 42 543 337 pages, dont

○ 27 millions indexables

○ 8 millions actives

■ 1 171 411 276 sessions générées en “organic” (réft. naturel)

16#seocamp

Mon étude RM Tech

Précisions :

■ chaque page d’accueil est exclue pour ne pas fausser l’analyse (le trafic “marque” n’est pas réellement “organic”)

■ 100% des données ont pu être récupérées (par l’API),sans jamais avoir d’échantillonnage

17#seocamp

1 : analyse de la profondeur

Précisions :

■ la profondeur est le nombre de clics nécessaires(sur des liens suivis par Google) pour atteindre la page

■ page d’accueil (ignorée ici) : 0

■ pages atteignables depuis l’accueil : 1

■ etc.

18#seocamp

Résultats : profondeur

Les pages de profondeur 1 à 3génèrent 8 fois + de visites SEOque celles de profondeur 4 ou plus !

19#seocamp

2 : analyse du manque de contenu

Précisions :

■ Nous nous concentrons sur le contenu de la zone principale de la page (c’est idiot d’inclure menu, sidebar, footer…)

■ l’exigence de taille dépend des cas de figure (article éditorial, listing, site ecommerce, etc.)

■ un indice est calculé de 0 (aucun manque de contenu) à 100 (manque total de contenu)

20#seocamp

Résultats : manque de contenu

Les pages avec assez de contenu textegénèrent 4,5 fois + de visites SEOque celles qui en manquent !

21#seocamp

3 : analyse de la qualité intrinsèque

Précisions :

■ L’indice QualityRisk est calculé à partir de nombreux critères on-page et on-site

■ il représente le risque qu’un internaute (ou Google) soit déçu par la qualité intrinsèque de la page

■ il va de 0 (aucun problème) à 100 (qualité très mauvaise)

22#seocamp

Résultats : qualité intrinsèque

Les pages sans aucun problème de qualitégénèrent 12 fois + de visites SEOque celles qui en ont (QualityRisk > 20) !

23#seocamp

Remarque QualityRisk et UX

■ QualityRisk n’utilise aucune donnée liée à l’utilisateur, mais justement en le couplant avec, des analyses UX / SEO sont possibles

■ cela permet tout de même des analyses avancées même quand on ne dispose pas des données Google Analytics

24#seocamp

Quelles recommandations SEO peut-on tirer du couplage des données ?

3

25#seocamp

1- Notion de Page active

■ Avec les données Google Analytics, sur la période :

○ page active : elle a généré des visites (organic)

■ Avec les données Google Search Console, sur la période :

○ page active : elle a reçu des clics

○ page indexée : pas de clics, mais des impressions

26#seocamp

1- Notion de Page active

■ Analyse simple mais essentielle...

■ En croisant avec les données du crawl, on comprend pourquoi certaines pages (ou types de pages) sont inactives

■ Les rendre actives augmente (évidemment) le trafic !

27#seocamp

2- Pages à supprimer ou désindexer

■ Les pages de trop mauvaise qualité plombent le reste du site (Panda, Phantom et autres algos qualité)

■ Repérez les pires pour les supprimer ou désindexer

■ Le couplage du crawl et des données de performances fait gagner un temps gigantesque

■ L’analyse humaine doit toujours avoir le dernier mot

28#seocamp

2- Pages à supprimer ou désindexer

Calculez un indice par page basé au moins sur :

■ les performances actuelles (on cherche les pages sans trafic)

■ la qualité intrinsèque (on cherche les pages très décevantes)

■ les backlinks (on cherche les pages sans BL intéressants)

■ le CA généré (on cherche les pages à CA nul)

Permet de faire ressortir parmi l’immensité des pages du site celles à supprimer sans crainte (pas d’impact trafic / CA)

29#seocamp

3- Pages rentables à travailler en 1er

Pendant longtemps, j’ai fait mes audits avec un simple crawlerDifficile de savoir par quoi commencer pour satisfaire le client !

Il faut trier parmi plein de cas de figure :

■ les pages qui performent déjà bien et pour lesquelles on trouve encore des choses à améliorer

■ les pages à performance moyenne ou faible, mais avec beaucoup de choses à améliorer

■ les pages à performance très faible, où tout est à améliorer

30#seocamp

3- Pages rentables à travailler en 1er

Calculez un indice de rentabilité par page basé au moins sur :

■ les performances actuelles

■ le potentiel d’amélioration (cf. indice de qualité intrinsèque)

■ la difficulté d’amélioration

Permet de faire ressortir parmi l’immensité des pages du site les plus rentables à travailler (gain en trafic / effort à fournir)

+ de détails dans cette vidéo de 35’

31#seocamp

4- Pages à améliorer en termes UX

■ Les internautes arrivés depuis Google (organic) déçus par votre site reviennent dans les SERP.

■ C’est un très mauvais signal envoyé à Google !■ Si c’est fréquent pour votre site, sa visibilité va chuter

PS : ne confondez pas tout

■ uniquement les internautes venant des SERP (organic)■ c’est différent du taux de rebond pris isolément

32#seocamp

4- Pages à améliorer en termes UX

Calculez un indice de déception (internaute) basé au moins sur :

■ des données Analytics liées à l’internaute (taux de rebond, nb de pages vues / session, en comparant les pages entre elles et non par rapport à un idéal universel qui n’existe pas)

■ les performances actuelles (sessions générées en “organic”)

■ le potentiel d’amélioration (cf. indice de qualité intrinsèque)

33#seocamp

4- Pages à améliorer en termes UX

Permet de faire ressortir parmi l’immensité des pages du site celles qui génèrent le plus de déception détectable par Google

34#seocamp

5- Pages à pousser en page 1 de Google

Ce n’est pas un scoop, pas grand monde s’aventure en page 2 des SERP…

C’est encore plus flagrant sur mobile, donc l’impact de cette habitude va augmenter.

Je l’ai étudié fin 2017, c’est impressionnant (cf. WebRankInfo)

35#seocamp

5- Pages à pousser en page 1 de Google

36#seocamp

5- Pages à pousser en page 1 de Google

37#seocamp

5- Pages à pousser en page 1 de Google

Calculez un indice de potentiel par page basé au moins sur :

■ le volume de recherches des requêtes pour cette page

■ le potentiel d’amélioration (cf. indice de qualité intrinsèque)

■ la position moyenne actuelle

Permet de faire ressortir les pages avec le meilleur ratio “nombre de visites à gagner” / “effort à fournir”

Parfois on trouve des pépites (page #1 sans trop d’efforts)

38#seocamp

Conseils (retours d’expérience)

1. Basez-vous sur les pages indexables !

○ débrouillez-vous pour en obtenir la liste

○ ne prenez pas simplement un export du crawl(tenez compte des noindex, canonical, etc.)

○ sinon vous perdrez du temps

39#seocamp

Conseils (retours d’expérience)

2. Choisissez bien la période pour récupérer les données !

○ stratégique en cas de saisonnalités

○ permet d’anticiper les saisons futures

Pour certaines analyses, 1 an de données c’est mieux.Pour d’autres, il faut personnaliser selon l’analyse.

40#seocamp

Conseils (retours d’expérience)

3. Ne vous basez pas sur des données non fiables !

○ exemple typique : prendre les valeurs dans Google Analytics sans vérifier s'il y a eu de l'échantillonnage

○ l'échantillonnage est fréquent, surtout avec 1 an de données

41#seocamp

Conseils (retours d’expérience)

4. Soyez exhaustifs !

○ par exemple dans Search Console, combinez les données de tous les sous-domaines

○ attention aussi à HTTP / HTTPS

42#seocamp

Le mot de la fin

Ce n'est qu'un aperçu des possibilités du couplage d'un audit SEO avec des données externes…

Elles sont impossibles à faire "à la main" et apportent une très forte valeur ajoutée !

Pour ma part j'en fait d'autres que celles-ci, je les rendrai publiques un peu plus tard ;-)

43#seocamp

Question MugSelon mon étude, les pages sans problème de qualité génèrent + de trafic SEO que les pages pourries (QualityRisk > 20) :

■ 2x plus ?

■ 6x plus ?

■ 12x plus ?

44#seocamp

MERCI AUX SPONSORS

top related