QualityRisk
Portrait Olivier Duffez

Olivier Duffez

Créateur de WebRankInfo,
consultant SEO

  • Olivier Duffez sur LinkedIn
  • Olivier Duffez sur X (Twitter)
  • Chaine Youtube WebRankInfo

QualityRiskle score SEO qui vous rend bien plus efficace en référencement

L'indice QualityRisk d'une page aide à évaluer son niveau d'optimisation SEO. A l'échelle d'un siteça aide à prioriser les tâches. Voici le guide de QualityRiskpar son inventeur Olivier Duffez.

Résumez ou partagez cette page :

Ce qu'il faut retenirdétaillé dans ce guide :

  • l'indice QualityRisk d'une page (entre 0 et 100) mesure à quel point une page cumule des problèmes ou sous-optimisations SEO
  • un bilan de QualityRisk sur tout un site fournit son état de santé SEO
  • il est très efficace pour prioriser vos actions d'optimisation du référencement naturel
  • les pages sans problème (QualityRisk 0) génèrent 13 fois + de visites SEO que celles qui en ont (QualityRisk > 20)source
  • inventé par Olivier Duffez et Fabien Facériès en 2016il est mis à jour en continu pour suivre l'évolution de l'algo de Google
  • il est disponible uniquement dans RM Techl'outil d'audit SEO de MyRankingMetrics
  • vous pouvez obtenir un bilan QualityRisk gratuit pour votre site

Voici des accès rapides à ce long dossier : définitionqualité et algo Googleutilisation de QualityRiskexemples de pages

C'est quoi le score QualityRisk ?

Quelques définitions et explications rapides avant de commencer...

Définition de QualityRisk

L'indice QualityRisk d'une page est une valeur entre 0 et 100 qui indique à quel point la page cumule des problèmes ou sous-optimisations SEO. On l'écrit QR en abrégé. Plus QR est élevéplus la page est de mauvaise qualité d'après l'algorithme de RM Techet sans doute aussi de Google.

D'où vient QualityRisk ?

Je suis SEO professionnel depuis 2003si bien que je connais très bien l'évolution de l'algorithme de Google. Comme je le détaille plus loinGoogle tient compte de la qualité globale d'un site. J'ai donc travaillé avec mes collègues de Ranking Metrics pour améliorer RM Tech (notre outil d'audit technique SEO créé en 2014) afin qu'il sache repérer les pages de mauvaise qualité.

Après plusieurs mois de recherchede tests et de développementnous avons abouti en 2016 à la première version de notre algorithme QualityRisk. Cet algo "maison" calcule le score "Quality Risk" de chaque page indexable. On peut le voir comme la probabilité qu'un internaute (ou Google) l'estime de mauvaise qualité.

DepuisQualityRisk a été amélioré et mis à jour pour refléter au mieux l'évolution de l'algorithme de Google.

QualityRiskqualité des pages et algo Google

La notion de qualité est subjectivemais un algorithme et des bonnes données suffisent à faire une évaluation. Google est devenu très bon à çavoilà pourquoi il faut vous aussi la mesurer sur votre site. Explications...

L'estimation de la qualité des sitesau coeur de l'algo de Google

Depuis que Panda est sorti en 2011Google n'a cessé d'améliorer son algorithme pour tenter de repérer les sites de mauvaise qualité. Panda et son successeur Phantom sont désormais inclus dans le process global du moteur de recherche pour évaluer la qualité des sites (ou des pagesj'y reviens plus loin).

On a vu ensuite que Google cherche à détecter les pages satelliteà vérifier que l'utilisateur est satisfait de sa visite sur le site. Plus récemment avec Helpful Content UpdateGoogle a étendu tout ça à la notion de "contenu utile" qui doit être "fait avec les humains en tête et non les moteurs de recherche". Si vous êtes perdulisez mon récapitulatif des algos SEO de Google...

Brefil est indéniable que Google met le paquet pour évaluer la qualité des sites (afin de pénaliser les mauvaisou de favoriser les bonsà vous de choisir entre le verre à moitié vide ou à moitié plein). Cette analyse de la qualité se décompose au moins en 2 familles :

  • d'abord l'évaluation de la qualité du site lui-mêmede ses pages et de leur contenu
  • ensuite l'évaluation de la satisfaction de l'internaute qui visite le site (particulièrement l'internaute que Google envoie depuis les SERPrésultats naturels)

Si vous pensez qu'un algo ne peut pas vraiment évaluer la qualiténotion fort subjectivedétrompez-vous ! Particulièrement depuis que Google a investi massivement dans la recherche en intelligence artificielle (deep learningmachine learning).

Google évalue la qualité pour l'ensemble de votre site

A moins d'être développeur de l'algo de Googleil est impossible de l'affirmer... Mais je suis convaincu que Google calcule un score global de qualité pour chaque site. Plus vous accumulez de pages de mauvaise ou faible qualité sur votre siteplus vous plombez votre scoreplus vous pénalisez votre référencement.

D'ailleursdès la sortie de Pandale responsable de la lutte contre le spam de l'algo Googleà savoir Matt Cuttsavait affirmé que si une partie d'un site est perçue comme de mauvaise qualité par Pandac'est l'ensemble du site qui peut être pénalisé. On retrouve cette affirmation dans le blog officiel de Google :

Notez également que si certaines pages d'un site Web sont de mauvaise qualitécela peut affecter le classement de l'ensemble du site. Par conséquentvous pouvez supprimer ces pages afin d'optimiser le classement de celles qui sont de meilleure qualité ou encore améliorer leur contenules intégrer à des pages plus utiles ou les transférer vers un autre domaine.

Amit Singhal (Google Fellow) source

J'ai justement une solution à vous proposer pour ça ! Lisez bien la suite...

De la même manièreconcernant l'algo Page Layout qui pénalise l'excès de publicité (surtout au-dessus de la ligne de flottaison)Matt Cutts avait expliqué que l'algorithme se base sur une évaluation moyenne sur l'ensemble du site.

Le risque est donc de ne pas se rendre compte qu'à force d'accumuler des pages de mauvaise qualitéc'est le site entier qui se trouve handicapé. D'après mon expériencele plus fréquent est que le propriétaire du site ne se rend même pas compte qu'il propose des pages de mauvaise qualité !

Maintenant que vous comprenez pourquoi il faut vérifier la qualité sur l'ensemble de votre sitevoyons comment faire...

Comment utiliser QualityRisk ?

Je vous explique ici comment obtenir l'indice QualityRisk de toutes vos pages et surtout comment l'exploiter pour prioriser vos actionstout en améliorant la qualité des pages concernées.

À quoi sert QualityRisk ?

Voici les principales utilités :

  • à l'échelle du siteconnaître la répartition des pages selon leur indice QualityRisk permet de savoir en un coup d'oeil si le site est bien travaillé et a priori de qualité. Très utile en avant-vente ou pour découvrir un site à travailler.
  • au niveau d'une pagel'indice QR indique à quel point la page est sous-optimisée SEO. Voyez le verre à moitié rempli : l'indice vous montre le potentiel d'amélioration de la page.
  • c'est très pratique pour suivre l'évolution SEO : si vous travaillez correctementQualityRisk doit diminuertendre vers 0. Vérifiez-le pendant une refonte (même en préprod !) et même en permanence via un monitoring SEO.

Peu de problèmes QualityRisk = gros trafic SEO

QualityRisk est calculé sans connaître les performances des pages (visibilité dans Googlegénération de trafic). Pourtanton observe une corrélation fortece qui veut dire que l'indice QualityRisk est un bon prédicteur de succès SEO.

Pour guider votre SEOvous pouvez vous fier à cet indicateurtout en le complétant par vos propres analyses (qualité des contenus éditoriaux et des médiasalignement avec l'intention de rechercheetc.).

Voici les résultats de ma dernière étude d'ampleur :

Qualité des pages et trafic SEO (étude 2024)
Ce graphique indique la performance des pages (mesurée en visites générées par le biais du référencement naturel sur Google) en fonction de leur qualité (à 0aucun problème de qualitéà 100 nombreux problèmes)

À retenir :

Les pages sans aucun problème de qualité (QualityRisk 0) génèrent 12 fois + de visites SEO que celles qui en ont (QualityRisk > 20).

Étude RM Tech 2024 (source)
Application pour vous :

Comment calculer QualityRisk ?

Le seul outil qui peut calculer l'indice QualityRisk est RM Techmon outil d'audit technique SEO.

Si vous voyez d'autres agences ou freelances vous parler de QualityRisksoit ces personnes utilisent RM Tech (très bonne idée)soit elles exploitent mon concept en bricolant quelque chose pour y ressembler...

Quelle est la formule de QualityRisk ?

La formule de QualityRisk n'est pas publiquec'est un secret de MyRankingMetrics !

Elle est basée sur un grand nombre de données récoltées et calculées pendant chaque audit RM Tech. On retrouve évidemment les critères classiques de l'optimisation on-page et on-site du SEO.

Consultez un rapport d'audit RM Tech pour obtenir des informations à jourcar QualityRisk évolue régulièrement.

À quoi ressemble un bilan QualityRisk pour tout un site ?

Dans l'outil RM Techles URL sont crawlées en suivant les liens à partir de la page de départ. Pour chaque URL indexableson indice QualityRisk (QR) est calculé (nombre entier entre 0 et 100).

Une fois le calcul terminé pour tout le siteun histogramme est affiché dans le rapport d'audit. Il montrepour chaque tranche de QRcombien de pages ont été trouvées.

Même si je vous conseille d'avoir QR zéro pour le maximum de pagesle graphique affiche en rouge les tranches à partir de QR 20.

Si vous n'avez pas accès à Search Console pour faire l'auditle graphique indique uniquement QualityRiskcomme ici (audit du site service-public.fr) :

bilan QualityRisk
bilan QualityRisk sans courbe de trafic. Sur ce sitetrop de pages ont un indice QualityRisk élevé (barres en rouge)

Si vous avez accès à Search Consolele graphique affiche aussi une courbe du trafic moyen généré par les pages dans chaque tranche de QR :

bilan QualityRisk + trafic organique
Bilan QualityRisk + trafic organique. Sur ce sitela plupart des pages ont un indice QualityRisk élevé (barres en rouge)pourtant celles qui génèrent beaucoup de trafic sont à QualityRisk très faible (il faudrait donc corriger les pages à fort QualityRisk)

Que faut-il faire des pages de mauvaise qualité ?

J'attire votre attention sur ces points majeurs :

  • Avec QualityRiskRM Tech vous aide à identifier des pages qui semblent de mauvaise qualité. Mais c'est à vous qui connaissez bien le site de confirmer que la page est effectivement de mauvaise qualité.
  • La prioritéc'est d'améliorer la page ! Suivez les indications de RM Tech (liste des problèmes de la page) afin de réduire son indice QualityRisk.
  • Même si une page est objectivement de mauvaise qualitéelle peut générer un trafic SEO non négligeable. Donc avant toute suppression de pageallez toujours vérifier combien elle génère de trafic SEO. S'il est importantaméliorez la page mais ne la supprimez pas ! Pour çabasez-vous sur les clics d'après Search Console.
  • Si une page de mauvaise qualité a reçu des bons backlinks, faites en sorte de toujours en profiter. Le mieux est de conserver la page en améliorant son contenuet si ce n'est pas possible il faut la rediriger en 301 vers une page similaire. Ne la supprimez pas "brutalement" (code 410 par exemple)...

Consultez les exemples ci-dessous.

Encore mieuxconsultez mon Tuto vidéo : la méthode QualityRisk

Si vous avez déjà bien compris le principe de QualityRiskvous pouvez déjà passer à la méthode supérieure ! Je parle de ma méthode Pages Zombies SEOqui aide justement à identifier encore mieux les pages non performantes et à corriger les problèmes associés.

Exemples de pages de mauvaise qualité identifiées par RM Tech

Après la théorieplace à la pratique ! Grâce à l'analyse de milliers d'audits (vive le big data)nous avons rencontré un grand nombre de cas de figure et mis au point notre algorithme QualityRisk afin qu'il réussisse à dénicher toutes sortes de pages bien souvent difficiles à extraire de la masse des pages d'un site. En voici quelques exemples (avec l'autorisation des sites concernés).

Je précise que notre algo QualityRisk se base sur une combinaison de multiples critères pas seulement sur la taille du contenu. Plus vous accumulez d'éléments déceptifs pour l'internauteplus vous prenez de risques également pour votre SEOet plus vous avez un score QR élevé dans votre rapport d'audit RM Tech.

Lisez donc bien tous les exemples ci-dessous ;-)

Pages avec un contenu central totalement vide

On ne s'attend pas à ce que ce genre de page ait un contenu videet pourtant ça arrive. Pouvez-vous être certain que vous n'avez aucune page de ce genre sur votre site ? Combien en avez-vous ? RM Tech vous le dirait ;-)

Page contenu vide
Cette page sans contenu a été détectée par RM Tech (algo Qualité)

"C'est pas compliquéil suffit de compter le nombre de mots dans la page. Par exemple celle-ci en a 118 d'après ce que m'indique un crawler SEO." Voilà le genre de remarque que vous pourriez vous fairemais justementnous avons vite remarqué que se baser sur le nombre de mots est nettement insuffisant.

Notre algo QualityRisk exploite plusieurs caractéristiques de chaque page pour repérer une éventuelle qualité trop faible. Regardez par exemple la capture d'écran ci-dessous :

Page au contenu central vide
L'algo QualityRisk de RM Tech a réussi à détecter cette page au contenu central vide même si elle a beaucoup de mots en toutà cause de l'entêtedes menus et du pied de page.

Evidemmentavec une page vide comme ça (et une sorte de titre H1 bourré de mots-clés)l'internaute risque de quitter votre site avec une impression de mauvaise qualité. Avec d'autres crawlers SEOcette page ne sort pas en erreur car on dénombre 679 mots en tout. Mais ceux-si sont surtout présents dans le méga-menu (d'ailleurs largement sur-optimisé) :

Page contenu vide gros menu
Ce gros menu contient beaucoup de motsce qui fait qu'en tout la page pourrait sembler de taille suffisante

Avec QualityRisknotre outil RM Tech cherche à s'adapter aux différents cas de figure. Par exemplenous ne traitons pas les sites ecommerce comme les sites de contenus ou de petites annonces.

Vérifiez si vous avez des pages de mauvaise qualité : Lancez votre audit RM Tech !

Pages qui ne devraient pas être indexables

On trouve souvent des pages qui ne devraient pas être indexables (ou même vues par Google). Parfois c'est une toute petite erreurmais répétée sur un grand nombre d'URL. C'est le cas avec ce site qui laisse Google crawler plein de pages n'ayant ni titreni menuni aucune navigationrien qu'un formulaire :

RM Tech QualityRisk page à ne pas faire indexer

Un autre exemple du même genreavec cette fois une page (actuellement indexée) qui ne contient qu'une publicité (promotion)sans doute prévue pour s'afficher en pop-up :

Page sans menuindexée
Page sans menuindexée et détectée par QualityRisk de RM Tech

Pages au contenu trop faible

Ne croyez pas que seuls les cas extrêmes posent problème (pages vides ou quasi vides)les pages au contenu trop faible sont également identifiées par Google ("thin content"). Par expérienceje peux vous dire qu'on a généralement bien plus de mal à les identifiersurtout quand on a "la tête dans le guidon". Parfoisun regard extérieur suffit à repérer certaines faiblessesmais la machine est "impitoyable"ne se fatigue pas même s'il faut chercher quelques dizaines de pages parmi des milliers.

Besoin d'idées d'amélioration ? Lisez mon dossier Comment faire un site qui plait aux internautes.

Page de type article éditorial

Voici un exemple de page de contenu qui à première vue semble assez bien :

Page contenu trop léger
RM Tech a estimé que cette page n'a pas un niveau de qualité suffisant

En réalitéla question à vous poser est la suivante : "Est-ce que cette page présente une valeur ajoutée bien supérieure à ce qu'on trouve sur Internet sur ce sujet ?". Si votre site a une forte notoriétévous pouvez vous permettre de publier un contenu de qualité moyenne. Mais dans le cas contrairepour sortir du lot et avoir la moindre chance d'être en page 1 de Googlevous devriez publier un contenu "10 fois meilleur" que ce qui existe actuellement.

Je ne suis pas le seul à le conseillerle très respecté Rand Fishkin recommande de ne publier du contenu que si on pense pouvoir produire quelque chose 10 fois meilleur que ce qui existe. Eric Engeun autre expert SEO très réputéconseille la même chose.

La page ci-dessus a été identifiée par QualityRisk comme de trop faible qualité. C'est assez logique au final car :

  • le titre n'est pas très explicite ("Goji" uniquementaussi bien dans la balise title que la balise H1)
  • l'article fait 346 motsce qui est correctmais en réalité insuffisant pour ce sujet : on ne fait que survoler ce qu'il y aurait à dire. On ne peut pas toujours faire des articles de 1000 mots me direz-vousmais si vous restez "basique"pourquoi seriez-vous en première page de Google ?
  • si vous lisez bien vous verrez qu'il y a des fautes d'orthographedes fautes de grammairedes manques de ponctuation
  • on apprend à la fin que cet article est un résumé de ce qu'on trouve sur un autre site : l'internaute aurait sans doute préféré la version originale

Page de type catégorie de produits (ecommerce)

Je poursuis avec un autre exemplecette fois sur une page catégorie de site ecommerce :

Catégorie au contenu trop léger
Il faut éviter d'avoir trop de pages catégories au contenu aussi léger

Là aussià première vue c'est correctmais si vous n'avez que des catégories de ce typevous aurez du mal à sortir du lot. Seulement 5 produitstrès peu d'explicationstitres tronqués : c'est trop peu ! S'il s'agissait de produits très simples à 3€ça iraitmais ici il s'agit de produits "avancés" à ~1500€.

Evidemmentc'est plus flagrant sur la catégorie ci-dessous qui n'a aucun produit. Certesdans cet exemple il s'agit des nouveaux produitsmais RM Tech tente de détecter cela partout sur votre site !

Remarque : Je précise que pour tous mes exemplesil s'agit de pages que le propriétaire ou référenceur cherche à faire indexer dans Google.
Catégorie vide
Avec QualityRiskl'audit RM Tech identifie vos pages de listings videspénalisantes pour le SEO

Page de type fiche produit (ecommerce)

Je continue avec un exemple de fiche produit : il s'agit d'une pièce pour un moteur de bateauvendue ~76€. Voici la page :

Fiche produit au contenu trop faible
RM Tech sait identifier ce genre de fiche produit au contenu trop faible

Avec un outil SEO classique de crawlon apprend que la page contient 765 mots. Autant dire qu'on aura du mal à se rendre compte qu'elle a un contenu bien trop faible ! Surtout quand on a 10.000 pages à étudier comme sur le site pris en exemple...

Pourtantà part la citation de Jules de Gaultieril n'y a rien...

Pour ma partje conseillerais de fournir des explications sur le fonctionnement de ce produitsa compatibilité avec les différents moteursson installationsa durée de vieles outils nécessaires pour le montageetc. Il pourrait y avoir des photos supplémentairesune vidéodes avis clients...

Page membre d'un forum

Comme je vous l'ai déjà indiquéRM Tech sait s'adapter à tous les types de sites. Après les sites de contenus ou les boutiques en lignevoici un exemple avec un site communautaire :

Fiche membre forum contenu vide
RM Tech sait repérer une fiche membre de forum au contenu vide

Grâce à cet auditcelui qui gère le SEO sur ce site réalise tout de suite qu'il n'aurait pas dû faire indexer autant de pagessurtout que le système en place génère plusieurs URL (sans contenu) pour chaque membre...

Quel est le QualityRisk de vos pages ? Obtenez leurs scores avec RM Tech

Pages de qualité insuffisante

Comme je vous le disais plus hautRM Tech ne cherche pas à identifier uniquement les cas extrêmes. Quand une page accumule trop d'éléments potentiellement décevants pour l'internautenous attribuons un score QR élevé.

Page avis clients

Regardez par exemple cette page (j'ai tronqué une partie du contenu qui était répétitifà savoir des avis clients) :

Page trop lente sans titre
Selon l'algo QualityRiskcette page accumule trop d'éléments qui font que globalement elle n'est pas d'assez bonne qualité

Pourquoi RM Tech indique que cette page n'a pas une qualité suffisante ? Voici quelques pistes de réponse (fournies dans l'annexe du rapportbien entendu) :

  • cette page est trop lente à télécharger (4521 ms) donc sans doute encore plus à charger en entier pour l'internaute
  • il y a une balise title mais elle est vide
  • idem pour la balise meta description (vide)
  • le titre éditorial est bien un H1 mais il indique uniquement "Camping L'Arlésienne" alors qu'il s'agit d'une page qui liste les avis clients de ce camping

Cette page n'est pas dans les plus mauvaises de ce sitemais grâce à QR on peut identifier des pages de qualité moyennefaciles à améliorerce qui fera progresser le référencement.

Page d'accueil

Une page d'accueil ne se travaille pas de la même manière que les autres pages. Généralement elle bénéficie d'une bonne popularité (grâce à des backlinks)donc pour bien en profiter il faut qu'elle fasse des bons liens vers les pages interneset qu'elle ait beaucoup de contenu (texte).

Voilà un exemple avec une page en espagnol (RM Tech fonctionne sur les sites multilingues) :

Page d'accueil espagnol trop light
RM Tech repère cette page d'accueil (en espagnol) trop light

L'algo QualityRisk a identifié que cette page d'accueil n'est pas assez bien faite et qu'en ajoutant du contenu et quelques liensle référencement du site pourrait progresser.

Conclusion

J'ai essayé de vous convaincre qu'avec l'algorithme actuel de Googlevous ne pouvez plus vous permettre de faire indexer trop de pages de mauvaise qualité. Il faut identifier les pages qui relèvent d'une erreur (contenu vide) mais aussi les pages de trop faible qualité. Plus vous en avezplus votre score global de qualité se réduitce qui pénalise votre SEO Google.

Avec RM Techvous pouvez identifier facilement les pages ayant un fort risque d'être évaluées de trop faible qualité. En vous concentrant sur la correction de ces pagesvous pouvez améliorer sensiblement votre référencement.

Des pages de trop faible qualité se cachent-elles sur votre site ? Vérifiez-le avec RM Tech

Bonus : replay du webinar QualityRisk

J'ai présenté un webinar très complet sur ce sujetet je vous propose de le (re)voir en replay gratuit :-)

Si vous l'avez ratéou pour le revoir : Replay du webinar QualityRisk
Résumez ou partagez cette page :

Cet article vous a-t-il plu ?

Note : 4.4 (9 votes)
Cliquez pour voter !

Si vous avez des questionsposez-les dans le forum WebRankInfo.

Si vous préférez du consultingj'en propose sur mon site WebRankExpert.

33 commentaires

David

Bonjour Olivier,

est-ce qu'un simple no-index permet d'éviter de les intégrer dans le calcul de scoring de Google ? Ou faut-il les dégager purement et simplement ?

Merci !

Olivier Duffez

Ouiça permet de les exclure de cette analyse je pense. Mais d'une part elles continueront de consommer du crawl pour rien ou pas grand choseet d'autre part si elles sont de mauvaise qualitépourquoi les proposer à l'internaute ? Brefle noindex ne doit être qu'une solution temporaire avant une amélioration de la page (c'est mieux) ou une suppression totale.

Lionel Belarbi

Un peu tardc'est vraima nouvelle drogue c'est le Quality Risk ! Je veux du 100% pour le visiteurpour moiet enfinet enfin seulementpour le robot !

RM Tech c'est la base !

Thierry

Merci pour vos conseils précieux et votre réactivité ! Dans ce tutoriel Comment désindexervous indiquez ceci :
"il est possible de supprimer une page via Search Consoleet pour éviter qu'elle revienne à l'avenir dans l'index de Googleon la bloque dans le fichier robots.txt. Ce n'est donc pas le fait de la mettre dans le robots.txt qui la désindexemais la combinaison "demande de désindexation dans GSC + blocage dans robots.txt".

Est-ce une option insuffisante dans le cas présent ?

En définitiveje ne comprends pas si Google tient compte pour son analyse de qualitéde l'ensemble du site ou seulement des pages indexables?

Olivier Duffez

En effets'il y a peu de pagesla solution "demande manuelle individuelle dans GSC" + "blocage dans robots.txt" est suffisante.
Google se base (à mon avis) sur les pages indexables.

Thierry

Bonjour,

je travaille à la correction d'un site sur la base d'un Audit RM Tech. Le score Quality Risk a entre autres mis en avant les pages dont le contenu était insuffisant. Typiquementdes pages de taxonomie avec peu ou pas de contenu pour un terme donné.

Est-il suffisant de désindexer les pages incriminées dans robots.txt ? Faire en sorte qu'elles ne soient pas générées serait bcp plus long à développer. Et pour certaines pagesil est impossible de les supprimer (contact par ex).

Merci

Olivier Duffez

Le fichier robots.txt ne permet pas de désindexer (sauf si on utilise la directive Noindex: qui n'est ni officielle ni conseillée par Google)il permet d'interdire le crawlce qui est différent et insuffisant dans le cas présent.
Si le problème concerne des pages de catégorieça serait bien d'automatiser la balise meta robots noindex en l'incluant quand il y a trop peu d'éléments listés dans la page.
Pour apprendre les détails de la désindexation de pageje conseille mon tuto https://www.webrankinfo.com/dossiers/indexation/comment-desindexer

Enfinne désindexez pas vos pages de contact ou mentions légales même si elles ont un mauvais score QualityRiskc'est normal !

Toutatix

Bonjour,

Penses tu qu'une page qui affiche une seule infographie (au milieu d'un blog) a de fortes chances d'être considérée comme une page de mauvaise qualité ?

Merci :)

Olivier Duffez

Si la page n'a que l'infographie sans aucune explicationça risque d'être insuffisant en effet. S'il y a aussi des explicationsc'est sans doute bien mieux.
Sauf si l'infographie est ultra qualitative...

hams

Hello à tous et plus particulièrement à @nicolas et @olivier

Premièrementmerci pour cette article contenant de nombreux points de vue sur ce qu'est une page de qualité.

Je voulais rebondir sur l'exemple de la page de Nicolas qui répond à une question précise : fiche-auto.fr/questions/Duster-3.html

Certesla page a première vue est de bonne qualité car elle est agréable à lireet surtoutelle répond simplement et efficacement à une question pouvant être posée par un internaute...

Cependantdans ce casne faudra-t-il pas chercher à comprendre pourquoi d'autres sites sont mieux positionnés ?

Est-ce suffisant par rapport à ce que proposent d'autres sites sur cette question/thématique ?

J'ai rapidement regardé le premier positionné sur la requête "quelle huile pour duster"

http://pieces-auto.mister-auto.com/huile-moteur-dacia-duster_lg3224_ls8547/

Bien que cette page réponde aussi à la question de l'internauteelle a surtout le mérite de permettre à celui-ci de continuer sa navigationet donc de rester sur le site :
Recherche par marquerecherche par immatriculationliens vers d'autres rubriques...

Je pense qu'une page doit contenir des éléments qui favorisent les interactions avec l'utilisateur (formulairesoutils de rechercheliens connexes)ou tout simplement l'internaute à rester plus longtemps sur la page : contenu longricherassurant ...

C'est surement ce qu'on appelle "l'expérience utilisateur". La capacité à une page web ou à un site  :
- de retenir l'utilisateur le plus longtemps possible.
- de multiplier les interactions (clicsnavigationrecherche).
- d'inciter l'internaute à revenir.

David

Bonjour,

Quand vous dites "supprimez-les"peut-on ajouter une meta noindex ou bien doit-on la supprimer réellement ?

Olivier Duffez

ça dépend des cas David ! si possible il faut sauver la page pour l'améliorer plus tard... Je détaille tout ça gratuitement dans mon webinarinscrivez-vous pour le replay !

pescaro

Bonjour,

un grand Merci pour l'étude complète et approfondie RM Tech pour mon site.
C'est une mine d'or!
Il ne me reste plus qu'à l'exploiter.

Grace à la mise en application de vos conseils lors d'une de vos formations SEO le site ​Pescaro.fr a énormément progressé et je suis aujourd'hui un peu débordée par sa gestion au quotidien! (CA x3)
Mais c'est le but.

Merci Fabien et Merci Olivier pour tous vos conseils et vos outils pertinents et performants.

Boloky

Une chose me surprend quand même dans cet article très riche et fort intéressant. IL faut des pages avec un fort contenu. Mais n'est-ce pas trop que d'en mettre des tartines sur une seule page ? N'oublions pas que les sites doivent surtout pouvoir être lu sur un smartphone. Or pour que le lecteur ne soit pas dégoûté par une information trop dense et garder une certaine homogénéitéil convient au contraire je trouve de ne pas trop en mettre et d'aérer le contenu.

Olivier Duffez

Je ne dis pas qu'il faut des pages avec un fort contenu mais avec un contenu de qualité. C'est assez subjectif et difficile à évaluer !
Attention : dans QualityRiskla taille du contenu n'est qu'un des critères.

Nicolas Chevallier

@eskimola solution préconisée est un cas particulier qui n'arrive pas forcément. Pour de l'actualitéje tombe sur un articleest ce que je vais rester 10 minutes à le lire puis repartiréventuellement cliquer sur un autre résultat de Googleou est ce que j'ai une popup infermable et au bout de 2 secondes je suis allé chez le concurrent ?

Le taux de rebond ajusté permet de mesurer les cas d'aller/retour rapide.

eskimo

Olivier à plusieurs reprises tu indiques qu'il est impossible de mesurer le taux de retour en arrière dans les SERP
"Si je savais mesurer le taux de retour en arrière dans les SERPça serait pratique. Mais il faudrait hacker Google pour ça ;-)"
en fait on peut se faire une idée assez grossière à partir du moment où l'on dispose du chemin par utilisateur.
ex :
page 1 > page 10 > page 5 > page 8 > page 5 > page 10 > page 1
A partir de la page 5 le temps de consultation est de 1 seconde.
C'est clairement un cas de pogosticking avec retour sur Google.

Piwik enregistre ces données... on peut également coder facilement l'enregistrement des chemins utilisateurs soit même.

A partir de ce moment là on peut faire un calcul à partir des logs genre :

SI URL dernière page = url première page ALORS vérifier la symétrie
et si le temps de consultation des 3 dernières pages( pour le cas cité plus haut) est > 2 secondes alors grande probabilité de pogosticking avec retour sur google.

Après on ne peut pas calculer le cas "recherche google > page du site > retour page recherche google" mais le cas "page 1 > page 10 > page 5 > page 8 > page 5 > page 10 > page 1" arrive très souvent et permet de commencer à ce faire une idée.

Olivier Duffez

@eskimo : en effeton peut trouver des moyens pour affiner l'analyse et identifier des problèmesmême si ça ne correspond pas réellement au retour dans les SERP.
Tu indiques " > 2 secondes" mais tu voulais dire "< 2 secondes" je suppose ? PS : tu parles de Piwikmais GA le permet également non ?

Hubert

bonjour
je me suis précipité pour obtenir un audit gratuitet je suis très heureux d'avoir pu en bénéficier. Contenu trop faibleméta description trop courte : j'ai déjà fait du ménage : un grand merci à Olivier.

Je suis perplexe en revanche face à l'erreur "301". Je faisdans le .htaccessune redirection des pages www. vers les adresses "sans www." et c'est jugé comme étant une mauvaise pratique. Ma question est probablement naïvemais je la pose quand même : je dois faire quoi ?

merci de votre retour
cordialement
Hubert

Olivier Duffez

@Hubert : quand on modifie l'URL d'une page (j'appelle ça "casser")il faut en effet mettre en place une redirection 301 de l'ancienne URL vers la nouvelle. Mais il faut aussi modifier tous les liens qui pointent encore vers l'ancienne URL afin qu'ils pointent directement vers la nouvelle.
JustementRM Tech détecte les liens internes qui ne pointent pas directement au bon endroit. Le rapport aide dans les détails en fournissant l'ensemble des pages faisant des liens vers des pages qui se font rediriger.

Webludi

Bonjour,
Cet exposé est plus qu'expliciteil montre bien que l'Internet de qualité n'est pas pour demain. C'est malheureux à diremais je suis soulagé de constater qu'il y a du pain sur la planchemoi qui démarre mon activité de SEO cela m'encourage.
Merci à toute l'équipe Ranking Metrics

Nicolas Chevallier

Vouloir cibler trop de requêtes différentes (donc pas similaires!) avec la même page va forcément avoir un impact sur l'expérience utilisateur. Sur mobile il va devoir scroller pour chercher la réponse à sa question. Suivant le type de pagesle public ... Chaque stratégie peut être intéressante. Autres pointsqu'un algorithmes ne peut pas mesurer :
- l'efficacité d'un moteur de recherche interne. Sur mobile la encore c'est crucial.
- les interstitiels (pub ou abonnement newsletter) qui peuvent faire fuir l'internaute sans même regarder le contenule pire scénario.

Nicolas Chevallier

@Fabien : j'aurai du m'abstenir de donner cet exemple mais soit allons jusqu'au bout.
D'abord les 2 exemples donnés :
Page oscaro : il faut combien de clics et de navigation pour arriver finalement à la réponse ? 2 pages et 3 champs de formulaire.
Sur mobile avec une connexion 3G standardon oublie.

Page carbon cleaning (qui cible les logan...) : on m'explique à quoi sert l'huileles différentes normesla viscositéca y est je suis expert en huile !
Mais désolé la réponse est "perdue" au milieu de blah blah inutile pour cette requête. Bien sur si je cherche à savoir ce qu'est une vidangela différence entre une révision et une vidangela viscositéc'est autre chose (j'ai d'ailleurs d'autres sites qui répondent à ces questions).

De mon coté j'ai créé un visuel avec les différents bidons d'huile correspondantpour rassurer l'internaute et le guider si il est déjà dans le magasinet je lui apporte l'information directement : quelle huile utilise Dacia pour le Duster ? Le tout avec un affichage rapidel'information au dessus de la ligne de flottaison même sur smartphone.

Aujourd'hui si je cible une requête largeje vais essayer de répondre à toutes les questions possibles (avec des liensvisuels...) Mais si je cible une requête hyper spécifiqueje vais répondre directement. Plus de blah blahplus de taille de texte minimale. Si je cherche l'age de Brad Pittje veux juste une page qui contienne en gros 52 ans et sa date de naissance (tiens tiens c'est ce qu'affiche Google dans son answerbox).

Olivier Duffez

Certes Nicolasmais tu conseilles de faire une page de ce genre par requête ? Une autre stratégie est de viser davantage de requêtes avec davantage de contenu par page.
Ou bien faire un peu des 2 ;-)

Fabien

Bonjour à tous,

Pour répondre à @nicolas je ne trouve pas la page http://www.fiche-auto.fr/questions/Duster-3.html assez bonne qualité perso.

A la limite je préfère globalement cette page http://www.carbon-cleaning.com/huile-moteur/diesel/dacia/logan-dci-75-75ch

il manque aussi des liens internes comme sur cette page https://constructeurs-auto.oscaro.com/huile-accessoires-vidange-dacia-duster-702548-155-scf

il faut toujours regarder la requete et la première page pour améliorer ta page et ajouter des infos sur celle-ci.

Nicolas Chevallier

Sans hacker Googlecertains plugins Chrome pourraient très bien être développés/utilisés pour remonter ce genre d'infoscomme la barre Alexa à l'époque ou les MozBar...
Reste le problème de faire installer cette barre par le plus grand nombredonc apporter une réelle plus value.

Olivier Duffez

En effet Nicolasil est possible de recueillir certaines infosmais pour être exploitables il faut atteindre une taille énorme

Nicolas

Bonjour Olivier,

Même si je suis d'accord avec les bons conseils donnés et je pense que l'outil développé peut être utile dans beaucoup de cascertains points peuvent induire en erreur.

Après la sortie de Pandales référenceurs ont fait une analyse (trop) rapide des critères pouvant pénaliser un siteet on a beaucoup entendu parler de low quality contentthin content... Tout le monde s'est précipité en pensant que le Saint Graal serait le contenu de plus de xxx mots. (moi le premier! j'ai perdu 2 ans d'optimisation).

Au contraire et l'idée que Glenn Gabe et d'autres essaient de populariser est la notion d'expérience utilisateuret elle ne se compte pas en motsni n'est calculable ! Oliviertu en as déjà d'ailleurs longuement parlé dans tes articles. Panda était/est basé principalement sur la notion d'expériencede satisfaction : est ce que pour une requête donnéece site répond le mieux à la demande ? Je reste persuadé qu'il n'y avait aucune analyse de pagejuste une énorme base de données collectant les informations suivantes : pour une requête donnéepour une position donnéequels sont le CTRsle poggostickinget est ce que l'internaute a cliqué sur un autre résultat. Ils ont ensuite fait varier les résultats dans le tempssur une heureune journéeune semaine... Et ces données permettaient de sanctionner les sites qui étaient "trop bien positionnés" par rapport à la satisfaction des internautes.

Les searchbox de Google prouve bien d'ailleurs le raisonnement : si la réponse est "trop" simpleGoogle l'affiche directement.

Un exemple de contenu court qui répond parfaitement à une requête : fiche-auto.fr/questions/Duster-3.html
Cette page va se positionner car très peu de pages répondent aussi simplement et directement à la question. On trouve la même information dans un PDF de plusieurs Mo et dizaines de pagessur des posts de forums avec des dizaines de réponse ... Et à mon avis cette page sortira avec un mauvais QualityRiskau contraire des pages concurrentes.

A mon avis il faut surtout réfléchir à imaginer le contenu idéal ET l'interface idéale (moteur de recherche avancérapide...)qui est surement plus complet pour des requêtes larges que des requêtes très spécifiques.

Olivier Duffez

@Nicolas : je suis tout à fait d'accord avec toi sur le fait qu'il ne faut pas résumer qualité de page à nombre de mots. D'ailleursle nombre de mots n'est qu'un des critères de notre algo ;-) Par ailleursje précise très clairement (surtout dans le rapport d'audit RM Tech) que cette analyse n'est que le début d'un audit qualité : QualityRisk est là pour faire gagner un temps fou pour repérer plein de choses qui ne devraient pas être indexablesou en tout cas pas avec ce niveau de qualité. Je dis très clairement qu'il faut compléter ça par d'autres analyses.
Si je savais mesurer le taux de retour en arrière dans les SERPça serait pratique. Mais il faudrait hacker Google pour ça ;-)

Tu penses à quels autres critères mesurables ?

PS : dans ton exemplela page ne sort qu'en page 2 pour la requête exacte (le libellé de son H1)ce n'est pas si flagrant. Et peut-être qu'elle pourrait être amélioréey compris pour l'internauteet qu'elle remonterait dans les SERP.

kdoussaint

Bravosincèrementquel outil fantastique !

Alexandre

Merci de votre réponse Olivier ;) De ce fait je suppose qu'il vaut mieux les passer en No Index... Cela ne représente aucun intérêt de les laisser indexées.

Alexandre

Merci pour cet article Olivier ! Toujours un plaisir de vous lire :)

Pour ma part j'aurais aussi ajouté les sous-pages d'archives du genre /page/2/ que l'on peut trouver dans la navigation de WordPress (par exemple).

Font-elles aussi partie de ce que l'on appelle des pages de basses qualités ?

Olivier Duffez

Merci @Alexandre : je pense que les pages de la pagination (pages 2 et suivantes) sont plutôt à ranger dans le "inefficace en SEO" mais moins dans le "de mauvaise qualité (pour l'internaute)". Cela diton en tient compte aussi d'une certaine façon dans notre algo.

Les commentaires sont fermés