Référencement, Design et Cie 2.0

Aller au contenu | Aller au menu | Aller à la recherche

Taux de clic dans les pages de résultats des moteurs : tentative d'état des lieux

Les études sur le taux de clic dans les SERPs des moteurs de recherche ne sont pas si fréquentes. M'étant récemment penché sur le sujet, je vais tenter de dresser un état des lieux de la littérature.

Parmi les études publiées les 5 dernières années, 6 ont retenu mon attention : Celles de Chitika (juin 2013), Synodiance (sept 2013), Bluerank (juin 2012), Optify (avril 2011), Slingshot SEO (juin 2011) et Neil Walker (mai 2010)

Les méthodes de collecte et de calcul de ces études diffèrent, et je ne rentrerai pas dans le détail de ces différences (on remarquera notamment que si l'on additionne les taux de clics, on dépasse pour certaines études les 100%). Toutefois, malgré ces différences, la forme de la distribution des clics reste globalement la même, à savoir approximativement une loi de puissance (pour la 1ère page de résultats).

Distribution des taux de clics dans les pages de résultats des moteurs

En faisant la moyenne et en insérant une courbe de tendance dans Excel, on peut même déterminer l'équation donnant le CTR en fonction du positionnement : CTR=40.547*position^-0.905

CTR moyen en fonction du positionnement

Toutefois il convient de rester critique face à ces chiffres : oui, les 3 premiers résultats ont généralement des taux de clics bien plus élevés que les suivants, et vous avez tout intérêt à viser ces positions. Mais cela est vrai uniquement sur de larges échantillons d'expressions et de sites. Pour une expression donnée, vous ne multiplierez pas forcément votre CTR en passant de la 3ème position à la 1ère. Toujours sur une expression donnée, il se peut très bien qu'un site placé en 3ème position affiche un CTR supérieur à celui des 2 sites placés plus haut. D'ailleurs, si l'on trace un nuage de points des CTRs individuels des expressions en fonction des positions, tout devient plus flou (données pour le site 3 Suisses) :

Nuage de points CTR en fonction de la position

Enfin il ne faut pas oublier qu'un grand nombre des requêtes prises en compte pas ces différentes études sont des requêtes navigationnelles. Le CTR de la position 1 est donc surévalué et n'est pas applicable a priori pour les requêtes informationnelles et transactionnelles.

Que se passe-t-il en page 2 ? Les études Chitika et Synodiance montrent toutes deux un rapide effondrement des CTR à partir de la page 2 avec une moindre décroissance pour l'étude Synodiance :

CTR par page de résultats

Cette tendance se retrouve dans le nuage de point présenté plus haut.

Des requêtes de recherche plus précises dans Webmaster Tools !

Meilleurs voeux à tous ! En guise d'etrennes pour cette nouvelle année, Google nous offre deux changements plus que bienvenus dans la section "requêtes de recherche" de ses Webmaster Tools.

Le premier changement est que le nombre d'impressions et de clics n'est plus arrondi à la hache comme c'était le cas auparavant. On pourra donc suivre bien plus finement l'évolution du nombre d'impressions, de clics, et donc le taux de clic. Ce changement est rétroactif qui plus est.

Le second changement, encore plus intéressant, est que Google fourni désormais les expressions générant des impressions et du trafic pour une page donnée ! Pour visualiser les expressions associées à une page il suffit de cliquer sur l'onglet "Pages les plus populaires" puis de cliquer sur l'URL de la page en question. Les expressions associées apparaissent immédiatement en dessous. Cela ne compensera pas la perte d'information engendrée par la mise en place du Not Provided, mais cette nouvelle fonctionnalité est plus qu'appréciable.

Yandex abandonne les liens dans son algorithme

C'est ce que les titres des commentateurs du SEO annonceront afin d'attirer le chaland, mais la réalité est bien plus nuancée : lors de l'Internet Business Conférence à Moscou, le moteur de recherche russe Yandex a annoncé que les liens ne constitueront plus un critère de positionnement pour les requêtes commerciales dans la région de Moscou, puis éventuellement dans d'autres régions russes par la suite. Les autres pays ne sont pour l'instant pas concernés.

Ce changement ne devrait affecter que 10% des requêtes. Selon les représentants du moteur "le rapport signal/bruit des liens est tombé très bas, en particulier pour les requêtes commerciales, et tout spécialement en Russie. Nous voyons beaucoup de liens achetés, et même des liens achetés de façon automatique, sans aucune intervention humaine. Le problème avec ces liens est qu'il sont souvent hors-sujet et trompent les utilisateurs". Ceux-ci ajoutent : "Le link spam est plus important en Russie qu'ailleurs, parce que la Russie compte un grand nombre de programmeurs qui ont fait du link building une nouvelle profession".

Si les liens perdent en pertinence, peut-on leur substituer d'autres signaux comme les partages et les like sur les réseaux sociaux ? Pas vraiment selon Yandex, bien que le moteur ait accès aux données de Facebook et Twitter : "Nous n'avons pas pu constater de signaux significatifs émanant des liens sociaux. Donc notre algorithme les ignorera également".

Quels signaux alors pour remplacer les liens ? Yandex affirme prendre en compte plus de 800 critères, dont des critères comportementaux (grâce à sa solution analytics Metrika): "les interactions des utilisateurs avec les sites sont devenues un signal bien plus clair et naturel. Aussi nous regardons la facilité pour effectuer un achat, la facilité pour naviguer dans le site, et même la taille de l'offre de produits proposée sur le site".

A la question "comment se positionner sans liens" Yandex répond : "Pour de gros sites ciblant des requêtes à gros volume de recherche, la clé est de générer beaucoup de visites en utilisant les méthodes habituelles de création de trafic". "En ce qui concerne les sites ciblant des requêtes appartenant à la longue traîne, ceux-ci n'ont pas à s'inquiéter car leur contenu permettra d'attirer les utilisateurs et de performer dans les pages de résultats Yandex".

Ce mouvement de Yandex est-il appelé à se généraliser à l'ensemble des moteurs ? Pour ma part je ne pense pas que les moteurs de recherche puisse se passer de l'analyse des liens pour juger de la pertinence d'une page. Les liens restent un signal. Cela dit il serait souhaitable que le poids des liens soit dans certains cas amoindri. Cela mettrait un frein à cette course aux liens nécessaire, mais devenue ridicule et génératrice de pollution web.

Présentation Facettes et SEO (SEO Campus Lille 2013)

Si les navigation à facettes peuvent être une opportunité en terme de SEO, celles-ci comportent malgré tout un certain nombre de pièges dans lesquels il faut mieux éviter de tomber si on souhaite un référencement performant. Cette présentation donnée à l'occasion du SEO Campus organisé à l'ecole SKEMA de Lille samedi dernier passe en revue les principaux risques associés aux navigations à facettes, ainsi que les solutions pour s'en prémunir.

Merci au passage aux organisateurs pour l'accueil et la qualité de l’événement :)

Firefox : mes 11 extensions SEO essentielles

Il existe des milliers d'extensions pour Firefox relatives au SEO. Mais toutes ne sont pas réellement utiles, et les fonctionnalités offertes par celles-ci ont fréquemment tendance à se recouper, surchargeant inutilement le navigateur. Dans ce billet, je vous propose les extensions qui me sont véritablement essentielles. Avec ces extensions je couvre la quasi-totalité de mes besoins en matière d'analyse et de tests. Pour le reste, j'utilise des logiciels et services dédiés.

Web Developer

Cet extension développée par Chris Pederick n'est plus à présenter tant elle est connue. S'il ne fallait en installer qu'une, ce serait celle-là. Avec Web Developer je peux (entre autres) : simuler la vision d'un robot, vérifier la pertinence des attributs alt, obtenir les informations relatives à n'importe quel élément HTML d'une page, éditer le code d'une page en live... Bref, cette extension est indispensable à tout SEO.

Quirk SearchStatus

Spécialement dédiée aux SEO, Quirk SearchStatus propose plusieurs fonctions qui me sont extrêmement utiles (et d'autres moins). J'apprécie particulièrement le surlignement des liens nofollow, le "link report" qui me donne un décompte du nombre de liens présent sur une URL au global et par type, la fonction "meta tags", l'affichage du PageRank et les divers raccourcis proposés comme le whois, le nombre de pages indexées sur les différents moteurs de recherche etc.

Gcache+

Cette extension, aussi simple qu'elle puisse être s'avère néanmoins très pratique, puisqu'elle permet d'accéder en un clic à la version cachée par Google pour la page en cours. Idéal pour vérifier qu'une page a bien été indexée, pour vérifier la date de dernière indexation d'une URL, ou pour voir une page avec les yeux de Google. Faites le test sur Amazon pour voir ;)

HeadingsMap

HeadingsMap permet en un clic d'afficher la structure des titres <hn> de la page en cours dans le volet de gauche du navigateur. Ce mode de visualisation est je trouve bien plus efficace que la fonction "entourer les titres" de la barre d'outils Web Developer. L'extension met également en évidence les aberrations dans la hiérarchie des titres, comme par exemple le passage d'un <h1> à un <h3> sans <h2>.

Seerobots

Installée depuis peu, Seerobots me donne une vision instantanée de la configuration de la balise meta robots de la page en cours, sans aucune action de ma part. Et avec un clic supplémentaire, les entêtes HTTP x-robots sont testées. Très pratique donc. Par contre le fichier robots.txt n'est pas pris en compte.

Link Gopher

Link Gopher permet d'extraire sous forme de liste tous les liens présents dans la page en cours ce qui est déjà bien mais permet également de définir une chaine de caractères qui servira de filtre pour l'extraction des URLs. Cette extension peut vous faire gagner beaucoup de temps, par exemple quand vous souhaiter extraire tous les liens présents dans un menu gargantuesque.

Snap Links Plus

Snap Links Plus est une extension que j'utilise rarement mais qui peut à l'occasion s'avérer très pratique : avec elle je peux ouvrir d'un coup tout une liste de liens simplement en séléctionnant la zone où sont situés ces liens. Très bien pour vérifier les liens présents dans une blogroll par exemple.

AlertBox

AlertBox permet d'être alerté de toute modification d'une page HTML (ça marche aussi pour les robots.txt...). Il est également possible de surveiller les modifications d'un endroit spécifique d'une page, comme par exemple le contenu d'un menu, d'un footer... La fréquence des vérifications est paramétrable.

Entêtes HTTP en direct

Connue aussi sous le nom de Live HTTP Headers, cette extension permet de voir les échanges HTTP entre le serveur et le navigateur. Parfaite pour tester des redirection, de la négociation de contenu... Quoique pour tester une URL unique j'utilise plus souvent Webbug, plus simple pour cet usage.

User Agent Switcher

Cette extension permet de remplacer l'user-agent du navigateur par l'user-agent de son choix. je peux ainsi me faire passer pour un moteur de recherche, ou pour un utilisateur mobile alors que je suis sur une machine de bureau. Parfait pour tester la version mobile d'un site, ou pour se faire passer pour un crawler Google (à l'exception de l'adresse IP bien sûr).

Google-no-tracking-url

Google no tracking URL permet de supprimer l'URL de tracking intermédiaire utilisée dans les pages de résultats Google. Premier avantage : pouvoir faire un copier-coller direct du lien à partir des SERPs. Deuxième avantage : un temps de chargement du site plus rapide. Troisième avantage : faire ch**r Google :)

Cette extension n'est officiellement pas compatible avec les version récentes de Firefox, mais en réalité elle fonctionne parfaitement (je suis sous FirefoxF 18) en bypassant la détection de compatibilité avec l'une de ces méthodes (j'ai pour ma part simplement édité le fichier install.rdf présent dans le fichier xpi).

Comment le responsive design peut pénaliser votre SEO

Dans une vidéo récente, Matt Cutts nous explique que le responsive design ne peut pas faire de mal au SEO. La plupart du temps, c'est vrai. Cela dit, il est des cas où de mon point de vue le responsive design pourrait affecter négativement la visibilité d'un site dans les moteurs de recherche. Mieux vaut donc faire ce choix en toute connaissance de cause.

Pour rappel, le responsive design consiste à fournir aux navigateurs des feuilles de styles différentes en fonction des propriétés des navigateurs. On n'a donc pas x versions pour chaque page, mais uniquement des rendu différents d'une même page, en fonction des CSS employées. Les avantages du responsive design en terme de SEO est qu'il régle à la source la question de la duplication de contenu, ainsi que celle de la dilution du PageRank. Ce choix technique semble donc a priori tout indiqué. Cependant la force du responsive design est aussi sa faiblesse : le code HTML envoyé au navigateur reste le même quel que soit l'utilisateur.

Si votre code est très lourd, cela va handicaper les utilisateurs mobiles qui ont une bande passante limitée et/ou des périphériques peu puissants. L'expérience de navigation pourra en être affectée ce qui enlevera tout bénéfice au responsive design. Coté moteurs, Google a plusieurs fois déclaré que la vitesse des sites web était prise en compte par son algorithme, depuis très longtemps pour ses résultats mobiles et plus récemment (2010) pour ses résultats desktop. En juin dernier, Google a également annoncé que les sites mobiles pourrait être retrogradés s'ils ne satisfaisaient pas correctement à certains critères relatifs à la navigation mobile, dont les temps de chargement. Si on souhaite être visible dans les résultats mobiles du moteur, la vitesse est donc un élément important, et le passage d'un site lourd en responsive design peut s'avérer un choix moins pertinent en terme de SEO qu'un site avec une version desktop et une version mobile distinctes. D'autant plus que les annotations d'URLs permettent de régler la question des contenus dupliqués, et que la diffusion dynamique en fonction de l'user-agent ne génère pas de duplication.

Optimisation de Dotclear 2 pour le SEO

La version 2 de Dotclear, sur laquelle tourne ce blog, est nativement plutôt bien conçue en ce qui concerne le SEO. Toutefois certains point sont perfectibles de mon point de vue. Aussi je vais vous exposer les choix que j'ai fait pour ce blog.

URLs

Toutes les URLs générées par un Dotclear brut sont parfaitement indexables par les moteurs de recherche. Il n'y a donc aucune obligation de changer quoi que ce soit. Cependant le "index.php" présent dans les URLs est quelque peu disgracieux, et tend à prendre de la place inutile dans les snippets. Autant donc le retirer pour mieux mettre en valeur les informations utiles de l'URL, comme le titre du billet, sa catégorie ou sa date.

Pour un Dotclear en querystring comme celui-ci placé dans un répertoire /seo/ la suppression des index.php est accomplie de la façon suivante : on indique "http://www.sebastien-billard.fr/seo/" dans le champ "URL du blog" dans les paramètres du blog, et l'on insère dans un fichier .htaccess placé dans le répertoire /seo/ les instructions suivantes :

RewriteEngine on
RewriteBase /seo/
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule (.*) index.php?$1

En ce qui concerne les chemins par défaut générés par Dotclear, ceux-ci peuvent être laissé en l'état, mais je préfère personnellement indiquer la date après le titre du billet, et utiliser des tirets comme séparateurs. Pour ce faire allez sur la page about:config dans les réglages système et indiquez "{t}-{d}-{m}-{y}" dans le champ post_url_format.

Un autre point à traiter concerne les signes diacritiques. Dotclear est capable de générer des URLs avec diacritiques conformes aux standards, mais il n'en reste pas moins que dans certains cas ces diacritiques s'afficheront mal. Mieux vaut donc couper le mal à la racine, et transformer comme le faisait Dotclear 1 les diacritiques en caractères plus ordinaires. Pour cela il suffit simplement d'installer le plugin Clean URLs de Pierre Rudloff.

Maitrise de l'indexation

L'indexation de certaines pages par les moteurs de recherche est inutile. C'est le cas par exemple des pages archives : elles n'ont pas vocation à se positionner dans les SERPS, et la navigation par catégories fournit déjà aux moteurs un chemin pour indexer les billets. Les pages archives diluent donc votre PageRank.

C'est pourquoi je vous conseille de mettre ces pages archives en "noindex,follow" en insérant la ligne "<meta name="ROBOTS" content="noindex, follow" />" dans le header des pages archive.html et archive_month.html.

Balises meta

Dotclear utilise un certain nombre de balises meta inutiles, notamment les balises meta "DC" (Dublin Core). Ces balises sont ignorées des moteurs de recherche généralistes. Vous pouvez supprimer sans regret toutes les balises <meta name="dc.xxx", cela allègera d'autant votre code.

Bienvenue !

En janvier 2005 je lançais mon blog Référencement Design et Cie, sans trop savoir où m'emmenerai cette aventure. J'optais à l'époque pour un hébergement chez Free, tout simplement parce que j'hébergeais déjà mes pages web sur cette plateforme. On m'a souvent demandé pourquoi je n'étais pas passé à un vrai nom de domaine. Au début, s'agissant d'un blog personnel et ne sachant pas si l'expérience durerait, je n'avais pas forcément envie d'investir dans un nom de domaine. Par la suite c'est un peu la flemme qui m'a dissuadé d'acheter mon nom de domaine, puis les difficultés de migration liées aux limitations de Free, et à un Dotclear un peu trop bidouillé et non mis à jour.

Mais il fallait bien qu'un jour la migration se fasse. Bienvenue donc sur Référencement Design et Cie 2.0 :) Je repars de zéro, pour les raisons techniquement précédemment évoquées. On est loin des bonnes pratiques SEO, mais c'est l'occasion de me donner un bon coup de fouet, avec une fréquence de publication que j'espère plus élevée que celle des derniers mois. Le blog Free restera accessible en lecture.

La ligne éditoriale du blog restera la même, à savoir de l'information utile, concrète, principalement autour du SEO mais également sur la recherche d'informations et le design, en fonction de l'inspiration et de mes activités du moment.

page 2 de 2 -