Référencement, Design et Cie 2.0

Aller au contenu | Aller au menu | Aller à la recherche

Archives par catégorie : SEO et moteurs

Ce que la barbe nous enseigne en matière de SEO

Ce matin, tout en conditionnant ma barbe avec de l'huile de jojoba, je me suis mis à penser à tout ce que ce que le port de cet attribut avait de commun avec le SEO.

En premier lieu, la barbe comme le SEO vous rendent remarquable. Et chez les barbus comme chez les SEO, on trouve plein de gens cools : Moise, Jesus, Le Père Noel, Rand Fishkin...

Comme le SEO, le port de la barbe peut paraitre une chose facile au béotien : après tout il suffit de ne pas se raser n'est-ce pas? Mais les barbus un tant soit peu sérieux eux savent bien que la facilité réside plutôt dans le fait d'être rasé de près. Une barbe digne de ce nom requiert du dévouement et de la ténacité, et ces deux qualités sont particulièrement utiles au SEO.

La barbe peut être une source de frustration, et il n'est pas rare que celle-ci ne pousse pas comme on l'aimerait. Pas assez haute sur les joues, pas assez dense ici ou là... Un conseil souvent donné sur les forums est d'essayer de mettre en valeur ce que l'on possède plutôt que de se lamenter sur ce que l'on a pas. Ce conseil est tout aussi valable en SEO : vous ne pouvez obtenir telle ou telle fonctionnalité ? Ok, c'est rageant. Mais n'y a-t-il pas des leviers à activer sur lesquels vous avez la main ?

Parfois votre barbe vous rendra fou, au point que vous souhaiterez y renoncer. Ne le faites pas, vous le regretteriez certainement. Prenez le temps de la réflexion, soufflez et remettez-vous à l'ouvrage. Il n'en va pas autrement avec le SEO.

Happy beard day ;)

3 Outils pour identifier un update Google

Vos positions ont brutalement varié dans Google ? Comment savoir si cela concerne uniquement votre site, ou si c'est le signe d'une mise à jour de l'algorithme du moteur ? Difficile de savoir quand on a pas auparavant mis en place un suivi des sites concurrents ou un suivi plus général du contenu des SERPs. Heureusement, des outils librement accessibles existent, permettant d'évaluer les variations des résultats de recherche des moteurs. J'en connais personnellement trois. Comme je suis sympa, je les partage avec vous :

Le Serpomètre : offert par Ranks, le Serpomètre nous montre la variabilité des résultats Google sur les 4 derniers mois, sur une échelle de 0 à 10, la variabilité moyenne se situant autour de 3 à 4. Les pics à 6-7 correspondent en général à des updates de l'algorithme, ou à des mises en oeuvre de filtres. Les 100 premiers résultats sont pris en compte, 1000 mots-clés étant surveillés quotidiennement. Le Serpomètre est évidemment mon favori, puisque centré sur le web francophone. De plus il possède la fenêtre temporelle la plus longue, et une profondeur d'analyse idéale.

Mozcast : proposé par Moz, cet outil donne la météo des SERPs Google US sur les 30 derniers jours. La température y est d'autant plus haute que les variations dans les SERPs sont importante. Cet indice repose sur 1000 mots-clés suivis. Seuls les 10 premiers résultats sont pris en compte.

Flux Charts : proposé par SERPmetrics, Flux Charts se distingue par le fait que les variations dans les pages de résultats Bing et Yahoo sont également surveillées (on constatera que bien que ces 2 moteurs utilisent la même technologie, ils affichent des variabilités différentes). Flux Charts mesure la variabilité des résultats du jour par rapport à la moyenne des 30 derniers jours. Les 100 premiers résultats sont pris en compte.

Taux de clic dans les pages de résultats des moteurs : tentative d'état des lieux

Les études sur le taux de clic dans les SERPs des moteurs de recherche ne sont pas si fréquentes. M'étant récemment penché sur le sujet, je vais tenter de dresser un état des lieux de la littérature.

Parmi les études publiées les 5 dernières années, 6 ont retenu mon attention : Celles de Chitika (juin 2013), Synodiance (sept 2013), Bluerank (juin 2012), Optify (avril 2011), Slingshot SEO (juin 2011) et Neil Walker (mai 2010)

Les méthodes de collecte et de calcul de ces études diffèrent, et je ne rentrerai pas dans le détail de ces différences (on remarquera notamment que si l'on additionne les taux de clics, on dépasse pour certaines études les 100%). Toutefois, malgré ces différences, la forme de la distribution des clics reste globalement la même, à savoir approximativement une loi de puissance (pour la 1ère page de résultats).

Distribution des taux de clics dans les pages de résultats des moteurs

En faisant la moyenne et en insérant une courbe de tendance dans Excel, on peut même déterminer l'équation donnant le CTR en fonction du positionnement : CTR=40.547*position^-0.905

CTR moyen en fonction du positionnement

Toutefois il convient de rester critique face à ces chiffres : oui, les 3 premiers résultats ont généralement des taux de clics bien plus élevés que les suivants, et vous avez tout intérêt à viser ces positions. Mais cela est vrai uniquement sur de larges échantillons d'expressions et de sites. Pour une expression donnée, vous ne multiplierez pas forcément votre CTR en passant de la 3ème position à la 1ère. Toujours sur une expression donnée, il se peut très bien qu'un site placé en 3ème position affiche un CTR supérieur à celui des 2 sites placés plus haut. D'ailleurs, si l'on trace un nuage de points des CTRs individuels des expressions en fonction des positions, tout devient plus flou (données pour le site 3 Suisses) :

Nuage de points CTR en fonction de la position

Enfin il ne faut pas oublier qu'un grand nombre des requêtes prises en compte pas ces différentes études sont des requêtes navigationnelles. Le CTR de la position 1 est donc surévalué et n'est pas applicable a priori pour les requêtes informationnelles et transactionnelles.

Que se passe-t-il en page 2 ? Les études Chitika et Synodiance montrent toutes deux un rapide effondrement des CTR à partir de la page 2 avec une moindre décroissance pour l'étude Synodiance :

CTR par page de résultats

Cette tendance se retrouve dans le nuage de point présenté plus haut.

Des requêtes de recherche plus précises dans Webmaster Tools !

Meilleurs voeux à tous ! En guise d'etrennes pour cette nouvelle année, Google nous offre deux changements plus que bienvenus dans la section "requêtes de recherche" de ses Webmaster Tools.

Le premier changement est que le nombre d'impressions et de clics n'est plus arrondi à la hache comme c'était le cas auparavant. On pourra donc suivre bien plus finement l'évolution du nombre d'impressions, de clics, et donc le taux de clic. Ce changement est rétroactif qui plus est.

Le second changement, encore plus intéressant, est que Google fourni désormais les expressions générant des impressions et du trafic pour une page donnée ! Pour visualiser les expressions associées à une page il suffit de cliquer sur l'onglet "Pages les plus populaires" puis de cliquer sur l'URL de la page en question. Les expressions associées apparaissent immédiatement en dessous. Cela ne compensera pas la perte d'information engendrée par la mise en place du Not Provided, mais cette nouvelle fonctionnalité est plus qu'appréciable.

Yandex abandonne les liens dans son algorithme

C'est ce que les titres des commentateurs du SEO annonceront afin d'attirer le chaland, mais la réalité est bien plus nuancée : lors de l'Internet Business Conférence à Moscou, le moteur de recherche russe Yandex a annoncé que les liens ne constitueront plus un critère de positionnement pour les requêtes commerciales dans la région de Moscou, puis éventuellement dans d'autres régions russes par la suite. Les autres pays ne sont pour l'instant pas concernés.

Ce changement ne devrait affecter que 10% des requêtes. Selon les représentants du moteur "le rapport signal/bruit des liens est tombé très bas, en particulier pour les requêtes commerciales, et tout spécialement en Russie. Nous voyons beaucoup de liens achetés, et même des liens achetés de façon automatique, sans aucune intervention humaine. Le problème avec ces liens est qu'il sont souvent hors-sujet et trompent les utilisateurs". Ceux-ci ajoutent : "Le link spam est plus important en Russie qu'ailleurs, parce que la Russie compte un grand nombre de programmeurs qui ont fait du link building une nouvelle profession".

Si les liens perdent en pertinence, peut-on leur substituer d'autres signaux comme les partages et les like sur les réseaux sociaux ? Pas vraiment selon Yandex, bien que le moteur ait accès aux données de Facebook et Twitter : "Nous n'avons pas pu constater de signaux significatifs émanant des liens sociaux. Donc notre algorithme les ignorera également".

Quels signaux alors pour remplacer les liens ? Yandex affirme prendre en compte plus de 800 critères, dont des critères comportementaux (grâce à sa solution analytics Metrika): "les interactions des utilisateurs avec les sites sont devenues un signal bien plus clair et naturel. Aussi nous regardons la facilité pour effectuer un achat, la facilité pour naviguer dans le site, et même la taille de l'offre de produits proposée sur le site".

A la question "comment se positionner sans liens" Yandex répond : "Pour de gros sites ciblant des requêtes à gros volume de recherche, la clé est de générer beaucoup de visites en utilisant les méthodes habituelles de création de trafic". "En ce qui concerne les sites ciblant des requêtes appartenant à la longue traîne, ceux-ci n'ont pas à s'inquiéter car leur contenu permettra d'attirer les utilisateurs et de performer dans les pages de résultats Yandex".

Ce mouvement de Yandex est-il appelé à se généraliser à l'ensemble des moteurs ? Pour ma part je ne pense pas que les moteurs de recherche puisse se passer de l'analyse des liens pour juger de la pertinence d'une page. Les liens restent un signal. Cela dit il serait souhaitable que le poids des liens soit dans certains cas amoindri. Cela mettrait un frein à cette course aux liens nécessaire, mais devenue ridicule et génératrice de pollution web.

Présentation Facettes et SEO (SEO Campus Lille 2013)

Si les navigation à facettes peuvent être une opportunité en terme de SEO, celles-ci comportent malgré tout un certain nombre de pièges dans lesquels il faut mieux éviter de tomber si on souhaite un référencement performant. Cette présentation donnée à l'occasion du SEO Campus organisé à l'ecole SKEMA de Lille samedi dernier passe en revue les principaux risques associés aux navigations à facettes, ainsi que les solutions pour s'en prémunir.

Merci au passage aux organisateurs pour l'accueil et la qualité de l’événement :)

Firefox : mes 11 extensions SEO essentielles

Il existe des milliers d'extensions pour Firefox relatives au SEO. Mais toutes ne sont pas réellement utiles, et les fonctionnalités offertes par celles-ci ont fréquemment tendance à se recouper, surchargeant inutilement le navigateur. Dans ce billet, je vous propose les extensions qui me sont véritablement essentielles. Avec ces extensions je couvre la quasi-totalité de mes besoins en matière d'analyse et de tests. Pour le reste, j'utilise des logiciels et services dédiés.

Web Developer

Cet extension développée par Chris Pederick n'est plus à présenter tant elle est connue. S'il ne fallait en installer qu'une, ce serait celle-là. Avec Web Developer je peux (entre autres) : simuler la vision d'un robot, vérifier la pertinence des attributs alt, obtenir les informations relatives à n'importe quel élément HTML d'une page, éditer le code d'une page en live... Bref, cette extension est indispensable à tout SEO.

Quirk SearchStatus

Spécialement dédiée aux SEO, Quirk SearchStatus propose plusieurs fonctions qui me sont extrêmement utiles (et d'autres moins). J'apprécie particulièrement le surlignement des liens nofollow, le "link report" qui me donne un décompte du nombre de liens présent sur une URL au global et par type, la fonction "meta tags", l'affichage du PageRank et les divers raccourcis proposés comme le whois, le nombre de pages indexées sur les différents moteurs de recherche etc.

Gcache+

Cette extension, aussi simple qu'elle puisse être s'avère néanmoins très pratique, puisqu'elle permet d'accéder en un clic à la version cachée par Google pour la page en cours. Idéal pour vérifier qu'une page a bien été indexée, pour vérifier la date de dernière indexation d'une URL, ou pour voir une page avec les yeux de Google. Faites le test sur Amazon pour voir ;)

HeadingsMap

HeadingsMap permet en un clic d'afficher la structure des titres <hn> de la page en cours dans le volet de gauche du navigateur. Ce mode de visualisation est je trouve bien plus efficace que la fonction "entourer les titres" de la barre d'outils Web Developer. L'extension met également en évidence les aberrations dans la hiérarchie des titres, comme par exemple le passage d'un <h1> à un <h3> sans <h2>.

Seerobots

Installée depuis peu, Seerobots me donne une vision instantanée de la configuration de la balise meta robots de la page en cours, sans aucune action de ma part. Et avec un clic supplémentaire, les entêtes HTTP x-robots sont testées. Très pratique donc. Par contre le fichier robots.txt n'est pas pris en compte.

Link Gopher

Link Gopher permet d'extraire sous forme de liste tous les liens présents dans la page en cours ce qui est déjà bien mais permet également de définir une chaine de caractères qui servira de filtre pour l'extraction des URLs. Cette extension peut vous faire gagner beaucoup de temps, par exemple quand vous souhaiter extraire tous les liens présents dans un menu gargantuesque.

Snap Links Plus

Snap Links Plus est une extension que j'utilise rarement mais qui peut à l'occasion s'avérer très pratique : avec elle je peux ouvrir d'un coup tout une liste de liens simplement en séléctionnant la zone où sont situés ces liens. Très bien pour vérifier les liens présents dans une blogroll par exemple.

AlertBox

AlertBox permet d'être alerté de toute modification d'une page HTML (ça marche aussi pour les robots.txt...). Il est également possible de surveiller les modifications d'un endroit spécifique d'une page, comme par exemple le contenu d'un menu, d'un footer... La fréquence des vérifications est paramétrable.

Entêtes HTTP en direct

Connue aussi sous le nom de Live HTTP Headers, cette extension permet de voir les échanges HTTP entre le serveur et le navigateur. Parfaite pour tester des redirection, de la négociation de contenu... Quoique pour tester une URL unique j'utilise plus souvent Webbug, plus simple pour cet usage.

User Agent Switcher

Cette extension permet de remplacer l'user-agent du navigateur par l'user-agent de son choix. je peux ainsi me faire passer pour un moteur de recherche, ou pour un utilisateur mobile alors que je suis sur une machine de bureau. Parfait pour tester la version mobile d'un site, ou pour se faire passer pour un crawler Google (à l'exception de l'adresse IP bien sûr).

Google-no-tracking-url

Google no tracking URL permet de supprimer l'URL de tracking intermédiaire utilisée dans les pages de résultats Google. Premier avantage : pouvoir faire un copier-coller direct du lien à partir des SERPs. Deuxième avantage : un temps de chargement du site plus rapide. Troisième avantage : faire ch**r Google :)

Cette extension n'est officiellement pas compatible avec les version récentes de Firefox, mais en réalité elle fonctionne parfaitement (je suis sous FirefoxF 18) en bypassant la détection de compatibilité avec l'une de ces méthodes (j'ai pour ma part simplement édité le fichier install.rdf présent dans le fichier xpi).

Comment le responsive design peut pénaliser votre SEO

Dans une vidéo récente, Matt Cutts nous explique que le responsive design ne peut pas faire de mal au SEO. La plupart du temps, c'est vrai. Cela dit, il est des cas où de mon point de vue le responsive design pourrait affecter négativement la visibilité d'un site dans les moteurs de recherche. Mieux vaut donc faire ce choix en toute connaissance de cause.

Pour rappel, le responsive design consiste à fournir aux navigateurs des feuilles de styles différentes en fonction des propriétés des navigateurs. On n'a donc pas x versions pour chaque page, mais uniquement des rendu différents d'une même page, en fonction des CSS employées. Les avantages du responsive design en terme de SEO est qu'il régle à la source la question de la duplication de contenu, ainsi que celle de la dilution du PageRank. Ce choix technique semble donc a priori tout indiqué. Cependant la force du responsive design est aussi sa faiblesse : le code HTML envoyé au navigateur reste le même quel que soit l'utilisateur.

Si votre code est très lourd, cela va handicaper les utilisateurs mobiles qui ont une bande passante limitée et/ou des périphériques peu puissants. L'expérience de navigation pourra en être affectée ce qui enlevera tout bénéfice au responsive design. Coté moteurs, Google a plusieurs fois déclaré que la vitesse des sites web était prise en compte par son algorithme, depuis très longtemps pour ses résultats mobiles et plus récemment (2010) pour ses résultats desktop. En juin dernier, Google a également annoncé que les sites mobiles pourrait être retrogradés s'ils ne satisfaisaient pas correctement à certains critères relatifs à la navigation mobile, dont les temps de chargement. Si on souhaite être visible dans les résultats mobiles du moteur, la vitesse est donc un élément important, et le passage d'un site lourd en responsive design peut s'avérer un choix moins pertinent en terme de SEO qu'un site avec une version desktop et une version mobile distinctes. D'autant plus que les annotations d'URLs permettent de régler la question des contenus dupliqués, et que la diffusion dynamique en fonction de l'user-agent ne génère pas de duplication.

Optimisation de Dotclear 2 pour le SEO

La version 2 de Dotclear, sur laquelle tourne ce blog, est nativement plutôt bien conçue en ce qui concerne le SEO. Toutefois certains point sont perfectibles de mon point de vue. Aussi je vais vous exposer les choix que j'ai fait pour ce blog.

URLs

Toutes les URLs générées par un Dotclear brut sont parfaitement indexables par les moteurs de recherche. Il n'y a donc aucune obligation de changer quoi que ce soit. Cependant le "index.php" présent dans les URLs est quelque peu disgracieux, et tend à prendre de la place inutile dans les snippets. Autant donc le retirer pour mieux mettre en valeur les informations utiles de l'URL, comme le titre du billet, sa catégorie ou sa date.

Pour un Dotclear en querystring comme celui-ci placé dans un répertoire /seo/ la suppression des index.php est accomplie de la façon suivante : on indique "http://www.sebastien-billard.fr/seo/" dans le champ "URL du blog" dans les paramètres du blog, et l'on insère dans un fichier .htaccess placé dans le répertoire /seo/ les instructions suivantes :

RewriteEngine on
RewriteBase /seo/
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule (.*) index.php?$1

En ce qui concerne les chemins par défaut générés par Dotclear, ceux-ci peuvent être laissé en l'état, mais je préfère personnellement indiquer la date après le titre du billet, et utiliser des tirets comme séparateurs. Pour ce faire allez sur la page about:config dans les réglages système et indiquez "{t}-{d}-{m}-{y}" dans le champ post_url_format.

Un autre point à traiter concerne les signes diacritiques. Dotclear est capable de générer des URLs avec diacritiques conformes aux standards, mais il n'en reste pas moins que dans certains cas ces diacritiques s'afficheront mal. Mieux vaut donc couper le mal à la racine, et transformer comme le faisait Dotclear 1 les diacritiques en caractères plus ordinaires. Pour cela il suffit simplement d'installer le plugin Clean URLs de Pierre Rudloff.

Maitrise de l'indexation

L'indexation de certaines pages par les moteurs de recherche est inutile. C'est le cas par exemple des pages archives : elles n'ont pas vocation à se positionner dans les SERPS, et la navigation par catégories fournit déjà aux moteurs un chemin pour indexer les billets. Les pages archives diluent donc votre PageRank.

C'est pourquoi je vous conseille de mettre ces pages archives en "noindex,follow" en insérant la ligne "<meta name="ROBOTS" content="noindex, follow" />" dans le header des pages archive.html et archive_month.html.

Balises meta

Dotclear utilise un certain nombre de balises meta inutiles, notamment les balises meta "DC" (Dublin Core). Ces balises sont ignorées des moteurs de recherche généralistes. Vous pouvez supprimer sans regret toutes les balises <meta name="dc.xxx", cela allègera d'autant votre code.

page 2 de 2 -