Référencement, Design et Cie 2.0

Aller au contenu | Aller au menu | Aller à la recherche

Vague portrait en 11 questions

Ayant découvert que Bruno m'avait taggé, et les questions posées poussant à la réflexion, voici donc mes réponses à son interview en 11 questions :

Si le Net n’existait pas, aurais-tu cherché malgré tout un moyen d’exprimer tes idées à l’attention des autres ? Comment et pourquoi ?

En matière de communication je crois que la fonction crée l'organe autant que l'organe crée la fonction. Ce que je partage sur le web, je le partage en partie parce que le web existe. Il n'est pas dit que je l'aurais partagé si le web n'existait pas. Par exemple, je n'ai jamais été intéressé par le fait de m'exprimer sur un support papier. Mais j'ai fait de la radio FM. Alors oui, peut-aurais-je cherché à exprimer mes idées hors-web. Ou pas.

A ton avis, le Web a-t-il créé du lien social ou bien a-t-il contribué à éloigner les gens les uns des autres ?

Les deux, mais je ne saurais pas dire si la balance est positive ou négative. Oui, le web crée du lien social en permettant aux gens de se rencontrer et d'échanger. Cela est d'autant plus vrai que l'on est sur des sujets pointus ou exotiques (pour parler foot le bistrot suffit). Mais le fait d'être tout le temps connecté nous déconnecte aussi de la réalité, et des autres. Les gens qui consultent en permanence leur smartphone m'insupportent au plus haut point. Et si je suis sociable je ne suis pas très social, alors suis-je la meilleure personne pour répondre à cette question ?

Comment vois-tu ton avenir ?

Pour mon avenir proche, j'utilise Outlook :) Au-delà, aucune idée mais ce sera toujours liés aux moteurs de recherche je pense. Sauf si le web disparaissait. Et là je serai vraiment embêté.

Si tu devais recommander 3 sites à des gens qui découvrent internet, ce serait lesquels ?

Leconjugueur, Hoaxbuster, et la page d'aide Google sur les opérateurs de recherche avancés. Le premier pour moins m'écorcher les yeux en lisant leurs statuts Facebook, le second pour qu'ils relaient moins de co**eries sur Facebook, le troisième pour qu'ils apprennent à chercher intelligemment.

A choisir, tu préfères lire un livre sur l’écran de ton PC, sur une tablette numérique, une liseuse, un smartphone… ou bien sur un truc avec des pages en papier qu’il faut tourner à la main et qu’on peut utiliser même sans aucune source d’énergie ?

J'opte sans hésiter pour le papier. On a pas fait mieux en terme d'ergonomie et de durabilité. En plus en mode survie on peut se chauffer avec. Va faire ça avec un iPad ou une liseuse.

On t’offre la possibilité d’un voyage dans l’espace qui va durer plusieurs années et, indépendamment du fait que tu puisses t’y rendre avec tes proches, on ne t’autorise à emporter avec toi que 5 objets pour un poids maximum de 5 kg. Que choisis-tu ?

Un dosimètre gamma pour estimer si on vivra assez longtemps pour arriver vivants à destination, une pince Leatherman, une lampe de poche, une tablette, plusieurs tera-octets de données sur cartes SD.

Si tu devais dissuader quelqu’un de te fréquenter, que lui dirais-tu pour le décourager ?

"Tu es probablement quelqu'un de très gentil, mais je doute d'avoir quoi que ce soit partager avec toi. Le foot ? Je considère que c'est l'opium du peuple. La dernière émission ou le dernier animateur à la mode ? Je n'ai pas la télé et de toute façon trouve l'essentiel de la production médiocre. La dernier album de l'artiste que tout le monde écoute ? Non merci. La politique ? il y a 99% de chances que mes opinions te froissent. Le buzz du jour sur internet ? Rien à faire. Le dernier smartphone ? J'ai eu mon 1er mobile très tard et mon actuel n'a rien de smart, sauf sa batterie et le fait qu'il soit étanche. Alors restons-en là si tu veux bien hein ?"

Bon ça c'est ce que j'aimerais lui dire. Dans la réalité ne voulant froisser personne je chercherais probablement une excuse pour m'éclipser :D

Penses-tu, comme certains experts, que l’économie numérique constitue la nouvelle « Révolution Industrielle » du XXIe siècle ?

Une révolution très certainement, car le numérique a bouleversé bien des usages. Une révolution industrielle, peut-être, mais je n'en suis pas sûr. Car je vois l'industrie comme quelque chose de concret, tangible, alors que plein de "machins" numériques sont du vent. Et les révolutions industrielles se définissent traditionnellement comme des étapes d'industrialisation. En quoi exactement le web industrialise-t-il ?

Si tu devais corriger quelque chose dans ton parcours professionnel ou personnel, ce serait quoi ?

Ce type d'exercice est vain car il est impossible d'évaluer toutes les conséquences qu'aurait cette correction, et donc de savoir si cette correction était finalement souhaitable. Je peux juste dire que si ne n'avais pas été SEO j'aurais probablement aimé être archéologue. Remarque, il y a des points communs entre les deux activités : on gratte, on analyse, on dresse des inventaires et on découvre des trucs :)

Qu’aurais-tu aimer inventer ? (tu peux remonter aussi loin que tu veux dans l’histoire)

La bombe atomique. C'est quand même le plus gros pétard avec lequel on puisse imaginer s'amuser.

Quelles choses légales n’accepterais-tu pourtant pas de faire pour de l’argent ?

Beaucoup de choses en fait, et donc je ne sais pas trop quoi évoquer en particulier. Peut-être participer à la promotion d'objets ou services qui abusent de la naiveté et de la faiblesse des gens : voyance, remèdes douteux, objets ésotériques, produits Apple... (je plaisante pour le dernier point, c'est juste pour faire monter le nombre de commentaires).

Voila pour mes réponses, maintenant qui vais-je tagger à mon tour ? Je propose Antoine qui relance son blog, et Eve Demange :)

Scrapez facilement avec Scraper pour Chrome

N'avez-vous jamais eu l'envie de scraper le contenu de pages web alors que vous n'êtes pas à l'aise avec la programmation et les expressions régulières ? Si c'est le cas, alors l'extension Scraper pour Google Chrome est faite pour vous ! Avec son interface point and click, Scraper permet en effet d'extraire très facilement les données qui vous intéressent des pages web de votre choix, tout en demeurant puissant grâce au support de XPath et jQuery.

Une fois l'extension installée, son utilisation est des plus simple : faites un clic-droit sur un élément à scraper (par exemple une URL dans une page de résultats Google) et cliquez dans le menu contextuel sur "Scrape similar..." : une fenêtre s'ouvre alors affichant les paramètre du scrap à gauche et les données récoltées à droite. Il est alors possible soit d'exporter les données vers Google Docs, soit de copier-coller directement les données du tableau pour les coller dans Excel ou le logiciel de votre choix. Si les données récoltées comportent des anomalies il sera peut-être nécessaire d'ajuster l'expression XPath. Mais la plupart du temps Scraper se débrouille très bien tout seul.

Petite astuce : si vous scrapez des données présentées sous forme de tableau HTML un simple clic-droit peut ne pas suffire pour scraper toutes les données. Le truc est de sélectionner toute une ligne du tableau puis de faire un clic-droit dessus. Scraper comprendra alors que toutes les colonnes du tableau sont à scraper.

Cette extension s'avère extrêmement pratique à l'usage. Avec Scraper il est par exemple possible de récupérer toutes les URLs indexées par Google pour un domaine ou une forme d'URL donnés, de collecter des adresses d'annuaires très rapidement pour soumission ultérieure, de récupérer les pageranks de domaines passés auparavant dans un outil tel que Bulk Pagerank Checker... les possibilités sont infinies !

Taux de clic dans les pages de résultats des moteurs : tentative d'état des lieux

Les études sur le taux de clic dans les SERPs des moteurs de recherche ne sont pas si fréquentes. M'étant récemment penché sur le sujet, je vais tenter de dresser un état des lieux de la littérature.

Parmi les études publiées les 5 dernières années, 6 ont retenu mon attention : Celles de Chitika (juin 2013), Synodiance (sept 2013), Bluerank (juin 2012), Optify (avril 2011), Slingshot SEO (juin 2011) et Neil Walker (mai 2010)

Les méthodes de collecte et de calcul de ces études diffèrent, et je ne rentrerai pas dans le détail de ces différences (on remarquera notamment que si l'on additionne les taux de clics, on dépasse pour certaines études les 100%). Toutefois, malgré ces différences, la forme de la distribution des clics reste globalement la même, à savoir approximativement une loi de puissance (pour la 1ère page de résultats).

Distribution des taux de clics dans les pages de résultats des moteurs

En faisant la moyenne et en insérant une courbe de tendance dans Excel, on peut même déterminer l'équation donnant le CTR en fonction du positionnement : CTR=40.547*position^-0.905

CTR moyen en fonction du positionnement

Toutefois il convient de rester critique face à ces chiffres : oui, les 3 premiers résultats ont généralement des taux de clics bien plus élevés que les suivants, et vous avez tout intérêt à viser ces positions. Mais cela est vrai uniquement sur de larges échantillons d'expressions et de sites. Pour une expression donnée, vous ne multiplierez pas forcément votre CTR en passant de la 3ème position à la 1ère. Toujours sur une expression donnée, il se peut très bien qu'un site placé en 3ème position affiche un CTR supérieur à celui des 2 sites placés plus haut. D'ailleurs, si l'on trace un nuage de points des CTRs individuels des expressions en fonction des positions, tout devient plus flou (données pour le site 3 Suisses) :

Nuage de points CTR en fonction de la position

Enfin il ne faut pas oublier qu'un grand nombre des requêtes prises en compte pas ces différentes études sont des requêtes navigationnelles. Le CTR de la position 1 est donc surévalué et n'est pas applicable a priori pour les requêtes informationnelles et transactionnelles.

Que se passe-t-il en page 2 ? Les études Chitika et Synodiance montrent toutes deux un rapide effondrement des CTR à partir de la page 2 avec une moindre décroissance pour l'étude Synodiance :

CTR par page de résultats

Cette tendance se retrouve dans le nuage de point présenté plus haut.

Des requêtes de recherche plus précises dans Webmaster Tools !

Meilleurs voeux à tous ! En guise d'etrennes pour cette nouvelle année, Google nous offre deux changements plus que bienvenus dans la section "requêtes de recherche" de ses Webmaster Tools.

Le premier changement est que le nombre d'impressions et de clics n'est plus arrondi à la hache comme c'était le cas auparavant. On pourra donc suivre bien plus finement l'évolution du nombre d'impressions, de clics, et donc le taux de clic. Ce changement est rétroactif qui plus est.

Le second changement, encore plus intéressant, est que Google fourni désormais les expressions générant des impressions et du trafic pour une page donnée ! Pour visualiser les expressions associées à une page il suffit de cliquer sur l'onglet "Pages les plus populaires" puis de cliquer sur l'URL de la page en question. Les expressions associées apparaissent immédiatement en dessous. Cela ne compensera pas la perte d'information engendrée par la mise en place du Not Provided, mais cette nouvelle fonctionnalité est plus qu'appréciable.

Yandex abandonne les liens dans son algorithme

C'est ce que les titres des commentateurs du SEO annonceront afin d'attirer le chaland, mais la réalité est bien plus nuancée : lors de l'Internet Business Conférence à Moscou, le moteur de recherche russe Yandex a annoncé que les liens ne constitueront plus un critère de positionnement pour les requêtes commerciales dans la région de Moscou, puis éventuellement dans d'autres régions russes par la suite. Les autres pays ne sont pour l'instant pas concernés.

Ce changement ne devrait affecter que 10% des requêtes. Selon les représentants du moteur "le rapport signal/bruit des liens est tombé très bas, en particulier pour les requêtes commerciales, et tout spécialement en Russie. Nous voyons beaucoup de liens achetés, et même des liens achetés de façon automatique, sans aucune intervention humaine. Le problème avec ces liens est qu'il sont souvent hors-sujet et trompent les utilisateurs". Ceux-ci ajoutent : "Le link spam est plus important en Russie qu'ailleurs, parce que la Russie compte un grand nombre de programmeurs qui ont fait du link building une nouvelle profession".

Si les liens perdent en pertinence, peut-on leur substituer d'autres signaux comme les partages et les like sur les réseaux sociaux ? Pas vraiment selon Yandex, bien que le moteur ait accès aux données de Facebook et Twitter : "Nous n'avons pas pu constater de signaux significatifs émanant des liens sociaux. Donc notre algorithme les ignorera également".

Quels signaux alors pour remplacer les liens ? Yandex affirme prendre en compte plus de 800 critères, dont des critères comportementaux (grâce à sa solution analytics Metrika): "les interactions des utilisateurs avec les sites sont devenues un signal bien plus clair et naturel. Aussi nous regardons la facilité pour effectuer un achat, la facilité pour naviguer dans le site, et même la taille de l'offre de produits proposée sur le site".

A la question "comment se positionner sans liens" Yandex répond : "Pour de gros sites ciblant des requêtes à gros volume de recherche, la clé est de générer beaucoup de visites en utilisant les méthodes habituelles de création de trafic". "En ce qui concerne les sites ciblant des requêtes appartenant à la longue traîne, ceux-ci n'ont pas à s'inquiéter car leur contenu permettra d'attirer les utilisateurs et de performer dans les pages de résultats Yandex".

Ce mouvement de Yandex est-il appelé à se généraliser à l'ensemble des moteurs ? Pour ma part je ne pense pas que les moteurs de recherche puisse se passer de l'analyse des liens pour juger de la pertinence d'une page. Les liens restent un signal. Cela dit il serait souhaitable que le poids des liens soit dans certains cas amoindri. Cela mettrait un frein à cette course aux liens nécessaire, mais devenue ridicule et génératrice de pollution web.

Présentation Facettes et SEO (SEO Campus Lille 2013)

Si les navigation à facettes peuvent être une opportunité en terme de SEO, celles-ci comportent malgré tout un certain nombre de pièges dans lesquels il faut mieux éviter de tomber si on souhaite un référencement performant. Cette présentation donnée à l'occasion du SEO Campus organisé à l'ecole SKEMA de Lille samedi dernier passe en revue les principaux risques associés aux navigations à facettes, ainsi que les solutions pour s'en prémunir.

Merci au passage aux organisateurs pour l'accueil et la qualité de l’événement :)

Firefox : mes 11 extensions SEO essentielles

Il existe des milliers d'extensions pour Firefox relatives au SEO. Mais toutes ne sont pas réellement utiles, et les fonctionnalités offertes par celles-ci ont fréquemment tendance à se recouper, surchargeant inutilement le navigateur. Dans ce billet, je vous propose les extensions qui me sont véritablement essentielles. Avec ces extensions je couvre la quasi-totalité de mes besoins en matière d'analyse et de tests. Pour le reste, j'utilise des logiciels et services dédiés.

Web Developer

Cet extension développée par Chris Pederick n'est plus à présenter tant elle est connue. S'il ne fallait en installer qu'une, ce serait celle-là. Avec Web Developer je peux (entre autres) : simuler la vision d'un robot, vérifier la pertinence des attributs alt, obtenir les informations relatives à n'importe quel élément HTML d'une page, éditer le code d'une page en live... Bref, cette extension est indispensable à tout SEO.

Quirk SearchStatus

Spécialement dédiée aux SEO, Quirk SearchStatus propose plusieurs fonctions qui me sont extrêmement utiles (et d'autres moins). J'apprécie particulièrement le surlignement des liens nofollow, le "link report" qui me donne un décompte du nombre de liens présent sur une URL au global et par type, la fonction "meta tags", l'affichage du PageRank et les divers raccourcis proposés comme le whois, le nombre de pages indexées sur les différents moteurs de recherche etc.

Gcache+

Cette extension, aussi simple qu'elle puisse être s'avère néanmoins très pratique, puisqu'elle permet d'accéder en un clic à la version cachée par Google pour la page en cours. Idéal pour vérifier qu'une page a bien été indexée, pour vérifier la date de dernière indexation d'une URL, ou pour voir une page avec les yeux de Google. Faites le test sur Amazon pour voir ;)

HeadingsMap

HeadingsMap permet en un clic d'afficher la structure des titres <hn> de la page en cours dans le volet de gauche du navigateur. Ce mode de visualisation est je trouve bien plus efficace que la fonction "entourer les titres" de la barre d'outils Web Developer. L'extension met également en évidence les aberrations dans la hiérarchie des titres, comme par exemple le passage d'un <h1> à un <h3> sans <h2>.

Seerobots

Installée depuis peu, Seerobots me donne une vision instantanée de la configuration de la balise meta robots de la page en cours, sans aucune action de ma part. Et avec un clic supplémentaire, les entêtes HTTP x-robots sont testées. Très pratique donc. Par contre le fichier robots.txt n'est pas pris en compte.

Link Gopher

Link Gopher permet d'extraire sous forme de liste tous les liens présents dans la page en cours ce qui est déjà bien mais permet également de définir une chaine de caractères qui servira de filtre pour l'extraction des URLs. Cette extension peut vous faire gagner beaucoup de temps, par exemple quand vous souhaiter extraire tous les liens présents dans un menu gargantuesque.

Snap Links Plus

Snap Links Plus est une extension que j'utilise rarement mais qui peut à l'occasion s'avérer très pratique : avec elle je peux ouvrir d'un coup tout une liste de liens simplement en séléctionnant la zone où sont situés ces liens. Très bien pour vérifier les liens présents dans une blogroll par exemple.

AlertBox

AlertBox permet d'être alerté de toute modification d'une page HTML (ça marche aussi pour les robots.txt...). Il est également possible de surveiller les modifications d'un endroit spécifique d'une page, comme par exemple le contenu d'un menu, d'un footer... La fréquence des vérifications est paramétrable.

Entêtes HTTP en direct

Connue aussi sous le nom de Live HTTP Headers, cette extension permet de voir les échanges HTTP entre le serveur et le navigateur. Parfaite pour tester des redirection, de la négociation de contenu... Quoique pour tester une URL unique j'utilise plus souvent Webbug, plus simple pour cet usage.

User Agent Switcher

Cette extension permet de remplacer l'user-agent du navigateur par l'user-agent de son choix. je peux ainsi me faire passer pour un moteur de recherche, ou pour un utilisateur mobile alors que je suis sur une machine de bureau. Parfait pour tester la version mobile d'un site, ou pour se faire passer pour un crawler Google (à l'exception de l'adresse IP bien sûr).

Google-no-tracking-url

Google no tracking URL permet de supprimer l'URL de tracking intermédiaire utilisée dans les pages de résultats Google. Premier avantage : pouvoir faire un copier-coller direct du lien à partir des SERPs. Deuxième avantage : un temps de chargement du site plus rapide. Troisième avantage : faire ch**r Google :)

Cette extension n'est officiellement pas compatible avec les version récentes de Firefox, mais en réalité elle fonctionne parfaitement (je suis sous FirefoxF 18) en bypassant la détection de compatibilité avec l'une de ces méthodes (j'ai pour ma part simplement édité le fichier install.rdf présent dans le fichier xpi).

Comment le responsive design peut pénaliser votre SEO

Dans une vidéo récente, Matt Cutts nous explique que le responsive design ne peut pas faire de mal au SEO. La plupart du temps, c'est vrai. Cela dit, il est des cas où de mon point de vue le responsive design pourrait affecter négativement la visibilité d'un site dans les moteurs de recherche. Mieux vaut donc faire ce choix en toute connaissance de cause.

Pour rappel, le responsive design consiste à fournir aux navigateurs des feuilles de styles différentes en fonction des propriétés des navigateurs. On n'a donc pas x versions pour chaque page, mais uniquement des rendu différents d'une même page, en fonction des CSS employées. Les avantages du responsive design en terme de SEO est qu'il régle à la source la question de la duplication de contenu, ainsi que celle de la dilution du PageRank. Ce choix technique semble donc a priori tout indiqué. Cependant la force du responsive design est aussi sa faiblesse : le code HTML envoyé au navigateur reste le même quel que soit l'utilisateur.

Si votre code est très lourd, cela va handicaper les utilisateurs mobiles qui ont une bande passante limitée et/ou des périphériques peu puissants. L'expérience de navigation pourra en être affectée ce qui enlevera tout bénéfice au responsive design. Coté moteurs, Google a plusieurs fois déclaré que la vitesse des sites web était prise en compte par son algorithme, depuis très longtemps pour ses résultats mobiles et plus récemment (2010) pour ses résultats desktop. En juin dernier, Google a également annoncé que les sites mobiles pourrait être retrogradés s'ils ne satisfaisaient pas correctement à certains critères relatifs à la navigation mobile, dont les temps de chargement. Si on souhaite être visible dans les résultats mobiles du moteur, la vitesse est donc un élément important, et le passage d'un site lourd en responsive design peut s'avérer un choix moins pertinent en terme de SEO qu'un site avec une version desktop et une version mobile distinctes. D'autant plus que les annotations d'URLs permettent de régler la question des contenus dupliqués, et que la diffusion dynamique en fonction de l'user-agent ne génère pas de duplication.

Optimisation de Dotclear 2 pour le SEO

La version 2 de Dotclear, sur laquelle tourne ce blog, est nativement plutôt bien conçue en ce qui concerne le SEO. Toutefois certains point sont perfectibles de mon point de vue. Aussi je vais vous exposer les choix que j'ai fait pour ce blog.

URLs

Toutes les URLs générées par un Dotclear brut sont parfaitement indexables par les moteurs de recherche. Il n'y a donc aucune obligation de changer quoi que ce soit. Cependant le "index.php" présent dans les URLs est quelque peu disgracieux, et tend à prendre de la place inutile dans les snippets. Autant donc le retirer pour mieux mettre en valeur les informations utiles de l'URL, comme le titre du billet, sa catégorie ou sa date.

Pour un Dotclear en querystring comme celui-ci placé dans un répertoire /seo/ la suppression des index.php est accomplie de la façon suivante : on indique "http://www.sebastien-billard.fr/seo/" dans le champ "URL du blog" dans les paramètres du blog, et l'on insère dans un fichier .htaccess placé dans le répertoire /seo/ les instructions suivantes :

RewriteEngine on
RewriteBase /seo/
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule (.*) index.php?$1

En ce qui concerne les chemins par défaut générés par Dotclear, ceux-ci peuvent être laissé en l'état, mais je préfère personnellement indiquer la date après le titre du billet, et utiliser des tirets comme séparateurs. Pour ce faire allez sur la page about:config dans les réglages système et indiquez "{t}-{d}-{m}-{y}" dans le champ post_url_format.

Un autre point à traiter concerne les signes diacritiques. Dotclear est capable de générer des URLs avec diacritiques conformes aux standards, mais il n'en reste pas moins que dans certains cas ces diacritiques s'afficheront mal. Mieux vaut donc couper le mal à la racine, et transformer comme le faisait Dotclear 1 les diacritiques en caractères plus ordinaires. Pour cela il suffit simplement d'installer le plugin Clean URLs de Pierre Rudloff.

Maitrise de l'indexation

L'indexation de certaines pages par les moteurs de recherche est inutile. C'est le cas par exemple des pages archives : elles n'ont pas vocation à se positionner dans les SERPS, et la navigation par catégories fournit déjà aux moteurs un chemin pour indexer les billets. Les pages archives diluent donc votre PageRank.

C'est pourquoi je vous conseille de mettre ces pages archives en "noindex,follow" en insérant la ligne "<meta name="ROBOTS" content="noindex, follow" />" dans le header des pages archive.html et archive_month.html.

Balises meta

Dotclear utilise un certain nombre de balises meta inutiles, notamment les balises meta "DC" (Dublin Core). Ces balises sont ignorées des moteurs de recherche généralistes. Vous pouvez supprimer sans regret toutes les balises <meta name="dc.xxx", cela allègera d'autant votre code.

Bienvenue !

En janvier 2005 je lançais mon blog Référencement Design et Cie, sans trop savoir où m'emmenerai cette aventure. J'optais à l'époque pour un hébergement chez Free, tout simplement parce que j'hébergeais déjà mes pages web sur cette plateforme. On m'a souvent demandé pourquoi je n'étais pas passé à un vrai nom de domaine. Au début, s'agissant d'un blog personnel et ne sachant pas si l'expérience durerait, je n'avais pas forcément envie d'investir dans un nom de domaine. Par la suite c'est un peu la flemme qui m'a dissuadé d'acheter mon nom de domaine, puis les difficultés de migration liées aux limitations de Free, et à un Dotclear un peu trop bidouillé et non mis à jour.

Mais il fallait bien qu'un jour la migration se fasse. Bienvenue donc sur Référencement Design et Cie 2.0 :) Je repars de zéro, pour les raisons techniquement précédemment évoquées. On est loin des bonnes pratiques SEO, mais c'est l'occasion de me donner un bon coup de fouet, avec une fréquence de publication que j'espère plus élevée que celle des derniers mois. Le blog Free restera accessible en lecture.

La ligne éditoriale du blog restera la même, à savoir de l'information utile, concrète, principalement autour du SEO mais également sur la recherche d'informations et le design, en fonction de l'inspiration et de mes activités du moment.

page 2 de 2 -