Référencement, Design et Cie 2.0

Aller au contenu | Aller au menu | Aller à la recherche

Archives par catégorie : SEO et moteurs

Identifier les pages à zéro trafic avec Data Studio

Les outils de mesure d'audience permettent facilement d'identifier les pages à faible trafic. Cependant, ils ne sont d'aucune utilité pour identifier les pages avec aucun trafic. En effet la connaissance de l'existence d'une page par de tels outils nécessite que cette page ait été affichée au moins une fois.

Comment faire alors ? La méthode que je vous propose consiste à combiner dans Data Studio les données issues de Google Search Console et celles issues de votre sitemap XML (via Google Sheet). Bien entendu cela suppose que vos sitemaps XML soient correctement générés et exhaustifs. Dans mon dashboard, seules les pages catégories sont prises en compte, mais la méthode peut être utilisée pour l'intégralité de votre site.

La première chose à faire est de créer un document Google Sheets dans lequel vous allez importer votre sitemap grâce à la fonction ImportXML. La formule utilisée dans la colonne A est la suivante, à adapter en fonction de l'URL de votre sitemap :

=IMPORTXML("https://www.exemple.fr/sitemap/sitemap.xml";
"//*[local-name() ='url']/*[local-name() ='loc']")

Normalement vous devriez obtenir un listing des URLs présentes dans le sitemap. L'import peut être un peu long. C'est surtout un problème à la création du fichier car par la suite les données seront régulièrement mises à jour sans intervention de votre part, au moins toutes les 24h il me semble.

sitemap.png, août 2021

Une fois dans Data Studio, créez une source de données mixtes, en combinant votre feuille Google Sheets et vos données Search Console. La clé de jointure choisie pour les données Sheets doit être la colonne A, qui contient les URLs. La clé de jointure pour les données Search Console doit être la landing page. Dans les données Search Console, ajoutez les impressions et les URL clicks dans les métriques.

combinaison.png, août 2021

Créez maintenant un tableau dans Data Studio sur la base de ces données mixtes, avec en dimension vos URLs et en statistiques les impressions et clics issus de Search Console. N'oubliez pas de spécifier un tri des lignes par ordre de clics croissant, afin d'afficher en premier les pages à trafic nul. Vous devriez obtenir quelque chose qui ressemble à ceci :

tableau-zero-trafic.png, août 2021

L'ajout de filtres avancé est conseillé pour mieux explorer les données. Il vous sera alors possible de filtrer par répertoire, ou via des expressions régulières de filtrer par niveau d'arborescence. L'insertion d'un sélecteur de plages de date est également utile, bien que les 30 derniers jours par défaut soient de mon point de vue une bonne base pour identifier les pages à problème.

Les outils de météo des SERPs Google

La visibilité de votre site évolue brusquement à la hausse ou à la baisse : ce changement concerne-t-il uniquement votre site, ou bien s'agit-il d'une mise à jour de l'algorithme de Google ? Pour vous en assurer, plusieurs services en ligne vous proposent de suivre la météo des pages de résultats Google (SERPs), en mesurant la variabilité des résultats du moteur. Veillez toutefois à consulter plusieurs de ces services pour confirmer une mise à jour :)

Les outils de météo des SERPs dont j'ai connaissance (n'hésitez pas à en mentionner d'autres). Attention certains sont spécifiques à un pays :

L'outil performance de Google Search Console bien moins utile désormais

On savait depuis quelques temps déjà que les données Google Search Console (GSC) relatives aux mots-clés étaient incomplètes. A titre d'exemple, sur un site majeur comme Auchan.fr, la part de requêtes rares et donc volontairement cachées par GSC pouvait atteindre 53%. De ce fait de nombreuses expressions potentiellement utiles étaient masquées aux webmasters. Cependant les données agrégées (totaux des clics et impressions, CTR moyen, position moyenne) ainsi que les courbes restaient utilisables.

Mais depuis le 19 août 2018, l'outil "performances" de GSC perd une grande partie de son utilité. Google a en effet décidé de ne plus comptabiliser les requêtes rares dans les graphes et dans les données agrégées pour les résultats filtrés, soit disant pour protéger la vie privée des internautes. Du coup il n'est plus possible de distinguer les parts et les tendances des trafics marque et hors-marque. Cela se ressent nettement sur les courbes des clics et impressions quand on exclue le trafic des requêtes marque :

Chute de trafic hors marque apparente dans Google Search Console

Pour le site Auchan, si je compare la semaine précédant le 19 août et la semaine suivant le 19 août, j'assiste ainsi à une baisse apparente de -74% pour les clics hors marque et de -61% pour les impressions hors marque, ce qui est énorme Le trafic marque quant à lui n'est pas affecté, car ce type de trafic comporte très peu de requêtes rares.

Merci Google.

Mon cours sur le SEO, version 2018

Depuis plusieurs années, je forme les étudiants du Master IDEMM de l'université de Lille 3 au SEO. Le module étant de 20 heures, il ne s'agit pas de former des référenceurs aguerris, mais de permettre aux étudiants de maitriser les fondamentaux du SEO, de formuler leurs recherches efficacement, et de leur transmettre un peu de sens critique, si nécessaire à une profession parfois trop portée sur les modes du moment ;)

Mon cours complet (197 slides), téléchargeable sur Slideshare :

Bien entendu il ne s'agit que du support du cours, qui ne peut remplacer le cours lui-même.

Cache Google et SEO : quelques observations

La fonction cache de Google est bien connue des référenceurs : elle permet notamment de se faire une idée de la récence de l'indexation et de voir la page telle qu'indexée par Google. Cela est vrai dans la plupart des cas mais le fonctionnement du cache est en fait bien plus obscur, notamment en ce qui concerne les pages lourdes.

Premièrement, le fait que la version cachée d'une page ne soit pas accessible ne signifie pas que cette page ne soit pas indexée. Par exemple, au moment où j'écris cet article j'ai une page du site Auchan qui ne propose pas de cache dans les pages de résultats Google, alors que la recherche "mot-clé site:www.auchan.fr/nos-rayons" remonte bien le terme recherché dans le snippet (exemple). Ma théorie est que Google possède en réalité deux caches, le cache visible utilisé pour la fonction cache des SERPs, et un cache réel utilisé par l'algorithme.

Deuxièmement, le cache visible est limité en taille. Sur des pages très lourdes, dont le code source dépasse le mégaoctet, la version en cache sera tronquée, ce qui peut occasionner quelques frayeurs. Or une recherche "mot-clé site:www.monsite.fr/urldelapage" trouve bien les mots-clé placés au delà du 1er mégaoctet. Ce qui semble bien confirmer que deux caches sont utilisés par Google.

Troisièmement, le cache utilisé par l'algorithme peut varier dans le temps. Une expérimentation que j'ai menée semble suggérer qu'au début de l'indexation d'une page nouvellement publiée c'est le cache visible de Google qui est employé, en attendant l'indexation effective du second cache. En effet les recherches dans Google m'ont remonté dans un premier temps uniquement les mots-clé placés avant le premier mégaoctet de la page. Un autre fait intéressant, au moins pour les mots-clés rares et mots-clés imaginaires, est que les tous premiers mots-clés semblent être indexés bien plus rapidement que les mots-clés placés plus loin dans le code, même si on est en dessous de la limite de 1 Mo. Cela a probablement à voir avec la constitution de l'index inversé du moteur (le listing de tous les documents comportant un mot-clé donné).

Difficile donc dans certains cas de se faire une idée de ce que voit réellement Google. L'outil "explorer comme Google" de la Search Console n'aide pas vraiment dans le cas des pages lourdes. Le code récupéré ne dépassera pas 250 Ko, ce qui ne correspond pas à une limite connue de l'indexation du moteur.

Ajoutez à cela le fait que selon John Mueller, la date du cache ne serait pas fiable, et vous réaliserez que la fonction cache doit toujours être utilisée avec circonspection.

Référencement des images : les opérateurs site: et src:

Si vous travaillez dans le référencement et que vous vous êtes déjà posé la question de l'indexation de vos images, vous avez très probablement utilisé la commande "site:" dans le moteur de recherche d'images de Google en constatant que cet opérateur est loin d'être idéal. En effet, la commande "site:" ne retourne pas les images appartenant à un site, mais les images appelées sur un site, ce qui est différent. Ainsi sur mon blog personnel, la commande "site:www.sebastien-billard.fr" retourne en majorité mes propres photos, mais également des vignettes de vidéos Youtube qui ne sont pas hébergées chez moi.

Une commande moins connue utilisable dans Google Images est la commande "src:", récemment évoquée sur Twitter par le googler Gary Illyes. Cet opérateur remonte les images hébergées sur un domaine (ou un sous-domaine). En utilisant cette commande sur mon site, je n'obtiens que mes propres photos.

Il est possible de combiner ces commandes. Ainsi la requête "site:sebastien-billard.fr -src:sebastien-billard.fr" me retourne uniquement les image appelées sur mon site mais hébergées sur d'autres domaines. A l'inverse, la requête "src:sebastien-billard.fr -site:sebastien-billard.fr" me permet d'identifier des pages qui font des hotlinks vers mes images. Pratique n'est-ce pas ? :)

Scraper les SERPS Google avec Chrome et l'extension Scraper

Besoin de scraper les résultats de recherche Google ? Voici une méthode utilisable avec l'extension Scraper pour Chrome. Une fois l'extension installée, faite votre recherche dans Google, faite un clic-droit n'importe où dans la page de résultats et cliquez sur "scrape similar". La fenêtre de l'extension s'ouvre.

Dans la rubrique "Selector", utilisez l'expression Xpath suivante :

//*[@id="rso"]/div/div/div[@class="rc"]

Cette expression va sélectionner dans la page de résultats Google tous les <div> de classe "rc" contenu dans le bloc "rso", c'est à dire les blocs correspondant à chaque site listé, lesquels contiennent le titre, le lien vert (ou fil d'ariane), et le snippet (description). Maintenant, dans la rubrique "Columns, créez quatre expressions Xpath configurées de la façon suivante :

google-serp-scraper.PNG

Une fois ces lignes créées, cliquez sur "Scrape" : la fenêtre de droite devrait alors afficher dans l'ordre le titre de chaque site, l'URL visible (ou fil d'ariane), le snippet, et l'URL de destination du lien. Vous n'avez plus alors qu'à exporter les données dans Excel ou Google Docs ;) N'oubliez pas de sauvez cette configuration dans les presets pour la réutiliser facilement.

Chute de votre trafic Google Images ? Une explication

Si vous êtes un utilisateur un peu avancé de Google Analytics, vous suivez probablement le trafic issu de Google Images, en isolant parmi les référents les sessions répondant à une expression régulière du type ^(/im(gres|ages/(view|search))).

Et peut-être avez-vous remarqué une baisse brutale du trafic images depuis le 11 septembre 2015. Cette baisse n'est qu'apparente. La raison en est que Google a supprimé sur sa page de prévisualisation le chargement en arrière plan de la page hébergeant l'image, affichant à la place un fond gris. La page du site n'étant plus chargée, le script Google Analytics n'est plus exécuté, et aucun referer n'est enregistré.

google-image.png

Qu'en est-il des clics sur les liens "site web pour cette image" présents sur les pages de prévisualisation ? Google ne transmet pas de referer pour ces clics. Ces visites seront donc comptées comme des accès directs.

Le seul moyen d'apprécier votre trafic image est donc désormais de faire confiance à Google et à son rapport "Analyse de la recherche", en filtrant sur le type de recherche.

PS : Comme le font remarquer justement plusieurs commentateurs, Il semble que les images en HTTPS ne soient pas impactées par ce phénomène.

Combien de temps conserver une redirection 301 ?

Combien de temps les redirections doivent-elles rester active ? C'est une question qui m'est régulièrement posée par ma direction informatique, soucieuse de ne pas surcharger ses fichiers de configuration. Ma réponse en général est "ad vitam eternam, autant que possible" ce qui me permet d'obtenir un répit d'au moins un an ;)

Dans un hangout récent, John Mueller, analyste chez Google, donne son opinion sur ce sujet :

"En théorie une redirection 301 est une redirection permanente, qui peut donc être conservée indéfiniement (...) Dans la pratique, quand nous rencontrons une redirection permanente, nous essayons de nous en souvenir pour le futur. Aussi, si vous avez migré votre site et que nous avons bien pris connaissance de cette migration, ce qui peut prendre 6 mois ou 1 an, alors vous pouvez au bout d'un certain temps supprimer vos redirections. Il faut cependant être conscient que si des liens continuent de pointer vers une vieille URL, alors celle-ci sera susceptible d'apparaître dans nos pages de résultats en cas de suppression des redirections (...) Je viserais donc une conservation des redirections 301 d'au moins un an, et plus longtemps encore si possible, en fonction de ce qui est raisonnable dans votre situation".

En résumé : gardez vos redirections actives le plus longtemps possible (et mettez à jour les redirections existantes pour éviter les redirections en chaine).

Mieux exploiter RanksExplorer avec Excel

Je pense beaucoup de bien de l'outil de positionnement Ranks, que j'utilise tous les jours. Au delà du simple contrôle de positionnement sur les expressions que j'ai moi-même définies, j'apprécie particulièrement les données fournies par l'outil RanksExplorer qui portent sur un très grand nombre d'expression (plusieurs dizaines de millions de mots-clé français) et permettent de contrer au moins en partie le notprovided.

Sous leur forme brute, les données sont organisées en 3 colonnes : mots-clé, trafic mensuel (théorique) et URLs positionnée. Je vous propose aujourd'hui d'utiliser un tableau croisé dynamique pour exploiter ces données de façon plus aisée.

Téléchargez tout d'abord les données de RanksExplorer au format CSV, et transformez les en tableau. Vous devez obtenir ceci :

Données CSV RanksExplorer

Sélectionnez une cellule du tableau, et dans l'onglet "outils de tableau" cliquez sur "Synthétiser avec un tableau croisé dynamique". Dans votre tableau croisé, faites glisser le champ "Trafic Mensuel" dans les valeurs, et les champs "URL positionnée" et "Mot-clé" dans les étiquettes de ligne :

Paramétrage tableau dynamique RankExplorer

Vous obtenez alors un tableau avec une URL par ligne et le trafic théorique correspondant à cette URL dans une deuxième colonne. Un clic sur le bouton "+" permet d'accéder aux expressions sur lesquelles cette URL est visible, avec le trafic estimé pour chaque expression.

Les données

A ce stade, vous aurez peut-être remarqué que chaque modification détruit la largeur des colonnes. Pour éviter ce problème faite un clic-droit sur le tableau, cliquez sur "options du tableau croisé dynamique" puis sur l'onglet "disposition et mise en forme" et désélectionnez le champ "ajuster automatiquement la largeur des colonnes lors de la mise à jour".

Une dernière amélioration de ce tableau consiste à afficher le nombre d'expressions sur lesquelles se positionne chaque URL. Pour ce faire, faites glisser le champ "mot-clé" dans les valeurs. Une nouvelle colonne apparait alors à droite de la colonne trafic affichant le nombre d'expressions associées.

Le tableau dynamique finalisé

L'exploitation des données Ranksexplorer devrait maintenant être plus simple :)

Scraper les données du graphe "Analyse de la recherche" dans Google Search Console

Depuis ce matin, Google a supprimé l'accès à l'ancienne version du rapport "Analyse de la recherche" dans Google Search Console (ex Webmaster Tools). Ce qui est vraiment dommage, car on ne peut plus télécharger au format CSV les données du graphique comme le permettait l'ancienne version.

Pas de panique cependant, voici une astuce pour récupérer ces données en utilisant Google Chrome est l'excellent plugin Scraper. Pour ce faire connectez vous à Google Search Console, et allez dans le section Analyse de la recherche. N'importe où dans la page, faites un clic droit, cliquez sur "Scrape similar" et copiez l'expression suivante dans le sélecteur Xpath :

//*[@id="wmt-tsq"]/div/div/div/div/div/div/div/div/table/tbody/tr[td]

Cette expression va sélectionner dans le code source de la page toutes les cellules du tableau utilisé pour construire le graphique. Dans la section "Columns" utilisez ensuite les expressions Xpath suivantes pour récupérer les différents données affichées dans le graphe Search Console. Si vous avez activé les options clics et CTR par exemple créez une expression *[1] nommé Date, une expression *[2] nommée Clics et une expression *[3] nommée CTR. Cliquez sur scrape et vous devriez obtenir ceci, qui peut être copié dans Excel :

scrap google search console

Pensez à sauvegarder ce preset pour une utilisation ultérieure :)

PS : comme l'a fait très justement remarquer SeoF1 il suffit en fait d'afficher les données du tableau par date et non pas par requête... preuve que les habitudes nous induisent parfois en erreur. Cela m'aura au moins fait potasser Xpath :)

Afficher plus d'entrées dans Google Webmaster Tools

Google Webmaster Tools permet d'afficher dans la rubrique "Requêtes de recherche" jusqu'à 500 lignes. Or ce chiffre est parfois clairement insuffisant quand il s'agit d'aller chercher de l'information en profondeur. Le téléchargement du tableau en CSV ne résoud rien, car on ne bénéficie alors pas des données de second niveau comme les mots-clés associés aux pages, visibles lorsqu'on clique sur la flèche noire précédant une URL.

Heureusement, une solution existe et je vous la livre : il suffit simplement de modifier la valeur du paramètre "grid.s" dans l'URL Webmaster Tools en lui donnant une valeur égale ou supérieur au nombre de pages connues par GWT. Exemple :

grids-gwt.png

L'intégralité des entrées est alors affichée sur une page unique et une recherche par "Ctrl+F" permet de trouver rapidement les informations associées à une URL donnée :)

Des statistiques sur la cannibalisation du SEO par le SEA

Les données fournies par Advanced Web Ranking dans son étude "Google organic CTR history" offrent des statistiques intéressantes sur la cannibalisation du SEO par les liens sponsorisés.

Il apparait d'abord que l'impact de la présence de liens sponsorisés dans les pages de résultats se fait sentir surtout pour les 4 à 5 premiers résultats. Au delà, l'influence de la présence de liens sponsorisés sur les CTR est négligeable.

Pour les sites présents dans le top 5 des résultats naturels, pour les recherches hors-marque, tout se passe comme ci les résultats sponsorisés prenaient la place des résultats naturels (ce qui est le cas visuellement). Le CTR de la 1ere position passe ainsi de 31% à 18% en présence de liens sponsorisés au dessus des résultats naturels, et celui de la 2ème position de 19% à 11%. Ce qui correspond approximativement à des CTR de positions 2 et 3.5 en l'absence de liens sponsorisés.

L'étude met également en évidence la grande différence de distribution des CTR entre le trafic marque et hors-marque : Pour le trafic marque, le CTR de la 1ère position est de 52%, contre 27.5% pour le trafic hors-marque.

Toolbar PageRank : la fin est proche

On s'en doutait déjà la dernière mise à jour datant de décembre 2013, mais la fin du Pagerank visible (TBPR ou "toolbar pagerank") se confirme à nouveau. Dans un récent hangout relayé par SERoundtable, John Mueller, analyste chez Google, s'est exprimé en ces termes à propos du Pagerank : "Il n'y aura vraisemblablement plus de mise à jour de celui-ci, en tout cas en ce qui concerne le Pagerank affiché par la barre d'outils".

C'est donc bien la fin de la petite barre verte, si chère aux webmasters et aux SEO. Une question se pose toutefois : comment Google va-t-il alors faire passer le message lors des prochaines vagues de pénalisation pour achat et vente de liens s'il n'y a plus de PR à mettre à zéro ? :)

SEO : faut-il passer au HTTPS ?

Le 7 aout dernier, Google a annoncé officiellement que l'utilisation du protocole HTTPS par les sites web était désormais pris en compte par son algorithme en tant que facteur de positionnement. L'argument avancé par le moteur est celui d'un internet "plus sûr". Google reconnait que le poids de ce facteur est actuellement très faible, mais pourrait augmenter dans le futur.

Les webmasters doivent-ils passer au HTTPS sans tarder ? Personnellement je ne le recommande pas (sauf zones sensibles sur certains sites), et voici pourquoi :

  • Pour des pages ordinaires, rien ne justifie le HTTPS.
  • Le poids de ce facteur est ultra faible (d'ailleurs personne n'a remarqué de mouvements dans les SERPS), et le restera probablement.
  • HTTPS étant plus lent, optimiser ce facteur mettra à mal cet autre facteur lui aussi faiblement pris en compte par l'algorithme, qui est le temps de chargement.
  • Si la transition est mal réalisée (appel de ressources non HTTPS) le passage à HTTPS risque de provoquer des messages d'alerte anxiogènes pour les visiteurs qui les feront fuir ou réduiront les conversions.
  • Enfin le passage à HTTPS est une migration, avec tous les dangers que cela comporte.

Bref, il est urgent d'attendre. AMHA.

Le SEO à l'origine de 51% du trafic, loin devant les réseaux sociaux

A en croire une étude récemment publiée par BrightEdge, les résultats naturels des moteurs de recherche seraient à l'origine de 51% du trafic devançant largement les liens sponsorisés (10%) et les réseaux sociaux (5%). Ces chiffres sont à prendre avec précaution, car l'étude fournit peu d'informations sur la méthodologie employée ("des milliards de contenus analysés"), et parce qu'un biais lié à l'échantillon reste possible. Néanmoins cette étude rappelle encore une fois l'importance du Search.

sources-de-trafic.png

Cette répartition des sources de trafic est très inégale selon les thématiques. Le e-commerce est le secteur qui bénéficie le moins des réseaux sociaux, alors que ceux-ci sont importants quand il s'agit d'internet et de technologie :

trafic-secteurs.png

L'étude rappelle également que la recherche universelle est synonyme de CTR souvent plus élevés. En moyenne les videos et images auraient un taux de clic supérieur de 13%.

Le underscore comme jocker dans Google Suggest

Google Suggest est un bon point de départ pour rechercher des mots-clés. Cependant, dans la majorité des cas, les expressions retournées seront uniquement celles débutant par l'expression tapée. Par exemple, si je tape "arrêter de fumer" Google va me suggèrer uniquement des expressions commençant par "arrêter des fumer" :

arreter-fumer.png

Sachez cependant que le signe underscore peut être utilisé comme joker (wildcard) dans vos recherches et remplacer zéro, un, ou plusieurs mots. Il permet donc d'identifier des requêtes courantes qui contiennent ou qui se se terminent par une expression, et pas seulement celles qui commencent par celle-ci. Exemple pour "_ arrêter de fumer" :

arreter-fumer-2.png

Bon à savoir également : le underscore peut être utilisé plusieurs fois dans une requête. Exemple pour "comment _ à _ mari " :

comment-mari.png

Enfin, si certaines requêtes ne renvoient aucune suggestion, essayez d'ajouter un espace au début de celles-ci : il est fréquent que des suggestions apparaissent alors ;)

SEO en agence vs SEO chez l'annonceur

Faisant suite à la table ronde à laquelle j'ai eu le plaisir de participer lors du SMX Paris avec Béatrice Payonne et Mael Montarou , et ayant œuvré dans les deux mondes, je vous livre aujourd'hui ma réflexion personnelle sur les différences entre le SEO coté agence et le SEO coté annonceur, du point de vue du référenceur essentiellement. Mais les entreprises sauront également en tirer des enseignements ;)

Autant le dire tout de suite : aucune de ces positions n'est je pense meilleure qu'une autre dans l'absolu. Tout est question de contexte et d'affinité personnelle, chaque position ayant typiquement les défaut de ses qualités.

Avantages et facilités à être SEO chez l'annonceur

  • Un travail plus en profondeur, sur la durée.
  • Une connaissance plus complète du fonctionnement de l'entreprise et de son marché.
  • Des interactions avec avec une grande diversité d'acteurs (transversalité).
  • La possibilité d'évangéliser / former les autres acteurs.
  • Une large autonomie.
  • Souvent plus de moyens pour acheter outils et prestations (chez les gros annonceurs du moins).
  • Des salaire plus élevés (chez les gros annonceurs).
  • Une compréhension de pourquoi les recos des agences ne sont pas appliquées ;)

Inconvénients et difficultés à être chez l'annonceur

  • Des rythmes parfois lents (ce qui peut être un avantage : on a le temps pour réfléchir).
  • Une moindre diversité thématique.
  • Un certain isolement si on est seul (pas de discussions entre SEO. heureusement il y a les conférences et apéros divers).
  • La nécessité de connaitre un maximum d'intervenants pour faire avancer les choses.
  • Il faut parfois (souvent) se battre pour obtenir des implémentations.
  • La dimensions politique et les prés carrés de chacun.
  • La frustration quand des facteurs externes affectent négativement le SEO (par ex une réduction de l'offre).
  • Etre considéré comme un salarié parmi plein d'autres, pas comme un expert.

Avantages et facilités à être SEO en agence

  • Des rythmes plus rapides.
  • Une très grande diversité thématique : pas de monotonie !
  • Des tâches très variées (avant-vente, développement de produits, consulting, formation...)
  • Les échanges avec les autres collègues SEO.
  • On a en général un interlocuteur référent (pas besoin de connaître tout le monde).
  • Le fait d'être vu comme un expert par les clients (ça fait du bien à l'égo).
  • Facilité à aller dans les conférences SEO (car bénéfique pour l'agence).

Inconvénients et difficultés à être en agence

  • Des prestations parfois "fire and forget", qui ne sont pas implémentées.
  • Des prestations qu'on aimerait parfois travailler dans la durée.
  • Le manque de temps qui ne permet pas toujours d'aller aussi profond qu'on voudrait.
  • Une moindre connaissance des rouages des entreprises clientes.
  • Les plus gros salaires sont chez l'annonceur (mais tous les annonceurs ne paient pas bien et on peut être très bien payé en agence).

A lire également le sujet : les billets de Florian Bordet et Arnaud Mangasaryan, qui rejoignent sur bien des points ma propre expérience.

Quand l'outil de planification Adwords vous cache des mots-clés

L'outil de planification de Google Adwords est l'une des sources d'inspiration favorite des SEO. Un point trop rarement évoqué cependant est le fait que Google vous cache des mots-clés alors même que celui-ci possède bien des données à leur sujet.

Supposons par exemple que je vende des carrés en soie de la marque Hermès. Une recherche sur "carre hermes" dans l'outil de planification me donne 1300 recherches mensuelles (480 pour la version accentuée de la requête) :

suggestions-carre-1.jpg

Si je fais une recherche sur "carre" tout seul, en toute logique, l'outil devrait me remonter la requête "carre hermes" puisque celle-ci contient le terme "carré". En classant les requêtes par nombre de recherches mensuelles je devrais le trouver facilement puisque je connais son volume. Or ce n'est pas le cas :

suggestions-carre-2.jpg

Ne croyez donc pas qu'en faisant une recherche sur un terme "X" l'outil de planification Adwords va vous retourner l'ensemble des requêtes contenant le terme "X". Vous n'aurez droit qu'à un échantillon, pas forcément représentatif.

Pour une recherche en profondeur sur une thématique, il est donc primordial d'alimenter l'outil de planification avec d'autres termes que le terme principal. Ces termes additionnels pouvant être déterminés à partir de votre offre, de vos données de trafic, d'un brainstorming, de suggestions précédentes de l'outil de planification, de Google suggest (via Ubersuggest) etc... A vous d'être créatifs :)

Combiner des mots-clés facilement avec Excel 2010

Que ce soit dans le cadre de la gestion de campagnes Adwords ou de l'optimisation de son référencement, le besoin de combiner des mots-clés revient assez régulièrement. Des outils dédiés existent pour cette tâche, mais il faut une licence dans le cas des logiciels, et une connexion pour les outils en ligne. La méthode que je vous propose utilise Excel, dans sa version 2010. Excel étant installé sur la majorité des postes professionnels, ce méthode est accessible au plus grand nombre. Cette méthode n'utilise aucune macro, et aucune formule. Le principe est de créer une mini base de donnée qui sera utilisée avec Microsoft Query.

Créez autant de colonnes nommées "tablex" que de groupes de mots à combiner. Par exemple, si vous avez 3 groupes de mots à combiner (type, marque, couleur), vos colonne seront nommées "table1", "table2" et "table3). Immédiatement en dessous donnez un nom explicite à vos colonnes, par exemple "type", "marque" et "couleur". Renseignez ensuite chaque colonne avec tous les mots-clés que vous souhaitez combiner. Vous devriez arriver à quelque chose qui ressemble à ça :

bdd-keywords.JPG

Sélectionnez ensuite pour chaque colonne l'ensemble des cellules qui la composent et appuyez sur Ctrl+Shift+F3 en vous assurant que l'option "ligne du haut" est bien cochée. Enregistrez votre fichier.

Cliquez ensuite dans le bandeau sur Données / Autres sources / Provenance : Microsoft Query, sélectionnez le type de base de donnée Excel files, et ouvrez votre fichier. Dans la boite d'ajout des tables, double-cliquez sur chacune et fermez la boite. Double-cliquez ensuite sur chacun des groupes de mots-clé de vos tables, dans l'ordre dans lequel vous souhaitez qu'ils apparaissent (ici "type" puis "marque" puis "couleur"). Vos combinaisons apparaissent en dessous comme par magie :) Si ce n'est pas le cas, assurez-vous que le bouton "requête automatique" (point d'exclamation cerclé de flèches) est bien activé.

Pour incorporer les combinaisons dans votre feuille de calcul, fermez Microsoft Query, une fenêtre s'ouvrira vous demandant où insérer les données. Vous obtiendrez alors ceci :

bdd-keywords-resultats.JPG

Vous pourrez alors concaténer les colonnes dans Excel ou plus simplement copier-coller les colonnes dans un éditeur de texte type notepad, et remplacer les tabulations par des espaces :)

- page 1 de 2