SEO

Algorithme Google: les facteurs qui comptent réellement

algorithme GoogleLe degré de complexité de l’algorithme de Google est sous-estimé. La période où il suffisait d’agir sur quelques facteurs pour obtenir des résultats est bien révolue. Le SEO, aujourd’hui, doit être approché de façon holistique. J’ai fait un tri dans la grande variété des facteurs qui jouent, actuellement, un rôle.

Travailler dans le référencement consiste, pour une bonne part du job, à découvrir les facteurs qui influent sur vos positions dans les pages de résultats de Google (aussi appelés SERPs). On dit bien « découvrir » car, à l’instar de Coca-cola, Google se garde bien de divulguer la « recette magique » qui fait le succès de son algorithme (questions de protection de secrets industriels et de lutte anti-fraude). Ce travail par tâtonnements amène nécessairement son lot de conceptions erronées; qu’elles proviennent de croyances dépassées ou fausses.

Savez-vous, par exemple, que Google ne se limite plus au contenu ou à la popularité du site, mais qu’il prend en compte d’autres types de signaux comme ceux provenant des réseaux sociaux ou ceux liés au comportement des utilisateurs, ou encore, le niveau de confiance que votre site affiche?

Autrement dit, en 2015, vous n’arriverez pas à améliorer votre référencement en ne travaillant que sur une petite quantité de facteurs.

Pourtant, combien de fois n’entend-t-on pas encore dire que pour obtenir des bonnes positions, il suffit, par exemple, de mettre des mots-clefs dans des tags ou de placer un grand nombre de backlinks sur d’autres sites.
De surcroît, ces facteurs évoluent rapidement. Selon le site Moz, Google modifie sont algorithme de 500 à 600 fois par an. Les mises à jour majeures sont, toutefois, plus rares. Ils portent des noms connus tels que Hummingbird, Panda, Penguin, Caffeine.

« À l’instar de Coca-cola, Google se garde bien de divulguer la « recette magique » qui fait le succès de son algorithme. »

Pour une bonne part, les facteurs qui sont identifiés comme jouant, formellement, un rôle proviennent d’expérimentations ou d’enquêtes menées par des sociétés du référencement (parmi les plus connues, on compte : Moz, Search metrics, SearchEngineLand), ou simplement, de la pratique quotidienne d’experts dans le domaine.

Cette liste est, donc, loin d’être une liste valable scientifiquement, au sens strict. Elle est encore moins une liste officielle publiée par Google. Malgré tout, elle permet :
1/ de mieux appréhender la complexité du fonctionnement des moteurs de recherche. Une bonne compréhension du fonctionnement des moteurs de recherche est un préalable essentiel à tout travail de référencement.
2/ d’adopter une approche holistique, multifactorielle du SEO.

Le référencement en 2015 consiste, donc, plus en une activité de veille permanente de l’actualité des moteurs de recherche, de travail d’optimisation d’une variété de facteurs qu’en un travail de copywriter ou de linkbuilder.
Saviez-vous, par exemple, que Google peut indexer une page sur un mot-clef donné sans que ce dernier ne soit nécessairement présent dans le contenu? Il suffit que Google ait repéré suffisamment de signaux externes pertinents.

Les facteurs déterminants (check-list)

Ils sont, généralement, rangés dans les cinq domaines d’optimisation suivant :

  • Contenu: du contenu de haute qualité, pertinent dont le sujet est clairement identifiable (mots-clefs clairement inclus, contexte cohérent) et présentant un nombre de mots élevé obtient, généralement, de meilleures positions.
    – En particulier, est-ce que le contenu répond affirmativement aux questions suivantes (par ordre d’importance):
    – Les pages sont bien écrites et propose du contenu unique et de qualité?
    – Les mots-clefs utilisés sont recherchés par les utilisateurs des moteurs de recherche?
    – Les mots-clefs sont présents dans les endroits clefs (title tag, H1, body)?
    – Le contenu est fréquemment mis à jour et il fait référence à des questions d’actualités?
    – Est-ce que suffisamment de liens internes sont faits entre les pages du site (surtout de la page d’accueil vers les pages clefs)?
    – D’autres médias comme la vidéo sont-ils présents sur la page?

« Une bonne compréhension des moteurs de recherche est un préalable essentiel. »

  • Technologie et architecture: une infrastructure de site bien optimisée du point de vue technique contribue à un meilleur ranking.
    En particulier, est-ce que l’infrastructure répond affirmativement aux questions suivantes:
    – L’architecture de votre site est-elle organisée avec des répertoires aux thématiques clairement identifiables?
    – Est-ce que des metatags (meta title, meta description, etc.) sont bien présents?
    – Les robots de Google peuvent bien « crawler » les pages du site?
    – Est-ce que les pages mettent peu de temps à se télécharger?
    – L’infrastructure permet-elle de gérer les contenus dupliqués efficacement?
    – Est-ce que les URLs sont courtes et comprennent le/les mots-clefs de la page?
    – Est-ce que le site est compatible avec les terminaux mobiles?
  • Backlinks: La quantité et la qualité des backlinks reste cruciale.
    En particulier, est-ce que les backlinks répondent affirmativement aux questions suivantes:
    – Proviennent-ils de sites de confiance et de qualité?
    – Est-ce qu’ils pointent vers des pages-clefs au point de vue SEO?
    – Les liens contiennent le mot-clef de la page de destination?
    – Y’en a-t-il une grande quantité provenant de sites différents (au point de vue adresse IP et nom de domaine)?
    – Ont-ils été achetés ou proviennent-ils de sites frauduleux?

« Travailler sur une petite quantité de paramètres n’amène pas de résultats probants. »

  • Signaux sociaux: il existe une corrélation entre les mentions qui sont faites de votre site dans les réseaux sociaux et une amélioration des positions.
    En particulier, est-ce que les signaux sociaux répondent affirmativement aux questions suivantes:
    – Est-ce que les “likes”, “shares”, “tweets”, commentaires etc. donnent l’impression que votre site est un site de référence?
    – Est-ce que les mentions proviennent de sources qui font autorité dans leur domaine respectif?
    – Est-ce que vos contenus sont beaucoup partagés dans les réseaux sociaux?
    – Est-ce que les votes et évaluations faites quant à la qualité de vos produits ou services sont globalement positives?
  • Signaux des utilisateurs: Moins connus, les signaux provenant de l’interaction des utilisateurs avec votre site sont, également, pris en compte et peuvent jouer un rôle dans l’amélioration des positions.
    En particulier, est-ce que les signaux sociaux répondent affirmativement aux questions suivantes:
    – Le click-through rate (ratio clicks/impressions) de vos pages dans les résultats organiques est élevé?
    – Est-ce que vos contenus sont lus ou consultés (metrics utilisés: bounce rate, temps passé sur la page)?
    – Est-ce que vos visiteurs reviennent vers votre site après l’avoir visité une première fois?

Cette liste n’est pas exhaustive mais elle permet de bien baliser le travail de référencement en priorisant et diversifiant les champs d’action.

Publicités
Par défaut
SEO

Optimisation des sites Web : Google met le paquet pour aider les webmasters

Beaucoup d’experts du digital ignorent tout – ou presque – de son existence. Pourtant, il est une vraie mine d’or pour optimiser son site pour les moteurs de recherche et les humains.

Le centre d’aide pour webmasters – appelé « Google webmaster central » – existe déjà depuis quelques années, certes. Mais il est bon de savoir que son offre s’est considérablement étoffée ces dernières années, le rendant quasi incontournable pour l’exercice de ces métiers.
On y trouve un nombre impressionnant de précieuses ressources pouvant servir à améliorer la performance et la visibilité des sites Web dans « Google search »; et notamment, des explications très utiles sur la manière dont Google fonctionne pour crawler, indexer et classer les sites Web dans ses résultats de recherche.

Qu’est-ce qui se trouve dans le centre d’aide pour webmasters?

  • un blog : la source d’informations officielle pour les nouveautés et annonces liées à « Google search ». Donc, certainement un « must » pour qui souhaite rester à la page dans le domaine. Cependant, il est important de noter que, pour des raisons évidentes, Google ne rend publique que les informations les moins « sensibles ». Si vous voulez être au courant de toute l’actualité du « search », il faudra, donc, compléter par d’autres sources.
  • un canal YouTube dont le but est de vous aider à mieux comprendre comment « Google search » fonctionne. Vous trouverez plein de réponses à des questions que des experts dans le domaine se posent régulièrement ainsi que la présentation des nouveaux outils du centre.
  • un forum sur lequel des contributeurs zélés tentent de répondre aux questions les plus pointues.
  • les hangouts Google + : chat vidéo, organisé 1 à 3 fois par semaine, où il est possible de poser des questions et de donner son feed-back à un expert de l’équipe Google webmasters. C’est le moyen le plus direct pour interpeller Google sur un sujet qui vous tracasse. Il convient d’éviter des questions vagues ou inappropriées, du genre : « Comment puis-je positionner mon site à la première place des résultats de recherche? ».
  • une formation en ligne : appelée webmaster academy, elle permet d’apprendre : des trucs et astuces pour créer un site répondant aux critères de qualité de Google, comment Google search et Google webmaster tools fonctionnent. Vous y trouverez, également, des quizz et d’autres ressources utiles. Il s’agit de la ressource la plus indiquée pour les personnes ne disposant pas d’expérience dans le domaine.
  • un centre d’aide
  • un guide SEO
  • une suite d’outils : appelée « Google webmasters tools », il s’agit de la pièce maîtresse de ce centre d’aide. Ces outils permettent de réaliser des diagnostics de votre site et offrent des informations très utiles pour optimiser les trois étapes-clefs du processus de livraison de résultats de recherche : le crawl, l’indexation de votre site par les robots de Google et la présentation des résultats dans « Google search ».

Qu’est-ce que Google webmasters tools permet d’accomplir?

1. Optimisation de l’exploration
Pour que Google puisse indexer votre site de manière optimale, il faut qu’il puisse accéder à toutes ses pages sans entraves. C’est pourquoi il est important de veiller à ce que ce processus se passe bien. Sous la section « exploration » ou « crawl » (en anglais), vous trouverez:

  • des rapports donnant les erreurs détectées (erreur de serveur, page non trouvée, accès refusé),
  • des statistiques sur le nombre de pages explorées par jour,
  • des outils pour tester le fichier robots.txt,
  • un outil pour gérer le traitement des URLs via leurs paramètres.
  • une entrée pour y introduire un sitemap (Il permet de signaler des pages de votre site que Google n’aurait peut-être pas détectées.)

Enfin, vous pouvez voir le contenu exact que les robots de Google explorent sur une page donnée.

2. Optimisation de l’indexation
Une fois que Google a parcouru votre site, il traite et indexe les pages en fonction des mots trouvés dans celles-ci. Il est important de veiller à ce que vos pages soient bien indexées (ou l’inverse si vous désirez que certaines d’entre elles ne s’y retrouvent pas). Sous la section « Google Index », vous trouvez:

  • un rapport vous signalant le nombre de pages indexées et l’évolution de ce nombre dans le temps. C’est le meilleur moyen pour savoir si le site est, généralement, trouvable dans Google,
  • un autre rapport vous indiquant les mots-clefs les plus proéminents qu’il a trouvés,
  • une fonctionnalité permettant d’introduire des demandes de suppression d’URL de l’index.

« Il ne faut pas s’attendre à y trouver l’entièreté des techniques exploitées en référencement. »

3. Amélioration de l’apparence de votre site dans les résultats de recherche
Google utilise différentes balises HTML présentes dans votre code pour présenter les extraits de votre site dans les moteurs de recherche. En optimisant des éléments comme le titre, la description, vous pouvez augmenter votre visibilité dans les résultats de Google ; et, par conséquent, le taux de clics vers votre site. Sous la section « apparence de votre site dans les résultats de recherche » :

  • vous apprenez quels sont les éléments pris en compte par Google et lesquels d’entre eux posent problèmes au niveau de votre site,
  • vous apprenez comment afficher vos données dans les résultats de recherche de façon plus attrayante et sous d’autres formes (via le marqueur de données),
  • vous pouvez rétrograder des liens sitelink s’affichant automatiquement sous le résultat de recherche principal de votre site.

dashboard Google Webmaster Tools

4. Analyse du trafic de recherche et des backlinks
Inutile de rappeler quel est l’intérêt de contrôler le trafic provenant de Google ainsi que les liens externes pointant vers votre site. Sous la section « Trafic de recherche », des rapports vous détaillent:

  • les requêtes utilisées pour atteindre votre site ainsi que le nombre de fois qu’elles ont été tapées,
  • le nombre de clics,
  • les « landing pages »,

À noter que les données pour ces 3 éléments ne sont disponibles que pour les 3 derniers mois. Mais il existe des outils qui permettent d’exporter  ces données régulièrement pour garder un historique.

  • quels sont les sites qui pointent vers votre site,
  • les liens existant entre les pages internes du site.

Google y signale, également, les pénalités ainsi que les actions manuelles à entreprendre dans le cas où il a détecté des tentatives de fraude sur une de vos pages web. Cet outil est, particulièrement, utile quand on sait quel degré d’importance le géant de la recherche Internet accorde à la lutte anti-spam.

De plus, Google vient de lancer une fonctionnalité destinée à évaluer l’implémentation des balises Hreflang. Pour les sites proposant des versions dans une même langue mais pour des pays différents, ces balises servent à signaler à Google quelle langue, mais également, le pays spécifique visé et ciblé par chaque version du site. GWT indique si des balises de renvoi sont manquantes et si des valeurs sont incorrectes (plus d’info).

Il est utile de préciser que le rapport

5. Surveillance des attaques informatiques

Cette suite a aussi, récemment, été complétée par un mécanisme de surveillance de logiciels malveillants qui pourraient contaminés votre site. Si votre site a été piraté, sous la section « message »: vous trouverez certains détails sur l’attaque et les problèmes de sécurité. Vous pourrez aussi trouver des moyens pour solutionner certains problèmes. Plus d’info

 

À la vue du nombre impressionnant de ces ressources, il est logique de se demander pourquoi le géant de Mountain View investi autant pour aider les webmasters – allant même jusqu’à dédier une équipe d’experts au développement de ce centre?

En aidant les webmasters à améliorer la performance et la qualité des sites, c’est, bien-sûr, la valeur de son propre service de livraison de résultats de recherche que Google cherche à accroître – particulièrement, en faisant la promotion des pratiques de référencement considérées comme non frauduleuses par Google (appelées « white hat » dans le jargon). Dès lors, il ne faut pas s’attendre à y trouver l’entièreté des techniques exploitées en référencement …

D’ailleurs, il faut souligner que Google fait des efforts pour internationaliser ces ressources. La plupart sont disponibles dans divers langues ; notamment, en français et en néerlandais.
Notons encore que toutes ces ressources sont entièrement gratuites. Elles n’attendent, donc, que votre bon vouloir pour être exploitées.
Pour y accéder, rendez-vous à cette adresse : https://www.google.com/webmasters/ {voir l’encadré, pour un accès plus direct aux diverses ressources}.


Comment activer Google webmasters tools

1. Connectez-vous aux outils Google pour les webmasters à l’aide de votre compte Google via cette adresse: https://www.google.com/webmasters/tools/
2. Cliquez sur le bouton « Ajouter un site » et saisissez l’URL du site à ajouter. Veillez à saisir l’URL complète, par exemple http://www.example.com/.
3. Cliquez sur « Continuer ». La page de validation du site s’affiche.
4. Choisissez la méthode de validation souhaitée, puis suivez les instructions. Plusieurs types de validation existent :
a. Téléchargement (upload) sur le serveur d’un fichier HTML
b. Ajout d’une balise HTML
c. Via votre compte Google Analytics ou Google Tag Manager
d. Via connexion à votre nom de domaine
Cette étape sert à s’assurer que vous êtes bien l’administrateur du site.
5. Cliquez sur « Valider »

Par défaut
SEO, stratégie de contenu

Remplacement du générateur de mots-clefs Adwords : amélioration?

Outil indispensable pour les experts en référencement, le Keyword tool a subit un important re-lifting. Qu’est-ce qui a changé avec le nouvel outil de recherche des volumes de requêtes?

Le générateur de mots-clefs (plus connu sous le nom de « Keyword tool ») est très utilisé par les experts car il permet de savoir si un mot-clef vaut la peine d’être inclus dans une campagne d’optimisation pour les moteurs de recherche en livrant les volumes de recherche qu’enregistrent ce mot-clef. Il offre aussi des suggestions de mots-clefs issus de recherches connexes.

On devrait dire « était » car le générateur de mots-clefs a fermé ses portes.

Il a été remplacé par un outil de planification des mots-clés (‘’keyword planner’’).

La raison officielle invoquée par Google est qu’ils ont voulu « combiner le « keyword tool » et l’estimateur de trafic en un outil afin de rendre la planification de campagnes plus facile.

Mais les spécialistes du référencement suspectent encore Google de leur mettre des bâtons dans les roues. Vu que, pour y accéder, il faut, maintenant, disposer d’un compte Adwords.

Heureusement pour nous, il ne faut pas avoir des campagnes qui tournent pour l’utiliser (ce qui aurait impliqué de devoir engager des budgets). Il suffit, donc, d’ouvrir un compte. Et c’est (re-)parti!

Quels sont les changements ?

Le nouvel outil se trouve toujours dans le menu « Outils et analyse ».

interface menu keyword tool

Jusque là rien de changé.

Cependant, la suite de la découverte risque d’être plus aventureuse vu les quelques changements opérés à l’interface. C’est pourquoi une visite guidée des lieux peut vous faire gagner du temps.

La page d’accueil ne donne plus directement à l’outil.

Trois options s’offrent à nous :

1/ Rechercher des idées de mots-clefs et de groupe d’annonces

2/ Saisir ou importer des mots-clefs afin d’examiner leurs performances

3/ Multiplier les listes de mots-clefs

Choisissez la première option. Vous retrouvez un ensemble d’options et de champs à paramétrer.

Limitez-vous à ne remplir que le champs de saisie des mots-clés avec votre liste de mots-clefs (séparés par une virgule ou un retour à la ligne) et paramétrez le ciblage sur la langue et le pays requis.

Pas la peine de chercher à paramétrer le type de correspondance (ou ‘match type’) sur exact (lisez plus loin, si vous voulez savoir pourquoi).

Une fois le bouton « Obtenir des idées » cliqué, vous obtenez l’écran suivant.

écran de résultats keyword planner tool

Ce n’est pas fini. Car ce premier écran vous propose les volumes de recherche par groupe de mots-clefs. Cette liste de groupe est une liste prédéfinie par Google. Si vous voulez accéder à votre propre liste de mots-clefs, il vous faudra encore cliquer sur le tab intitulé « idées de mots-clefs ». Vous arrivez ainsi à l’écran de résultats habituel.

écran de résultats final keyword planner tool

C’est là que ça se corse!

Si vous comparez les volumes obtenus par l’ancien outil avec ceux obtenus par le nouvel outil, vous remarquerez des différences. Lesquelles et pourquoi?

1/ Type de correspondance par défaut: Le keyword tool montrait les données en mode requête large (ou « Broad match ») par défaut alors que le keyword planner montre les données en exact par défaut .

2/ Supports informatiques pris en compte: Le 1er outil se limitait aux données provenant des recherches effectuées via desktops et laptops alors que le nouvel outil montre les données pour tout type de devices (mobiles et tablettes inclus).

3/ Limitation à 50 du nombre de mots-clés par analyse : alors que l’ancien outil était moins limitatif.

Je trouve que ce dernier changement est le plus contraignant des trois car il oblige le référenceur à effectuer plus de manipulations pour de grandes listes de mots-clefs.

Plus d’infos sur les différences entre le keyword planner et le keyword tool

Amélioration ou régression: n’hésitez pas à dire ce que vous pensez de ce changement.

Par défaut
Google, SEO

Comment le référencement vertical devient incontournable

Compétition peu active, visibilité accrue, coûts bas, attraction de nouveaux leads plus qualifiés, etc. les moteurs de recherche verticaux offrent de multiples opportunités pour le référencement. Pourtant ils sont sous-exploités par les sociétés désireuses d’accroître leur présence dans les moteurs de recherche. Selon les experts, leur popularité grandissante représente une tendance lourde du marché.

La plupart du temps quand il s’agit de référencer un site dans un moteur de recherche, on se tourne automatiquement vers « Google search » dont le but est d’indexer les pages présentes sur le Web pour, ensuite, retourner des résultats ordonnés suite à des requêtes sans distinction des types de contenus. À côté des moteurs de recherche dits « généralistes » ou « universels », il existe une multitude de moteurs spécialisés dans un type de contenus Web. Ils sont appelés moteurs de recherche verticaux et ils sont emplacement accès vertical search enginesbasés sur le sujet (chimie, industrie) ou le type de média (vidéos, images, blogs) ou le genre de contenus (lieux géographiques, magasins, actualités). Les personnes cherchant une information liée à un média ou à un sujet particulier ont intérêt à utiliser les outils de recherche verticale. Car, le nombre de contenus présents en ligne accroissant constamment, les bénéfices sont évidents : gains de temps, plus grande précision dans les résultats. Mais ce n’est pas tout, ils offrent aussi des fonctionnalités spécifiques au type de contenu sélectionné. On pense, notamment, aux préférences de recherche et aux informations spécifiques aux types de contenus qu’on peut trouver dans les résultats et qui aident l’internaute à déterminer plus précisément la pertinence des éléments présentés. Sur la page d’accueil du portail Google, ils sont accessibles via le bandeau noir localisé tout en haut de la page.

Pourquoi augmenter sa visibilité dans les moteurs verticaux ?

Ces outils de recherche représentent des opportunités à saisir pour améliorer sa visibilité dans les moteurs de recherche à bien des égards.
Tout d’abord, ils sont utilisés par les internautes. Pour des raisons évidentes de confidentialité, Google ne livre pas de statistiques précises permettant de se rendre compte de leur popularité. Mais on sait, par exemple, qu’environ une recherche sur cinq serait orientée vers un objet local (mot-clef + localité, par exemple). Les services susceptibles d’être utilisés sont Google + local et Google maps.
Amazon devient un des moteurs de recherche principaux pour l’achat de produits aux États-Unis. Une étude de Forrester a montré que 30% des acheteurs en ligne américains utilisaient Amazon en premier lieu pour rechercher un bien de consommation.
Ensuite, parce que Google intègre, depuis quelques années, les résultats provenant des moteurs verticaux à ceux de la recherche universelle. Cette intégration donne ce qu’on appelle dans le jargon : l’« Universal search ». Le géant de la recherche sur le Web se base sur son expérience des requêtes et du sens des mots pour déterminer quels « résultats verticaux » seraient susceptibles d’être mélangés aux résultats « classiques ». Prenons l’exemple du terme «Mulholland Drive Hollywood » : en plus de désigner une chaussée située à Hollywood (Los Angeles), « Mulholland Drive » est le titre d’un film de David Lynch.

« Toute personne cherchant une information liée un sujet particulier a plutôt intérêt à utiliser les outils de recherche verticale. »

En tapant cette requête dans Google Search, on trouve des résultats provenant de trois moteurs de recherche verticaux différents en première page! Tout en haut, il y a la « onebox » de Google maps reprenant une sélection de lieux présents dans l’entité « Mulholland Drive » avec une carte du lieu dans la colonne de droite. Plus bas, on trouve la « onebox » de Google Image présentant des images du lieu, et enfin, une vidéo du lieu postée sur YouTube. recherche universelle
De là, on peut en déduire que Google prévoit que l’utilisateur cherche à:

1/ localiser l’endroit;
2/ trouver des lieux intéressants à visiter;
3/ trouver une description et/ou un historique du lieu;
3/ se représenter visuellement à quoi ressemble le lieu.

Un autre exemple illustrant bien cette technique: en tapant le mot-clef « Afghanistan», on trouvera un bloc de résultats provenant de «Google actualités» sur la première page ainsi qu’une vidéo.
Pour décider de remplacer un résultat de recherche classique (menant vers une page Web) par un résultat vertical, Google procède au cas par cas. Si un résultat provenant de Google places est plus pertinent qu’un résultat classique, Google remplace ce dernier par un résultat vertical.

La version de Google États-Unis offre plus de variété car Google dispose d’une plus grande variété de moteurs de recherche spécifiques à certains domaines comme : les recettes de cuisines, les magasins en ligne, les vols d’avions.

« Environ une recherche sur cinq serait orientée vers un objet local. »

Il faut s’attendre à voir une plus grande mixité des résultats dans les versions européennes à l’avenir.
Selon l’expert Dany Sullivan de Search Engine Land cette tendance est générale et va s’amplifier dans le futur : « La première génération des moteurs se focalisait sur les mots présents dans le contenu pour référencer une page. La seconde génération des moteurs tirait parti de l’analyse des liens. La troisième génération prend en compte les données provenant des utilisateurs (activités dans les réseaux sociaux, visites/clicks, etc.) et cherche à rendre la recherche plus verticale. »

D’ailleurs les deux principaux concurrents, Bing et Yahoo! disposent aussi de moyens de recherche verticaux qu’ils intègrent également dans leur moteur principal.
Dès lors, optimiser sa présence dans les moteurs verticaux présente un avantage collatéral évident : il permet d’accroître ses chances d’être repris dans le moteur de recherche le plus utilisé.

Enfin, comme Forrester le relève bien, « le SEM via les moteurs verticaux est un antidote à la compétition grandissante qui sévit dans le domaine du marketing des moteurs de recherche rendant plus difficile le référencement aussi bien dans les résultats naturels que payant (augmentation des coûts par clics, stagnation des taux de conversion, etc.). Il fournit des nouvelles opportunités de génération de trafic et de leads sur des segments niches très peu exploités. »

Pas qu’une question de positionnement

La manière dont Google met en avant les résultats visuellement via les snippets peut aussi avoir un impact sur le click-through-rate (CTR), et donc, les conversions selon le célèbre blog de référencement SEOmoz.
Tout d’abord un petit détour pour expliquer ce que sont des « snippets » et quelle est leur utilité. Les snippets sont les informations extraites d’une page Web par un moteur de recherche qui composent un résultat dans un moteur de recherche. snippet SEO
Ils permettent de se faire une idée sur la page référencée en mettant en avant de manière visuelle, par exemple, des produits, des prix et des évaluations rapidement. Ils servent à aider les internautes à leurs donner plus d’informations sur le contenu de la page référencée sans que ceux-ci ne doivent clicker.
C’est un moyen dont les webmasters disposent pour de se démarquer de la compétition en optimisant leurs pages afin de youtube référencement verticalmettre en avant certains contenus clefs. Selon une enquête de Moz, 20 à 30 % des sociétés enquêtées ont vu leur CTR augmenter après avoir optimiser des snippets relatifs à leurs pages Web.
Les snippets des résultats verticaux prennent une autre forme que ceux des résultats classiques. Ce qui accroît les chances d’attirer plus l’attention. Par exemple, un résultat provenant de YouTube intègrera une image de la vidéo, contrairement à un résultat classique qui ne comporte que du texte.
Un résultat provenant de Google places intègrera un visuel des évaluations postée par les utilisateurs de Google places ainsi qu’une localisation sur la carte.

global search- pizza bruxelles

Google places, un must pour toute société à implantation locale

Nous avons choisi de vous présenter des informations permettant d’augmenter votre visibilité et votre positionnement dans Google places (maps). Car il s’agit d’un moyen incontournable pour toute société ou profession devant faire sa promotion au niveau local. C’est le cas, par exemple, des chaînes de fast-food ou d’un dentiste.

Le développement du moteur de recherche local est une priorité pour Google. Selon le géant de la recherche sur Internet, une recherche sur cinq serait orientée vers un objet local : par exemple, la recherche d’un vendeur de pizza situé à Bruxelles. C’est pourquoi ce service de Google a fortement évolué ces dernières années.  places-pizzas-bruxellesGoogle offre la possibilité de lier la page « Google plus local » aux résultats de recherche. Google plus local permet aux prospects de recommander, partager, évaluer, trouver la route et de vous localiser. Résultat : certaines informations comme les notes, les avis (ainsi que leur nombre) laissés par les utilisateurs de Google plus, une vidéo, le logo, l’adresse de l’établissement postée par le propriétaire de l’établissement sont reprises dans les résultats de Google maps.

La première étape consiste à s’inscrire dans l’annuaire à cette adresse (www.google.com/business/placesforbusiness) en introduisant toutes les données requises.

Top 8 des facteurs jouant un rôle dans le référencement (selon David Mimh, spécialiste en SEO local):

1. Avoir une adresse physique dans la ville sur laquelle la recherche est effectuée.

2. Le propriétaire de la page Google place a été identifié comme étant le bon (après vérification manuelle).

3. Association à une bonne catégorie d’activité

4. Nombre d’avis exprimés par des personnes ayant été dans l’établissement

5. Correspondance entre l’adresse physique présente sur le site de la société et l’adresse mentionnée dans Google Places.

6. Mention de la localité dans le titre de la landing page Google Places

7. Mention du terme recherché (par exemple : « Pizza » dans « Pizza Bruxelles ») dans le texte des avis exprimés

8. Qualité et autorité des avis publiés sur d’autres sites reconnus comme Yelp.com.

Par défaut
marketing de contenu, Relation publique 2.0, SEO

Pourquoi la communication en temps réel va-t-elle révolutionner les relations publiques?

Qui croit encore que les journalistes attendent sagement assis sur leur siège de bureau que les chargés des relations publiques leur envoient leurs communiqués ? Ce n’est certainement pas le cas de David Meerman Scott. Dans son dernier livre, ce spécialiste de la communication nous explique comment s’assurer une couverture médiatique importante avec peu de moyens.

D’un côté, il y a un modèle de relations publiques, de marketing qui est de moins en moins en phase avec un monde en perpétuelle évolution.
D’un autre, il y a les dernières évolutions technologiques qui ouvrent un nouveau monde de possibilités aux professionnels de la communication.

Il n’en fallait pas plus pour faire germer une idée astucieuse de technique de marketing dans la tête d’un expert en relations publiques américain. Pour l’auteur du livre « Newsjacking », les règles ont radicalement changé.

Les règles ont changé
Le marketing traditionnel implique qu’il faille mettre en place une campagne selon un script, un timing et une statégie préétabli. Alors que la sphère publique n’attend pas que l’organisation déroule les actions de sa campagne pour suivre son cours. Un discours soigneusement élaboré peut être mis en pièce en une après-midi par une nouvelle ou une action de nature à contrecarrer les plans d’une organisation. On se souvient, par exemple, comment Greenpeace a détourné une publicité du constructeur automobile Volkswagen en 2011. L’ONG a créé une vidéo exploitant, comme la pub originale, les héros de l’épopée cinématographique ‘’Star Wars’’. On y voit des Jedis voulant arrêter Dark Vador et « l’étoile noire » portant le logo de Volkswagen qui veut détruire ces derniers. Cette vidéo a été vue un grand nombre de fois sur le Web et l’action de Greenpeace a fait les gros titres des sites de presse et des blogs, venant ainsi voler la vedette au spot télévisé diffusé par Volkswagen.

« La stratégie fonctionne à l’envers de la manière dont le monde fonctionne. Car le monde change sans cesse. » D.M. Scott

David Meerman Scott pense que toute organisation peut tirer parti de ce qu’il appelle le «newsjacking» (littéralement : «vol de nouvelles») pour tirer la couverture médiatique vers elle. Nous vivons dans un monde où l’information est diffusée 24h/24h, 7 jours sur 7, 365 jours sur 365. Chaque heure ou chaque minute offre son lot d’histoires et d’évènements nouveaux. Quand un nouvel événement se produit, les journalistes se mettent à scanner le Web via Google, Twitter, les feeds RSS, les blogs afin de trouver des informations supplémentaires leur permettant d’écrire leurs articles. C’est à ce moment précis que les chargés de relations publiques doivent passer à l’action. Comment? En offrant des informations de première main aux journalistes.

Une assurance contre les attaques de crocodiles pour Obama
Une compagnie d’assurance australienne a ainsi profité de la venue d’Obama en novembre 2011 pour lui offrir une couverture assurance contre les attaques de crocodiles. Les journalistes et bloggers qui étaient en manque de nouvelles « croustillantes » sur cet événement se sont fait une joie de relayer cette annonce dans leurs publications. Couverture médiatique assurée! »

Une campagne de publicité aurait couté bien plus cher, aurait pris des mois à concevoir et à exécuter, et n’aurait peut-être pas eu le même succès.

Ce genre d’action est rendu possible par le fait que le Web permette à chacun d’atteindre une audience très large avec peu de moyens.

Réussir son « newsjacking»
Mais, pour réussir son « newsjacking », il est essentiel que deux conditions soient remplies:

1/ Agir rapidement : Le moment opportun pour « newsjacker » est très éphémère. Il a lieu juste après qu’une nouvelle surgisse (ce que les américains appellent ‘breaking news’). C’est pourquoi, la rapidité d’exécution est cruciale dans ce processus.

2/ Offrir une information de valeur : Lorsqu’une nouvelle encore non traitée par les journalistes apparaît, ces derniers manquent d’informations pour répondre à toutes les questions (quoi ? qui ? comment ? où ? pourquoi ?, etc.). Le tout est de leur fournir la dimension manquante à la couverture complète de l’évènement.
Scott prévient : « Tout le monde ayant une information crédible peut devenir une source d’information pour la presse. »

Pour plus d’info, lire:
“Newsjacking: How to Inject your Ideas into a Breaking News Story and Generate Tons of Media Coverage.” de David Meerman Scott (éditions John Wiley & Sons)


« Newsjacker » en 3 étapes

Vous êtes convaincu que le newsjacking peut offrir des avantages pour faire votre publicité? Voici comment David Meerman Scott propose de procéder:

1/ Trouvez une nouvelle à exploiter: surveiller les mots-clefs ‘tendance, suivre les journalistes et publications de presse, suivre les hashtags sur Twitter.

2/ Mettez en place une stratégie: Est-ce que votre organisation possède l’état d’esprit pour réagir en temps réel? Est-ce que votre organisation a des liens avec la nouvelle? Pourquoi les médias devraient attacher de l’importance à ce que vous allez communiquer?

3/ Agissez en publiant une information pertinente en rapport avec la nouvelle sur votre blog, sur votre compte Twitter (en utilisant le hashtag établi); en envoyant une alerte media en temps réel; en réalisant une conférence de presse; en contactant directement un journaliste qui serait intéressé.

Par défaut
SEO

Référencement: l’obtention d’un bon ranking n’est pas une fin en soi

Les pages de votre site ont de bonnes positions dans Google. Sachez qu’il ne s’agit que d’un bon départ car le référencement ne s’arrête pas là. Une bonne position n’est rien d’autre qu’une opportunité pour augmenter l’acquisition de trafic et de leads. Voyons comment faire pour en tirer parti.

Lorsque la question du référencement d’un site est abordée, il est principalement question de l’obtention de bonnes positions dans les résultats des moteurs de recherche. Or, cet objectif ne se trouve qu’à mi-chemin de l’objectif ultime du SEO qui est l’acquisition de leads, de clients, de lecteurs. Bien évidemment, en SEO le parcours vers les conversions ne peut débuter si aucune page ne se trouve dans les premiers résultats des moteurs de recherche. C’est pourquoi cette étape reste cruciale. Ce serait un peu comme vouloir faire du saut à la perche sans perche.

Mais une fois que vous avez atteint cet objectif pour certains mots-clefs, il est indispensable de passer à l’étape suivante c’est-à-dire à l’évaluation du trafic généré pour détecter les points d’optimisation.

Voici comment procéder:

Première chose à faire: vérifier les pages de vos sites qui sont bien positionnées (c’est-à-dire entre la première et la 10ème position).

Vous pouvez le vérifier en faisant une simple recherche dans un moteur de recherche sur le mot-clef. Bien qu’il ne s’agit pas de la manière la plus fiable de le faire car Google tient compte de différents facteurs comme l’historique de vos recherches, votre géolocalisation ou de vos préférences de recherche pour personnaliser les résultats présentés. Vous risqueriez bien de trouver de fortes variations dans la position d’une page en fonction de ces différentes variables. C’est pourquoi il est conseillé d’utiliser un logiciel tiers qui vous donnera les positions moyennes de vos pages (exemples de logiciels: SEOMOZ, rankchecker).

Deuxième chose à faire: vérifier si les bonnes positions amènent du trafic

  Les pages ayant de bonnes positions dans les moteurs de recherche sont celles qui sont susceptibles d’amener du trafic sur votre site. Dès lors, il est important de vérifier si celles-ci amènent du trafic? Pour cela vous devez installer Google Analytics sur votre site. Une fois que c’est fait, vous devez vous diriger vers le rapport ‘landing pages’ sous la catégorie SEO qui se trouve elle-même dans la section ‘traffic sources’. Vous y trouverez toutes les pages sur lesquelles du trafic provenant des résultats naturels de Google aboutit ainsi que les impressions (nombre de fois que le résultat est présenté lors des recherches exécutées), le nombre de clicks, la position moyenne et le click-through-rate.

Troisième chose à faire: optimiser les positions qui ramènent peu ou pas de trafic

Si vous ne trouvez pas les pages qui ont des bonnes positions dans le rapport ‘landing pages’ ou si vous voyez que celles-ci n’enregistrent que peu de visites (clicks), ceci peut être dû à deux raisons:

  • soit votre page n’est pas pertinente pour les internautes en regard de leur recherche,
  • soit les balises ‘meta title’ et ‘meta description’ qui apparaissent dans les résultats ne sont pas rédigées de manière attrayante.

Dans le premier cas, il faut revoir votre stratégie SEO, plus spécifiquement le mot-clef choisit pour optimiser le contenu de la page pour les moteurs de recherche en vous posant la question: est-ce que c’est bien ce contenu que les gens vont rechercher en tapant le mot-clef.

Dans le deuxième cas, il faut revoir le copy des balises en gardant en tête l’impératif d’attraction de l’attention et d’éveil de l’intérêt des internautes. Veillez à ce que votre copy ne dépasse pas le nombre de signes maximum pouvant être affiché sur les pages de résultats.

Quatrième chose à faire: vérifier le niveau d’adhésion (ou d’ ‘engagement’) du trafic et les conversions générées

Pour pouvoir mesurer le niveau d’adhésion du trafic par page et par mot-clef, il est nécessaire de mettre en place un ‘custom report’ dans Google Analytics. Pour ce faire, allez sous l’onglet ‘custom reporting’ et créez un rapport avec comme dimension primaire ‘keyword’ et comme dimension secondaire ‘landing page’, et, avec comme metrics ‘visites’, ‘bounce rate’, ‘average time on page’ ainsi que les ‘goals’ de votre site. N’oubliez pas d’y ajouter un filtre pour n’inclure que le trafic organique.

Vous obtiendrez ainsi une vue en profondeur de votre trafic SEO qui vous permettra d’évaluer son niveau d’adhésion et les conversions générées par mot-clef et par landing page. Un conseil: ne vous concentrez que sur les mots-clés pertinents au regard de votre stratégie.

Cinquième chose à faire: optimiser les pages qui génèrent un niveau d’adhésion et de conversion insatisfaisant

  Listez les pages importantes générant un nombre conséquent de visites avec des durées de visite plus basse que la moyenne et un bounce rate plus élevé que celle-ci et avec un taux de conversion particulièrement bas. Vérifiez pour chacune de ces pages si le terme recherché qui a amené des visites est pertinent au regard du contenu de la page.

Si ce n’est pas le cas, il faut travailler le contenu de ces pages de manière à ce qu’il réponde mieux aux attentes des internautes:

  • Concentrez-vous sur l’amélioration de l’expérience utilisateur en prenant en compte la logique de l’entonnoir de conversion. La première étape de l’entonnoir étant les balises ‘meta title’ et ‘meta description’ sur lesquelles les visiteurs ont clické afin d’arriver sur la landing page.
  • Demandez-vous : si le copy est rédigé de manière à susciter le désir et l’envie de passer à l’acte (demander un rendez-vous, acheter, s’abonner), si le call-to-action est visible et bien placé.
  • S’il s’agit de pages clefs, n’hésitez pas à réaliser un A/B test avec une version alternative de la page pour voir si cette dernière converti mieux que l’originale. N’hésitez pas aussi à faire appel à un spécialiste en ergonomie.

Par défaut
SEO

Search University 2012: les enseignements clefs

Le marketing des moteurs de recherche est un domaine qui reste difficilement pénétrable par la majorité des entreprises. Le fait qu’il s’agisse d’une discipline très technique qui a énormément évolué depuis ses débuts – jusqu’à épouser, récemment, de contours totalement neufs – n’y est pas pour rien.

Dans le même temps, ces mêmes entreprises savent bien qu’elles ne peuvent se passer d’une visibilité dans les moteurs de recherche; d’où, le besoin grandissant d’espaces pour vulgariser le savoir issu de cette discipline. Cela s’est traduit par une hausse de 50% des inscriptions à la 4ème édition de la Search University, principale conférence organisée dans le domaine en juin dernier en Belgique. Preuve, s’il en fallait une, qu’il y a un manque à combler.

Les interventions se sont articulées autour de deux thématiques clefs du moment: l’optimisation pour les moteurs de recherche (SEO) via le contenu et les réseaux sociaux, d’un côté; et l’optimisation des grands sites, de l’autre.

Le contenu et les réseaux sociaux, stars incontestables

Les dernières modifications majeures de l’algorithme de Google (Panda, Pinguin) ont eu comme but de combattre la suroptimisation et de priviligier les résultats de qualité. Résultat des courses: les techniques traditionnelles de référencement sont en perte de vitesse.

Alors, comment faire pour réorienter la stratégie SEO? Selon Koen Verbrugge de l’agence gantoise Wijs, l’équation ‘’mots-clefs X rankings = résultats’’ n’est plus pertinente. ‘’Pour réussir, il faut adopter une stratégie de contenu efficace qui se focalise sur les points suivant: la pertinence en regard des besoins du public et la plannification des mises à jour.

En somme, il faut qu’elle permette de créer les contenus répondant aux besoins de l’audience visée et que celui-ci soit placé au bon endroit et au bon moment.

Gabriel Goldberg de l’agence Semetis a, lui, insisté sur l’importance d’adopter une approche du SEO à long terme et de monitorer l’impact des efforts réalisés sur le trafic du site au moyen des analytics. Il a pris l’exemple de semetis.be qui aurait quadruplé le traffic SEO en 3 ans grâce, notamment, à la publication régulière de contenus.

Aussi, comme Google tient compte des réseaux sociaux pour juger de la pertinence d’un contenu, il faut que la stratégie inclue la création de contenu pour les utilisateurs des réseaux sociaux.

Faire du SEO pour un site multilingue ou multirégional

Gérer les aspects liés au référencement pour des sites de taille importante peut rapidement devenir un vrai casse-tête. La difficulté peut provenir du fait que votre site s’adresse à des audiences localisées dans différentes régions géographiques ou utilisant différentes langues.

Christoffel Hiltermann, en charge de l’assistance aux webmasters chez Google, a donné quelques trucs et astuces pour mettre en place une stratégie SEO multirégionale et multilingue efficace. Google tente de détecter la langue ciblée par une page pour améliorer la pertinence des résultats de recherche.

Dès lors, il est important de faire en sorte que la langue de chaque page soit facilement identifiable par Google. Il faut, par exemple, que chaque page inclue du texte provenant d’une seule langue sinon Google risque d’attribuer la page à l’autre langue présente sur la page. Chaque page de chaque version linguistique doit avoir une URL spécifique. Il a aussi conseillé d’envisager de placer des liens sur vos pages pour passer d’une langue à une autre.

Dans le même but d’amélioration de la qualité de son service, Google tente de détecter le pays ciblé par un site. Les éléments pris en compte par Google pour effectuer cette détection sont les domaines nationaux de premier niveau (par exemple: .be pour la Belgique, .de pour l’Allemagne), la localisation géographique du serveur via son adresse IP, d’autres indices comme des numéros de téléphone, des addresses, des langues, etc.

Alors, que se passe-t-il quand le site est mis sur un domaine générique non rattaché à un pays(.com, .org, .eu) ? Google propose un outil qui permet de lui spécifier quelle zone géographique le site cible.

Vous trouverez plus d’infos sur ce sujet sur le centre d’aide pour les webmasters de Google.

 

Par défaut