Google, SEO

Comment le référencement vertical devient incontournable

Compétition peu active, visibilité accrue, coûts bas, attraction de nouveaux leads plus qualifiés, etc. les moteurs de recherche verticaux offrent de multiples opportunités pour le référencement. Pourtant ils sont sous-exploités par les sociétés désireuses d’accroître leur présence dans les moteurs de recherche. Selon les experts, leur popularité grandissante représente une tendance lourde du marché.

La plupart du temps quand il s’agit de référencer un site dans un moteur de recherche, on se tourne automatiquement vers « Google search » dont le but est d’indexer les pages présentes sur le Web pour, ensuite, retourner des résultats ordonnés suite à des requêtes sans distinction des types de contenus. À côté des moteurs de recherche dits « généralistes » ou « universels », il existe une multitude de moteurs spécialisés dans un type de contenus Web. Ils sont appelés moteurs de recherche verticaux et ils sont emplacement accès vertical search enginesbasés sur le sujet (chimie, industrie) ou le type de média (vidéos, images, blogs) ou le genre de contenus (lieux géographiques, magasins, actualités). Les personnes cherchant une information liée à un média ou à un sujet particulier ont intérêt à utiliser les outils de recherche verticale. Car, le nombre de contenus présents en ligne accroissant constamment, les bénéfices sont évidents : gains de temps, plus grande précision dans les résultats. Mais ce n’est pas tout, ils offrent aussi des fonctionnalités spécifiques au type de contenu sélectionné. On pense, notamment, aux préférences de recherche et aux informations spécifiques aux types de contenus qu’on peut trouver dans les résultats et qui aident l’internaute à déterminer plus précisément la pertinence des éléments présentés. Sur la page d’accueil du portail Google, ils sont accessibles via le bandeau noir localisé tout en haut de la page.

Pourquoi augmenter sa visibilité dans les moteurs verticaux ?

Ces outils de recherche représentent des opportunités à saisir pour améliorer sa visibilité dans les moteurs de recherche à bien des égards.
Tout d’abord, ils sont utilisés par les internautes. Pour des raisons évidentes de confidentialité, Google ne livre pas de statistiques précises permettant de se rendre compte de leur popularité. Mais on sait, par exemple, qu’environ une recherche sur cinq serait orientée vers un objet local (mot-clef + localité, par exemple). Les services susceptibles d’être utilisés sont Google + local et Google maps.
Amazon devient un des moteurs de recherche principaux pour l’achat de produits aux États-Unis. Une étude de Forrester a montré que 30% des acheteurs en ligne américains utilisaient Amazon en premier lieu pour rechercher un bien de consommation.
Ensuite, parce que Google intègre, depuis quelques années, les résultats provenant des moteurs verticaux à ceux de la recherche universelle. Cette intégration donne ce qu’on appelle dans le jargon : l’« Universal search ». Le géant de la recherche sur le Web se base sur son expérience des requêtes et du sens des mots pour déterminer quels « résultats verticaux » seraient susceptibles d’être mélangés aux résultats « classiques ». Prenons l’exemple du terme «Mulholland Drive Hollywood » : en plus de désigner une chaussée située à Hollywood (Los Angeles), « Mulholland Drive » est le titre d’un film de David Lynch.

« Toute personne cherchant une information liée un sujet particulier a plutôt intérêt à utiliser les outils de recherche verticale. »

En tapant cette requête dans Google Search, on trouve des résultats provenant de trois moteurs de recherche verticaux différents en première page! Tout en haut, il y a la « onebox » de Google maps reprenant une sélection de lieux présents dans l’entité « Mulholland Drive » avec une carte du lieu dans la colonne de droite. Plus bas, on trouve la « onebox » de Google Image présentant des images du lieu, et enfin, une vidéo du lieu postée sur YouTube. recherche universelle
De là, on peut en déduire que Google prévoit que l’utilisateur cherche à:

1/ localiser l’endroit;
2/ trouver des lieux intéressants à visiter;
3/ trouver une description et/ou un historique du lieu;
3/ se représenter visuellement à quoi ressemble le lieu.

Un autre exemple illustrant bien cette technique: en tapant le mot-clef « Afghanistan», on trouvera un bloc de résultats provenant de «Google actualités» sur la première page ainsi qu’une vidéo.
Pour décider de remplacer un résultat de recherche classique (menant vers une page Web) par un résultat vertical, Google procède au cas par cas. Si un résultat provenant de Google places est plus pertinent qu’un résultat classique, Google remplace ce dernier par un résultat vertical.

La version de Google États-Unis offre plus de variété car Google dispose d’une plus grande variété de moteurs de recherche spécifiques à certains domaines comme : les recettes de cuisines, les magasins en ligne, les vols d’avions.

« Environ une recherche sur cinq serait orientée vers un objet local. »

Il faut s’attendre à voir une plus grande mixité des résultats dans les versions européennes à l’avenir.
Selon l’expert Dany Sullivan de Search Engine Land cette tendance est générale et va s’amplifier dans le futur : « La première génération des moteurs se focalisait sur les mots présents dans le contenu pour référencer une page. La seconde génération des moteurs tirait parti de l’analyse des liens. La troisième génération prend en compte les données provenant des utilisateurs (activités dans les réseaux sociaux, visites/clicks, etc.) et cherche à rendre la recherche plus verticale. »

D’ailleurs les deux principaux concurrents, Bing et Yahoo! disposent aussi de moyens de recherche verticaux qu’ils intègrent également dans leur moteur principal.
Dès lors, optimiser sa présence dans les moteurs verticaux présente un avantage collatéral évident : il permet d’accroître ses chances d’être repris dans le moteur de recherche le plus utilisé.

Enfin, comme Forrester le relève bien, « le SEM via les moteurs verticaux est un antidote à la compétition grandissante qui sévit dans le domaine du marketing des moteurs de recherche rendant plus difficile le référencement aussi bien dans les résultats naturels que payant (augmentation des coûts par clics, stagnation des taux de conversion, etc.). Il fournit des nouvelles opportunités de génération de trafic et de leads sur des segments niches très peu exploités. »

Pas qu’une question de positionnement

La manière dont Google met en avant les résultats visuellement via les snippets peut aussi avoir un impact sur le click-through-rate (CTR), et donc, les conversions selon le célèbre blog de référencement SEOmoz.
Tout d’abord un petit détour pour expliquer ce que sont des « snippets » et quelle est leur utilité. Les snippets sont les informations extraites d’une page Web par un moteur de recherche qui composent un résultat dans un moteur de recherche. snippet SEO
Ils permettent de se faire une idée sur la page référencée en mettant en avant de manière visuelle, par exemple, des produits, des prix et des évaluations rapidement. Ils servent à aider les internautes à leurs donner plus d’informations sur le contenu de la page référencée sans que ceux-ci ne doivent clicker.
C’est un moyen dont les webmasters disposent pour de se démarquer de la compétition en optimisant leurs pages afin de youtube référencement verticalmettre en avant certains contenus clefs. Selon une enquête de Moz, 20 à 30 % des sociétés enquêtées ont vu leur CTR augmenter après avoir optimiser des snippets relatifs à leurs pages Web.
Les snippets des résultats verticaux prennent une autre forme que ceux des résultats classiques. Ce qui accroît les chances d’attirer plus l’attention. Par exemple, un résultat provenant de YouTube intègrera une image de la vidéo, contrairement à un résultat classique qui ne comporte que du texte.
Un résultat provenant de Google places intègrera un visuel des évaluations postée par les utilisateurs de Google places ainsi qu’une localisation sur la carte.

global search- pizza bruxelles

Google places, un must pour toute société à implantation locale

Nous avons choisi de vous présenter des informations permettant d’augmenter votre visibilité et votre positionnement dans Google places (maps). Car il s’agit d’un moyen incontournable pour toute société ou profession devant faire sa promotion au niveau local. C’est le cas, par exemple, des chaînes de fast-food ou d’un dentiste.

Le développement du moteur de recherche local est une priorité pour Google. Selon le géant de la recherche sur Internet, une recherche sur cinq serait orientée vers un objet local : par exemple, la recherche d’un vendeur de pizza situé à Bruxelles. C’est pourquoi ce service de Google a fortement évolué ces dernières années.  places-pizzas-bruxellesGoogle offre la possibilité de lier la page « Google plus local » aux résultats de recherche. Google plus local permet aux prospects de recommander, partager, évaluer, trouver la route et de vous localiser. Résultat : certaines informations comme les notes, les avis (ainsi que leur nombre) laissés par les utilisateurs de Google plus, une vidéo, le logo, l’adresse de l’établissement postée par le propriétaire de l’établissement sont reprises dans les résultats de Google maps.

La première étape consiste à s’inscrire dans l’annuaire à cette adresse (www.google.com/business/placesforbusiness) en introduisant toutes les données requises.

Top 8 des facteurs jouant un rôle dans le référencement (selon David Mimh, spécialiste en SEO local):

1. Avoir une adresse physique dans la ville sur laquelle la recherche est effectuée.

2. Le propriétaire de la page Google place a été identifié comme étant le bon (après vérification manuelle).

3. Association à une bonne catégorie d’activité

4. Nombre d’avis exprimés par des personnes ayant été dans l’établissement

5. Correspondance entre l’adresse physique présente sur le site de la société et l’adresse mentionnée dans Google Places.

6. Mention de la localité dans le titre de la landing page Google Places

7. Mention du terme recherché (par exemple : « Pizza » dans « Pizza Bruxelles ») dans le texte des avis exprimés

8. Qualité et autorité des avis publiés sur d’autres sites reconnus comme Yelp.com.

Par défaut
Web analytics

Web analytics : 3 questions à se poser pour trouver l’outil idéal

Le choix d’une solution de Web analytics n’est pas une mince affaire tant les critères sur lesquels se baser ne sautent pas aux yeux. Il n’en reste pas moins qu’il s’agit d’une étape cruciale dans votre stratégie analytics. Plus encore, l’outil que vous allez choisir déterminera en grande partie la réussite de vos actions marketing.

Dans son dernier livre, le guru incontestable des Web analytics, Avinash Kaushik, préconise de commencer par mener une « introspection approfondie » afin de mieux comprendre ses besoins et de savoir quelles informations exiger de la part des éditeurs de solutions Web analytics.

Ces solutions logicielles sont par essence complexes. Il existe bon nombre de solutions sur le marché qui disposent de possibilités quasi infinies pour récolter, segmenter et formater les données. En voulant viser trop haut, par exemple,  le risque est grand de se munir d’une solution disproportionnée par rapport aux besoins, et, de perdre un temps précieux dans sa mise en place et dans la compréhension de toutes ses fonctionnalités.

En vous connaissant mieux (on entend par là : votre organisation, bien-entendu), vous éviterez bien des écueils. Car, vous saurez mieux faire le tri entre tous les services que peuvent-vous rendre chacun de ces outils.

« Peu de choses auront autant d’incidence sur vos chances de réussite que le choix de l’outil adapté. » Avinash Kaushik

Bien souvent, les sociétés investissent beaucoup dans la solution logicielle. Alors que ce n’est pas tant l’outil lui-même mais les ressources qui vont s’en servir qui feront le succès de l’outil.  Lors de l’établissement de votre stratégie, il est important de chercher à s’entourer des personnes qui ont les compétences techniques adéquates. Car c’est, elles, qui seront le mieux habilitées à déterminer les critères de sélection pertinents pour vous.

  1. La première question que Kaushik propose de se poser est : « Est-ce que je veux des rapports ou des analyses ». Certains outils offrent des fonctionnalités plus poussées dans l’un ou l’autre champ d’activité des Web analytics ou bien dans les deux champs simultanément. Une organisation qui a juste besoin de distribuer des données à un certain nombre d’employés, aura surtout besoin d’un outil efficace en reporting. On pense, par exemple, à des fonctionnalités telles que l’envoi de rapports automatisés ou la génération de rapports multiples, enrichis de graphiques à l’esthétique soignée (par exemple : histogrammes en polychrome).Pour une autre organisation, il sera essentiel de tirer parti du comportement de ses visiteurs pour entreprendre des modifications de sa stratégie. Cette dernière devra se tourner vers un outil aux fonctionnalités analytiques enrichies. Un tel outil devrait permettre, entre autres, de segmenter et de comparer facilement les données ainsi que de les traiter sur des périodes reculées dans le temps.Cependant, il ne sert à rien d’envisager l’acquisition d’un tel outil sans investir dans les services d’un analyste. Seule une personne qui a de l’expérience dans l’analyse de données saura comment en tirer parti.
  2. Une autre question à se poser tourne autour de votre force informatique : « Dispose-je des compétences informatiques nécessaires. » Car la réussite de la mise en place d’une infrastructure Web analytics passe par une implémentation technique réussie de l’outil. On pense, notamment, à l’implémentation des divers codes nécessaires à la collecte des données sur le site Web. Dans le cas où vous désirez héberger la collecte et l’analyse de données en interne (avec, par exemple, Urchin, Webtrends ou Unica NetInsight), vous aurez, alors, besoin d’une force informatique considérable pour y parvenir.Si vous ne disposez pas des compétences en informatique nécessaires, il faudra prévoir un budget pour faire appel à une agence de consultants externes. Dans le livre du même auteur intitulé, « Web analytics : An Hour A Day », Kaushik propose des recommandations utiles quant au type d’implication précis requis lorsqu’on fait appel à un cabinet de conseil externe.
  3. Enfin, une dernière question décisive à se poser, selon Kaushik, est : « Jusqu’où veux-je aller dans ma stratégie Web analytics ».Cela ne sert à rien d’acheter un outil de tous les superlatifs, si on dispose ni des compétences, ni de l’état d’esprit nécessaire à l’exploitation de son plein potentiel. Si tout ce que vous cherchez est la compréhension des « flots de clics » (c’est-à-dire qui clicke sur quoi ?), un simple analyseur d’historique serveur fera l’affaire.Si vous avez besoin de comprendre l’expérience de vos visiteurs de manière explicite afin, d’ensuite, influencer leur comportement, vous aurez besoin d’un outil qui vous aide à comprendre la signification des clics. Dans ce cas, il faudra qu’il intègre des sources de données d’origines diverses – provenant de systèmes ERP ou CRM de votre entreprise, d’un système de sondage en ligne et de votre éditeur de solutions de test A/B ou multi variable.

En conclusion, « les critères que vous prenez en compte varient considérablement en fonction de votre situation actuelle, de votre point de vue et de votre approche. » Le tout consiste à mettre à jour suffisamment ces trois éléments en se posant les bonnes questions.

Livre : « Web analytics 2.0 » d’Avinash Kaushik (édition Seyroles)
www.kaushik.net

Web Analytics 2.0


Par défaut
marketing de contenu, Relation publique 2.0, SEO

Pourquoi la communication en temps réel va-t-elle révolutionner les relations publiques?

Qui croit encore que les journalistes attendent sagement assis sur leur siège de bureau que les chargés des relations publiques leur envoient leurs communiqués ? Ce n’est certainement pas le cas de David Meerman Scott. Dans son dernier livre, ce spécialiste de la communication nous explique comment s’assurer une couverture médiatique importante avec peu de moyens.

D’un côté, il y a un modèle de relations publiques, de marketing qui est de moins en moins en phase avec un monde en perpétuelle évolution.
D’un autre, il y a les dernières évolutions technologiques qui ouvrent un nouveau monde de possibilités aux professionnels de la communication.

Il n’en fallait pas plus pour faire germer une idée astucieuse de technique de marketing dans la tête d’un expert en relations publiques américain. Pour l’auteur du livre « Newsjacking », les règles ont radicalement changé.

Les règles ont changé
Le marketing traditionnel implique qu’il faille mettre en place une campagne selon un script, un timing et une statégie préétabli. Alors que la sphère publique n’attend pas que l’organisation déroule les actions de sa campagne pour suivre son cours. Un discours soigneusement élaboré peut être mis en pièce en une après-midi par une nouvelle ou une action de nature à contrecarrer les plans d’une organisation. On se souvient, par exemple, comment Greenpeace a détourné une publicité du constructeur automobile Volkswagen en 2011. L’ONG a créé une vidéo exploitant, comme la pub originale, les héros de l’épopée cinématographique ‘’Star Wars’’. On y voit des Jedis voulant arrêter Dark Vador et « l’étoile noire » portant le logo de Volkswagen qui veut détruire ces derniers. Cette vidéo a été vue un grand nombre de fois sur le Web et l’action de Greenpeace a fait les gros titres des sites de presse et des blogs, venant ainsi voler la vedette au spot télévisé diffusé par Volkswagen.

« La stratégie fonctionne à l’envers de la manière dont le monde fonctionne. Car le monde change sans cesse. » D.M. Scott

David Meerman Scott pense que toute organisation peut tirer parti de ce qu’il appelle le «newsjacking» (littéralement : «vol de nouvelles») pour tirer la couverture médiatique vers elle. Nous vivons dans un monde où l’information est diffusée 24h/24h, 7 jours sur 7, 365 jours sur 365. Chaque heure ou chaque minute offre son lot d’histoires et d’évènements nouveaux. Quand un nouvel événement se produit, les journalistes se mettent à scanner le Web via Google, Twitter, les feeds RSS, les blogs afin de trouver des informations supplémentaires leur permettant d’écrire leurs articles. C’est à ce moment précis que les chargés de relations publiques doivent passer à l’action. Comment? En offrant des informations de première main aux journalistes.

Une assurance contre les attaques de crocodiles pour Obama
Une compagnie d’assurance australienne a ainsi profité de la venue d’Obama en novembre 2011 pour lui offrir une couverture assurance contre les attaques de crocodiles. Les journalistes et bloggers qui étaient en manque de nouvelles « croustillantes » sur cet événement se sont fait une joie de relayer cette annonce dans leurs publications. Couverture médiatique assurée! »

Une campagne de publicité aurait couté bien plus cher, aurait pris des mois à concevoir et à exécuter, et n’aurait peut-être pas eu le même succès.

Ce genre d’action est rendu possible par le fait que le Web permette à chacun d’atteindre une audience très large avec peu de moyens.

Réussir son « newsjacking»
Mais, pour réussir son « newsjacking », il est essentiel que deux conditions soient remplies:

1/ Agir rapidement : Le moment opportun pour « newsjacker » est très éphémère. Il a lieu juste après qu’une nouvelle surgisse (ce que les américains appellent ‘breaking news’). C’est pourquoi, la rapidité d’exécution est cruciale dans ce processus.

2/ Offrir une information de valeur : Lorsqu’une nouvelle encore non traitée par les journalistes apparaît, ces derniers manquent d’informations pour répondre à toutes les questions (quoi ? qui ? comment ? où ? pourquoi ?, etc.). Le tout est de leur fournir la dimension manquante à la couverture complète de l’évènement.
Scott prévient : « Tout le monde ayant une information crédible peut devenir une source d’information pour la presse. »

Pour plus d’info, lire:
“Newsjacking: How to Inject your Ideas into a Breaking News Story and Generate Tons of Media Coverage.” de David Meerman Scott (éditions John Wiley & Sons)


« Newsjacker » en 3 étapes

Vous êtes convaincu que le newsjacking peut offrir des avantages pour faire votre publicité? Voici comment David Meerman Scott propose de procéder:

1/ Trouvez une nouvelle à exploiter: surveiller les mots-clefs ‘tendance, suivre les journalistes et publications de presse, suivre les hashtags sur Twitter.

2/ Mettez en place une stratégie: Est-ce que votre organisation possède l’état d’esprit pour réagir en temps réel? Est-ce que votre organisation a des liens avec la nouvelle? Pourquoi les médias devraient attacher de l’importance à ce que vous allez communiquer?

3/ Agissez en publiant une information pertinente en rapport avec la nouvelle sur votre blog, sur votre compte Twitter (en utilisant le hashtag établi); en envoyant une alerte media en temps réel; en réalisant une conférence de presse; en contactant directement un journaliste qui serait intéressé.

Par défaut
SEO

Référencement: l’obtention d’un bon ranking n’est pas une fin en soi

Les pages de votre site ont de bonnes positions dans Google. Sachez qu’il ne s’agit que d’un bon départ car le référencement ne s’arrête pas là. Une bonne position n’est rien d’autre qu’une opportunité pour augmenter l’acquisition de trafic et de leads. Voyons comment faire pour en tirer parti.

Lorsque la question du référencement d’un site est abordée, il est principalement question de l’obtention de bonnes positions dans les résultats des moteurs de recherche. Or, cet objectif ne se trouve qu’à mi-chemin de l’objectif ultime du SEO qui est l’acquisition de leads, de clients, de lecteurs. Bien évidemment, en SEO le parcours vers les conversions ne peut débuter si aucune page ne se trouve dans les premiers résultats des moteurs de recherche. C’est pourquoi cette étape reste cruciale. Ce serait un peu comme vouloir faire du saut à la perche sans perche.

Mais une fois que vous avez atteint cet objectif pour certains mots-clefs, il est indispensable de passer à l’étape suivante c’est-à-dire à l’évaluation du trafic généré pour détecter les points d’optimisation.

Voici comment procéder:

Première chose à faire: vérifier les pages de vos sites qui sont bien positionnées (c’est-à-dire entre la première et la 10ème position).

Vous pouvez le vérifier en faisant une simple recherche dans un moteur de recherche sur le mot-clef. Bien qu’il ne s’agit pas de la manière la plus fiable de le faire car Google tient compte de différents facteurs comme l’historique de vos recherches, votre géolocalisation ou de vos préférences de recherche pour personnaliser les résultats présentés. Vous risqueriez bien de trouver de fortes variations dans la position d’une page en fonction de ces différentes variables. C’est pourquoi il est conseillé d’utiliser un logiciel tiers qui vous donnera les positions moyennes de vos pages (exemples de logiciels: SEOMOZ, rankchecker).

Deuxième chose à faire: vérifier si les bonnes positions amènent du trafic

  Les pages ayant de bonnes positions dans les moteurs de recherche sont celles qui sont susceptibles d’amener du trafic sur votre site. Dès lors, il est important de vérifier si celles-ci amènent du trafic? Pour cela vous devez installer Google Analytics sur votre site. Une fois que c’est fait, vous devez vous diriger vers le rapport ‘landing pages’ sous la catégorie SEO qui se trouve elle-même dans la section ‘traffic sources’. Vous y trouverez toutes les pages sur lesquelles du trafic provenant des résultats naturels de Google aboutit ainsi que les impressions (nombre de fois que le résultat est présenté lors des recherches exécutées), le nombre de clicks, la position moyenne et le click-through-rate.

Troisième chose à faire: optimiser les positions qui ramènent peu ou pas de trafic

Si vous ne trouvez pas les pages qui ont des bonnes positions dans le rapport ‘landing pages’ ou si vous voyez que celles-ci n’enregistrent que peu de visites (clicks), ceci peut être dû à deux raisons:

  • soit votre page n’est pas pertinente pour les internautes en regard de leur recherche,
  • soit les balises ‘meta title’ et ‘meta description’ qui apparaissent dans les résultats ne sont pas rédigées de manière attrayante.

Dans le premier cas, il faut revoir votre stratégie SEO, plus spécifiquement le mot-clef choisit pour optimiser le contenu de la page pour les moteurs de recherche en vous posant la question: est-ce que c’est bien ce contenu que les gens vont rechercher en tapant le mot-clef.

Dans le deuxième cas, il faut revoir le copy des balises en gardant en tête l’impératif d’attraction de l’attention et d’éveil de l’intérêt des internautes. Veillez à ce que votre copy ne dépasse pas le nombre de signes maximum pouvant être affiché sur les pages de résultats.

Quatrième chose à faire: vérifier le niveau d’adhésion (ou d’ ‘engagement’) du trafic et les conversions générées

Pour pouvoir mesurer le niveau d’adhésion du trafic par page et par mot-clef, il est nécessaire de mettre en place un ‘custom report’ dans Google Analytics. Pour ce faire, allez sous l’onglet ‘custom reporting’ et créez un rapport avec comme dimension primaire ‘keyword’ et comme dimension secondaire ‘landing page’, et, avec comme metrics ‘visites’, ‘bounce rate’, ‘average time on page’ ainsi que les ‘goals’ de votre site. N’oubliez pas d’y ajouter un filtre pour n’inclure que le trafic organique.

Vous obtiendrez ainsi une vue en profondeur de votre trafic SEO qui vous permettra d’évaluer son niveau d’adhésion et les conversions générées par mot-clef et par landing page. Un conseil: ne vous concentrez que sur les mots-clés pertinents au regard de votre stratégie.

Cinquième chose à faire: optimiser les pages qui génèrent un niveau d’adhésion et de conversion insatisfaisant

  Listez les pages importantes générant un nombre conséquent de visites avec des durées de visite plus basse que la moyenne et un bounce rate plus élevé que celle-ci et avec un taux de conversion particulièrement bas. Vérifiez pour chacune de ces pages si le terme recherché qui a amené des visites est pertinent au regard du contenu de la page.

Si ce n’est pas le cas, il faut travailler le contenu de ces pages de manière à ce qu’il réponde mieux aux attentes des internautes:

  • Concentrez-vous sur l’amélioration de l’expérience utilisateur en prenant en compte la logique de l’entonnoir de conversion. La première étape de l’entonnoir étant les balises ‘meta title’ et ‘meta description’ sur lesquelles les visiteurs ont clické afin d’arriver sur la landing page.
  • Demandez-vous : si le copy est rédigé de manière à susciter le désir et l’envie de passer à l’acte (demander un rendez-vous, acheter, s’abonner), si le call-to-action est visible et bien placé.
  • S’il s’agit de pages clefs, n’hésitez pas à réaliser un A/B test avec une version alternative de la page pour voir si cette dernière converti mieux que l’originale. N’hésitez pas aussi à faire appel à un spécialiste en ergonomie.

Par défaut
Web analytics

Quelle est la valeur générée par vos actions marketing?

Le Web donne accès à une quantité importante de données sur les utilisateurs. Pour autant qu’elles soient bien exploitées, ces dernières peuvent servir pour piloter la stratégie marketing. Voyons comment faire en sorte de baser les décisions marketing sur les données au moyen de Google Analytics.

“50 pourcent de l’argent de l’argent que je dépense dans le marketing est gaspillé; le problème est que je ne sais pas de quelle moitié il s’agit” aurait dit un jour, John Wanamaker, un pionier américain du marketing.

La bonne nouvelle c’est qu’aujourd’hui, avec les dernières avancées technologiques, cette affirmation n’a quasi plus lieu d’être. Grâce aux Web analytics, il est désormais possible de connaître avec précision et instantanément la valeur générée par les sites Web ou par les actions marketing.

Car ne l’oublions pas: le but de toute entreprise est de faire de l’argent. Dès lors, il est important de mesurer ce que rapporte chaque investissement. Les actions marketing sont des investissements qui doivent rapporter de l’argent, au même titre que les dépenses du département commercial. Si vous ne veillez pas à ce qu’elles rencontrent leurs objectifs, vous risqueriez de perdre votre temps et votre argent, préviennent sans cesse les spécialistes des metrics.

ROI, arme de destruction massive

Le retour sur investissement (ROI), ou, pour être plus précis, le retour sur investissement marketing (ROMI) est une mesure cruciale à cet égard. Car c’est cette mesure qui permet d’établir le degré de rentabilité d’une action. C’est particulièrement vrai pour les petites entreprises pour lesquelles toute dépense dans la promotion doit se traduire en profit.

Un exemple de calcul du ROMI: vous vendez des logiciels à 100 euros pièce. Vous en faites la promotion via une campagne de bannering qui vous coûte 500 euros. De combien de logiciels vendus aurez-vous besoin pour atteindre le seuil de rentabilité? La réponse est cinq. Mais, pour avoir un rendement positif c’est-à-dire un ROI plus important. Il vous faudra en vendre plus que cinq.

Cette notion n’est pas de mise dans la pratique quotidienne de beaucoup de spécialistes du marketing. Pourtant, en calculant le ROI pour chaque campagne, ceux-ci disposent d’un moyen puissant pour optimiser leur mix media.

« Ne pas veiller pas à ce que vos actions rencontrent leurs objectifs, c’est risquer de perdre de l’argent. »

Par ailleurs, dans des temps économiques difficiles, il est d’autant plus important d’avoir un moyen pour justifier les investissements auprès de son management. Surtout que l’idée selon laquelle les dépenses marketing sont superflues et peuvent être réduites sans problème est toujours bien présente dans la tête de certains dirigeants.

Cependant, le calcul du ROI pour chaque action n’est pas une chose aisée à réaliser. Pour un grand nombre d’actions marketing telles que l’affichage dans les lieux publics, les spots TV ou radio, il est très difficile d’attribuer directement la création de revenus à l’action en question. Ce qui a changé avec le marketing dit “à la performance’’, c’est que cette liaison est beaucoup plus aisée.

Alors, comment s’y prendre?

1/ Tout d’abord, il faut établir les objectifs de conversion de votre site (ou ‘goals’ en langage Web analytics). Ceux-ci se trouvent en répondant à la question: quelle(s) action(s) voulez-vous que vos visiteurs realise(nt) avant de quitter votre site. Dites-vous que tout site à un ou des objectifs; même s’il s’agit d’un site purement informatif. Sinon à quoi servirait-il, d’ailleurs? Des exemples de ‘goal’ sur votre site sont: la ‘thank you page’ (page apparaissant après avoir rempli un formulaire), la page de confirmation d’une réservation, la page indiquant le fin du téléchargement d’un document. Une fois les ‘goals’ mis en place dans votre système analytics (nous prendrons ici comme référence le système Google analytics), vous serez capable de voir le taux d’acccomplissement et le nombre d’accomplissements pour chaque goal. Mais ces metrics ne sont pas suffisant pour permettre d’évaluer la valeur générée par vos actions marketing.

2/ C’est pourquoi il faut y ajouter une valeur monétaire. Mais, c’est là que les choses commencent à se corser. Dans le cas d’un site e-commerce, c’est facile. La valeur d’un goal correspond au montant à payer pour acquérir le produit. Dans le cas des sites ‘non e-commerce’, la valeur se détermine moins directement. Par exemple, dans le cas où le site a comme but d’attirer des leads vers les points de ventes physiques. Il faut, alors, déterminer combien vaut, en moyenne, un lead généré en ligne.

“Il n’est pas de grandes victoires sans définir, évaluer, traquer et ajuster en permanence les actions.” Sophie Callies de SO’experts.

Comment? En se basant, par exemple, sur la valorisation des conversions hors ligne. Disons qu’une vente vaut en moyenne 400 euros et qu’environ un lead sur dix envoyé via le site devient un acheteur. Il ne reste plus qu’à diviser la valeur moyenne d’une vente par le nombre de leads envoyés et vous obtenez la valeur du ‘goal’, c’est-à-dire: 40 dans ce cas-ci. Une fois cette opération accomplie, vous pourrez vous adonner à des analyses sur base d’informations financières grâce aux dizaines de rapports de Google Analytics reprenant ces données. Vous pourrez, entre autres, voir combien de revenus générent un “goal’’, une page, une visite, et surtout, un canal d’acquisition de traffic (Google ads, trafic organique, display, trafic direct, etc.). Mais, vous me direz: ”Cela ne nous donne toujours pas une idée du bénéfice apporté par le site ou la campagne.”

3/ Pour cela, il faut encore ajouter les données relatives à l’investissement. Celles-ci ne sont pas intégrables dans Google analytics, exception faite de Google adwords qui permet d’importer ces données de l’application. Il faut, dès lors, poursuivre l’opération dans une feuille de calcul Excel.

Quels coûts inclure? Les coûts relatifs au media (exemple: espaces loués pour du bannering), les coûts de création, les coûts techniques, le temps de gestion, les coûts de ventes.

4/ Une fois que vous avez le revenu et le montant des coûts, vous êtes en mesure de calculer le ROMI qui est un ratio entre l’argent gagné et l’argent investi. Voici la formule qui permet de le calculer: (revenus – investissement marketing)/investissement marketing X 100

Piloter sa stratégie

Si vous arrivez à obtenir cet indicateur pour chaque action marketing, vous aurez un moyen pour comparer ces dernières entre elles, sans risquer de comparer des pommes et des poires. Vous pourrez ainsi privilégier celles qui génèrent le meilleur résultat.

« En calculant le ROI pour chaque campagne, vous aurez un moyen pour comparer les différentes actions marketing entre elles. »

Mais ne vous arrêtez pas là. Mettez en place des objectifs ROMI à atteindre pour le budget marketing entier et pour les campagnes individuelles. Mettez aussi en place des planchers à ne pas dépasser. Cela vous servira aussi pour établir des plans à l’avance. Par exemple, si le directeur commercial vous demande de ramener x milliers ou x millions d’euros, vous saurez quels leviers activés pour y arriver. D’un autre côté, si vous prévoyez que telle ou telle campagne ne vous permettra pas d’atteindre le seuil, vous saurez qu’il faut éviter de la (ou les) lancer.

Lorsque vous avez ce genre de mesure avec des objectifs, cela vous permet d’être plus confiant dans vos investissements marketing.

Quelques remarques s’imposent..

Premièrement, il est souvent plus aisé de connaitre les coûts d’une campagne marketing que de connaître son revenu. Notamment, parce que les revenus sont souvent difficilement imputables à une action en particulier. Un autre indicateur peut, alors, aider à piloter sa stratégie: le coût par acquisition (CPA). Il se calcule en divisant les coûts de la campagne par le nombre de conversions générées. Il faut garder, cependant, en tête le fait que ce n’est pas parce qu’un CPA est élevé que la campagne est mauvaise. Tout dépend du rapport avec les revenus générés.

Deuxièmement, tout ce qui n’est pas mesurable ne doit pas être mis de côté pour la simple et bonne raison que les retombées ne sont pas directement chiffrables. Les campagnes de branding peuvent, par exemple, offrir des bénéfices indirects bien plus importants en terme de notoriété, mais aussi, en termes financiers.

Troisièment, même si le ROI est un indicateur applicable à plusieurs cas, il vaut mieux comparer le ROI de sources de trafic similaires; par exemple: les réseaux de display entre eux (par exemple: Facebook ads avec Google ads), les affiliés entre eux, les différents réseaux sociaux entre eux.

Quatrièmement, avant d’attribuer un revenu à un canal, il faut s’assurer qu’il n’y ait pas d’autres canaux qui aient servis en amont. Un exemple: une personne ayant vu une bannière faisant la publicité d’un produit sur un site X et qui décide de l’acheter lors d’un passage dans Google. Pour pallier à ce problème Google Analytics propose un ensemble de rapports, appelé “multi-channel funnels”, permettant de mieux tracer la succession de canaux empruntés par les visiteurs avant d’arriver sur votre site.



Votre département marketing est-il centré autour du ROI?

Vérifiez à quel point votre département marketing suit une logique ROI en vous situant par rapport aux trois degrés d’évolution suivant.

1er degré: Vous mesurez la performance d’aucun de vos investissements. Le marketing est conçu comme un coût et non comme investissement. Votre société n’est pas certaine de ce qui fonctionne et il faut se battre pour décrocher des budgets.

2ème degré: Vous calculez le ROI de certains investissements mais vous ne le faites pas systématiquement parce qu’il s’agit d’un exercice qui peut se révéler complexe. Vous avez une idée approximative de la performance de chaque investissement sans savoir exactement quel est le return généré pour chacun d’eux. Quand les temps sont durs, vos budgets sont coupés.

3ème degré: Le ROI de chaque action marketing est mesuré et analysé. Vous investissez dans les actions qui génèrent le meilleur return et vous êtes capable de l’améliorer. Votre organisation comprend les choix que vous faites et vous soutient car vous pouvez démontrer leurs bénéfices.

“50 pourcent de l’argent de l’argent que je dépense dans le marketing est gaspillé; le problème est que je ne sais pas de quelle moitié il s’agit” aurait dit un jour, John Wanamaker, un pionier américain du marketing.

La bonne nouvelle c’est qu’aujourd’hui, avec les dernières avancées technologiques, cette affirmation n’a quasi plus lieu d’être. Grâce aux Web analytics, il est désormais possible de connaître avec précision et instantanément la valeur générée par les sites Web ou par les actions marketing.

Car ne l’oublions pas: le but de toute entreprise est de faire de l’argent. Dès lors, il est important de mesurer ce que rapporte chaque investissement. Les actions marketing sont des investissements qui doivent rapporter de l’argent, au même titre que les dépenses du département commercial. Si vous ne veillez pas à ce qu’elles rencontrent leurs objectifs, vous risqueriez de perdre votre temps et votre argent, préviennent sans cesse les spécialistes des metrics.

ROI, arme de destruction massive

Le retour sur investissement (ROI), ou, pour être plus précis, le retour sur investissement marketing (ROMI) est une mesure cruciale à cet égard. Car c’est cette mesure qui permet d’établir le degré de rentabilité d’une action. C’est particulièrement vrai pour les petites entreprises pour lesquelles toute dépense dans la promotion doit se traduire en profit.

Un exemple de calcul du ROMI: vous vendez des logiciels à 100 euros pièce. Vous en faites la promotion via une campagne de bannering qui vous coûte 500 euros. De combien de logiciels vendus aurez-vous besoin pour atteindre le seuil de rentabilité? La réponse est cinq. Mais, pour avoir un rendement positif c’est-à-dire un ROI plus important. Il vous faudra en vendre plus que cinq.

Cette notion n’est pas de mise dans la pratique quotidienne de beaucoup de spécialistes du marketing. Pourtant, en calculant le ROI pour chaque campagne, ceux-ci disposent d’un moyen puissant pour optimiser leur mix media.

« Ne pas veiller pas à ce que vos actions rencontrent leurs objectifs, c’est risquer de perdre de l’argent. »

Par ailleurs, dans des temps économiques difficiles, il est d’autant plus important d’avoir un moyen pour justifier les investissements auprès de son management. Surtout que l’idée selon laquelle les dépenses marketing sont superflues et peuvent être réduites sans problème est toujours bien présente dans la tête de certains dirigeants.

Cependant, le calcul du ROI pour chaque action n’est pas une chose aisée à réaliser. Pour un grand nombre d’actions marketing telles que l’affichage dans les lieux publics, les spots TV ou radio, il est très difficile d’attribuer directement la création de revenus à l’action en question. Ce qui a changé avec le marketing dit “à la performance’’, c’est que cette liaison est beaucoup plus aisée.

Alors, comment s’y prendre?

1/ Tout d’abord, il faut établir les objectifs de conversion de votre site (ou ‘goals’ en langage Web analytics). Ceux-ci se trouvent en répondant à la question: quelle(s) action(s) voulez-vous que vos visiteurs realise(nt) avant de quitter votre site. Dites-vous que tout site à un ou des objectifs; même s’il s’agit d’un site purement informatif. Sinon à quoi servirait-il, d’ailleurs? Des exemples de ‘goal’ sur votre site sont: la ‘thank you page’ (page apparaissant après avoir rempli un formulaire), la page de confirmation d’une réservation, la page indiquant le fin du téléchargement d’un document. Une fois les ‘goals’ mis en place dans votre système analytics (nous prendrons ici comme référence le système Google analytics), vous serez capable de voir le taux d’acccomplissement et le nombre d’accomplissements pour chaque goal. Mais ces metrics ne sont pas suffisant pour permettre d’évaluer la valeur générée par vos actions marketing.

2/ C’est pourquoi il faut y ajouter une valeur monétaire. Mais, c’est là que les choses commencent à se corser. Dans le cas d’un site e-commerce, c’est facile. La valeur d’un goal correspond au montant à payer pour acquérir le produit. Dans le cas des sites ‘non e-commerce’, la valeur se détermine moins directement. Par exemple, dans le cas où le site a comme but d’attirer des leads vers les points de ventes physiques. Il faut, alors, déterminer combien vaut, en moyenne, un lead généré en ligne.

“Il n’est pas de grandes victoires sans définir, évaluer, traquer et ajuster en permanence les actions.” Sophie Callies de SO’experts.

Comment? En se basant, par exemple, sur la valorisation des conversions hors ligne. Disons qu’une vente vaut en moyenne 400 euros et qu’environ un lead sur dix envoyé via le site devient un acheteur. Il ne reste plus qu’à diviser la valeur moyenne d’une vente par le nombre de leads envoyés et vous obtenez la valeur du ‘goal’, c’est-à-dire: 40 dans ce cas-ci. Une fois cette opération accomplie, vous pourrez vous adonner à des analyses sur base d’informations financières grâce aux dizaines de rapports de Google Analytics reprenant ces données. Vous pourrez, entre autres, voir combien de revenus générent un “goal’’, une page, une visite, et surtout, un canal d’acquisition de traffic (Google ads, trafic organique, display, trafic direct, etc.). Mais, vous me direz: ”Cela ne nous donne toujours pas une idée du bénéfice apporté par le site ou la campagne.”

3/ Pour cela, il faut encore ajouter les données relatives à l’investissement. Celles-ci ne sont pas intégrables dans Google analytics, exception faite de Google adwords qui permet d’importer ces données de l’application. Il faut, dès lors, poursuivre l’opération dans une feuille de calcul Excel.

Quels coûts inclure? Les coûts relatifs au media (exemple: espaces loués pour du bannering), les coûts de création, les coûts techniques, le temps de gestion, les coûts de ventes.

4/ Une fois que vous avez le revenu et le montant des coûts, vous êtes en mesure de calculer le ROMI qui est un ratio entre l’argent gagné et l’argent investi. Voici la formule qui permet de le calculer: (revenus – investissement marketing)/investissement marketing X 100

Piloter sa stratégie

Si vous arrivez à obtenir cet indicateur pour chaque action marketing, vous aurez un moyen pour comparer ces dernières entre elles, sans risquer de comparer des pommes et des poires. Vous pourrez ainsi privilégier celles qui génèrent le meilleur résultat.

« En calculant le ROI pour chaque campagne, vous aurez un moyen pour comparer les différentes actions marketing entre elles. »

Mais ne vous arrêtez pas là. Mettez en place des objectifs ROMI à atteindre pour le budget marketing entier et pour les campagnes individuelles. Mettez aussi en place des planchers à ne pas dépasser. Cela vous servira aussi pour établir des plans à l’avance. Par exemple, si le directeur commercial vous demande de ramener x milliers ou x millions d’euros, vous saurez quels leviers activés pour y arriver. D’un autre côté, si vous prévoyez que telle ou telle campagne ne vous permettra pas d’atteindre le seuil, vous saurez qu’il faut éviter de la (ou les) lancer.

Lorsque vous avez ce genre de mesure avec des objectifs, cela vous permet d’être plus confiant dans vos investissements marketing.

Quelques remarques s’imposent..

Premièrement, il est souvent plus aisé de connaitre les coûts d’une campagne marketing que de connaître son revenu. Notamment, parce que les revenus sont souvent difficilement imputables à une action en particulier. Un autre indicateur peut, alors, aider à piloter sa stratégie: le coût par acquisition (CPA). Il se calcule en divisant les coûts de la campagne par le nombre de conversions générées. Il faut garder, cependant, en tête le fait que ce n’est pas parce qu’un CPA est élevé que la campagne est mauvaise. Tout dépend du rapport avec les revenus générés.

Deuxièmement, tout ce qui n’est pas mesurable ne doit pas être mis de côté pour la simple et bonne raison que les retombées ne sont pas directement chiffrables. Les campagnes de branding peuvent, par exemple, offrir des bénéfices indirects bien plus importants en terme de notoriété, mais aussi, en termes financiers.

Troisièment, même si le ROI est un indicateur applicable à plusieurs cas, il vaut mieux comparer le ROI de sources de trafic similaires; par exemple: les réseaux de display entre eux (par exemple: Facebook ads avec Google ads), les affiliés entre eux, les différents réseaux sociaux entre eux.

Quatrièmement, avant d’attribuer un revenu à un canal, il faut s’assurer qu’il n’y ait pas d’autres canaux qui aient servis en amont. Un exemple: une personne ayant vu une bannière faisant la publicité d’un produit sur un site X et qui décide de l’acheter lors d’un passage dans Google. Pour pallier à ce problème Google Analytics propose un ensemble de rapports, appelé “multi-channel funnels”, permettant de mieux tracer la succession de canaux empruntés par les visiteurs avant d’arriver sur votre site.



Votre département marketing est-il centré autour du ROI?

Vérifiez à quel point votre département marketing suit une logique ROI en vous situant par rapport aux trois degrés d’évolution suivant.

1er degré: Vous mesurez la performance d’aucun de vos investissements. Le marketing est conçu comme un coût et non comme investissement. Votre société n’est pas certaine de ce qui fonctionne et il faut se battre pour décrocher des budgets.

2ème degré: Vous calculez le ROI de certains investissements mais vous ne le faites pas systématiquement parce qu’il s’agit d’un exercice qui peut se révéler complexe. Vous avez une idée approximative de la performance de chaque investissement sans savoir exactement quel est le return généré pour chacun d’eux. Quand les temps sont durs, vos budgets sont coupés.

3ème degré: Le ROI de chaque action marketing est mesuré et analysé. Vous investissez dans les actions qui génèrent le meilleur return et vous êtes capable de l’améliorer. Votre organisation comprend les choix que vous faites et vous soutient car vous pouvez démontrer leurs bénéfices.

Par défaut
SEO

Search University 2012: les enseignements clefs

Le marketing des moteurs de recherche est un domaine qui reste difficilement pénétrable par la majorité des entreprises. Le fait qu’il s’agisse d’une discipline très technique qui a énormément évolué depuis ses débuts – jusqu’à épouser, récemment, de contours totalement neufs – n’y est pas pour rien.

Dans le même temps, ces mêmes entreprises savent bien qu’elles ne peuvent se passer d’une visibilité dans les moteurs de recherche; d’où, le besoin grandissant d’espaces pour vulgariser le savoir issu de cette discipline. Cela s’est traduit par une hausse de 50% des inscriptions à la 4ème édition de la Search University, principale conférence organisée dans le domaine en juin dernier en Belgique. Preuve, s’il en fallait une, qu’il y a un manque à combler.

Les interventions se sont articulées autour de deux thématiques clefs du moment: l’optimisation pour les moteurs de recherche (SEO) via le contenu et les réseaux sociaux, d’un côté; et l’optimisation des grands sites, de l’autre.

Le contenu et les réseaux sociaux, stars incontestables

Les dernières modifications majeures de l’algorithme de Google (Panda, Pinguin) ont eu comme but de combattre la suroptimisation et de priviligier les résultats de qualité. Résultat des courses: les techniques traditionnelles de référencement sont en perte de vitesse.

Alors, comment faire pour réorienter la stratégie SEO? Selon Koen Verbrugge de l’agence gantoise Wijs, l’équation ‘’mots-clefs X rankings = résultats’’ n’est plus pertinente. ‘’Pour réussir, il faut adopter une stratégie de contenu efficace qui se focalise sur les points suivant: la pertinence en regard des besoins du public et la plannification des mises à jour.

En somme, il faut qu’elle permette de créer les contenus répondant aux besoins de l’audience visée et que celui-ci soit placé au bon endroit et au bon moment.

Gabriel Goldberg de l’agence Semetis a, lui, insisté sur l’importance d’adopter une approche du SEO à long terme et de monitorer l’impact des efforts réalisés sur le trafic du site au moyen des analytics. Il a pris l’exemple de semetis.be qui aurait quadruplé le traffic SEO en 3 ans grâce, notamment, à la publication régulière de contenus.

Aussi, comme Google tient compte des réseaux sociaux pour juger de la pertinence d’un contenu, il faut que la stratégie inclue la création de contenu pour les utilisateurs des réseaux sociaux.

Faire du SEO pour un site multilingue ou multirégional

Gérer les aspects liés au référencement pour des sites de taille importante peut rapidement devenir un vrai casse-tête. La difficulté peut provenir du fait que votre site s’adresse à des audiences localisées dans différentes régions géographiques ou utilisant différentes langues.

Christoffel Hiltermann, en charge de l’assistance aux webmasters chez Google, a donné quelques trucs et astuces pour mettre en place une stratégie SEO multirégionale et multilingue efficace. Google tente de détecter la langue ciblée par une page pour améliorer la pertinence des résultats de recherche.

Dès lors, il est important de faire en sorte que la langue de chaque page soit facilement identifiable par Google. Il faut, par exemple, que chaque page inclue du texte provenant d’une seule langue sinon Google risque d’attribuer la page à l’autre langue présente sur la page. Chaque page de chaque version linguistique doit avoir une URL spécifique. Il a aussi conseillé d’envisager de placer des liens sur vos pages pour passer d’une langue à une autre.

Dans le même but d’amélioration de la qualité de son service, Google tente de détecter le pays ciblé par un site. Les éléments pris en compte par Google pour effectuer cette détection sont les domaines nationaux de premier niveau (par exemple: .be pour la Belgique, .de pour l’Allemagne), la localisation géographique du serveur via son adresse IP, d’autres indices comme des numéros de téléphone, des addresses, des langues, etc.

Alors, que se passe-t-il quand le site est mis sur un domaine générique non rattaché à un pays(.com, .org, .eu) ? Google propose un outil qui permet de lui spécifier quelle zone géographique le site cible.

Vous trouverez plus d’infos sur ce sujet sur le centre d’aide pour les webmasters de Google.

 

Par défaut
SEO

Référencement: doit-on vraiment répéter les mot-clefs autant de fois que possible sur une page Web?

Doit-on vraiment répéter les mot-clefs autant de fois que possible dans son copy pour améliorer son ranking. Autrement dit, le paramètre densité de mots-clefs joue-t-il un rôle important?

À en croire Matt Cutts (spécialiste de la lutte anti-fraude au niveau référencement de Google), non seulement la répétition de mots-clefs, plus de fois qu’il ne le faut, ne joue pas en faveur du ranking d’une page mais il peut carrément jouer en sa défaveur.

 

Par défaut
SEO

Référencement: le “search” devient de plus en plus social

On le sait, les moteurs de recherche tiennent compte des réseaux sociaux pour juger de la pertinence d’un contenu. Cependant, des zones d’ombre subsistent: leur impact sur les résultats des moteurs de recherche est-il réel? Lesquels sont-ils? Et surtout, comment les exploiter pour améliorer son référencement? Voici quelques éclaircissements bien utiles.

Avec l’influence croissante des réseaux sociaux sur le Web, les moteurs de recherche n’ont pu éviter d’adapter leurs algorithmes. Nous avions déjà eu vent de plusieurs partenariats entre les géants de la recherche sur Internet et des réseaux sociaux depuis 2009. Notamment, celui entre Bing et Facebook pour intégrer des informations liées aux “J’aimes” (ou “Likes” en anglais) et aux profils dans les résultats. Ou l’accord qu’ont conclu Google et Twitter afin d’intégrer des tweets dans les résultats de son moteur.

De toute façon, depuis décembre 2010, Bing et Google l’ont annoncé officiellement: des critères liés aux réseaux sociaux (appelés aussi “signaux”) sont pris en compte pour déterminer la pertinence des résultats.

« La promotion d’un contenu faite par une personne connue a plus d’importance que les promotions opérées par des miliers d’étrangers. »

Comme pour la prise en compte des liens, Google croise différents paramètres: entre autres, des critères comme la qualité et l’autorité de la source et la quantité des partages. De manière générale, Google tient plus compte des tweets provenant de personnes influentes que d’autres.

Olivier Duffez met en garde sur son site, “on est encore loin d’avoir inversé le rôle des backlinks et celui des partages (J’aime, +1, RT, etc.) mais Google pourrait très bien utiliser ces derniers pour confirmer le poids des backlinks.

La recette qui marche

Matt Cutts de Google nous livre sa recette pour gagner en visibilité sur le Web dans une de ces livraisons vidéo suivie assidument par les spécialistes du référencement du monde entier.

“Ce qui est important ce que les gens aient envie de faire des liens vers votre site. Pour cela, il faut qu’il y ait des choses attrayantes sur votre site. D’où la première étape est de créer du contenu. La seconde étape est d’utiliser les réseaux sociaux pour en faire la promotion autour de vous”.

Ces quelques conseils ne sont, cependant, pas de nature à contenter les spécialistes du référencement. Ceux de la plateforme Seomoz ont réalisé des tests qui se sont révélés concluants. Ils ont réussi à se placer en première page de Google pour une requête concurrentielle grâce à Twitter.

« La page avec le plus de partages sera la mieux référencée. »

Quelle est la recette? Un tweet incluant les mots-clefs ciblés ainsi qu’un lien vers la page en question. Bien-entendu, il faut que le compte Twitter ait de la notoriété et qu’il soit largement repris sur Twitter. Pas si évident, donc.

“Entre deux pages qui ont le même nombre de liens entrant, mais pas le même nombre de partages dans les réseaux sociaux, la page avec le plus de partages sera la mieux référencée”, confirme ce spécialiste du marketing digital sur Search Engine Journal.

Google social search et Search, plus your world

Par ailleurs, Google a lancé dernièrement des services intégrés à son moteur de recherche dont leur but est d’élargir les résultats de recherche à vos cercles d’amis: “Google social search” et “Search, plus your world”. Pour comprendre ces services, il faut savoir que Google offre à chacun la possibilité de créer une page de profil (via son compte Google) dans laquelle on peut fournir des informations personnelles ainsi qu’intégrer des liens vers nos réseaux sociaux.

“Pour relier les profils entre eux et créer un cercle social, Google scrute dans différentes sources de données publiques, comme les abonnements à Google Reader”, peut-on lire sur le blog Presse Citron.

Aussitôt cette opération accomplie, quand quelqu’un de votre cercle social fera une recherche sur un terme propre à votre activité sur le Web, un lien supplémentaire « Results from your social circle » sera ajouté aux résultats standards. Google reconnait ainsi que ce qui est considéré comme pertinent pour une personne du cercle social est vu comme pertinent pour ses pairs. Et que la reconnaissance portée par une personne de connue à un contenu a plus d’importance que celle portée à celui-ci par des miliers d’étrangers.

Social media optimization

Pour des raisons évidentes, Google met surtout à l’honneur les résultats provenant de son propre réseau social: Google +.

Dans les résultats de recherche Google, vous trouverez beaucoup de pages et de profils Google + qui ont un bon ranking. Ce qui signifie que Google + constitue une bonne opportunité pour améliorer son référencement via le social media marketing. En effet, en augmentant votre réseau sur Google + et en publiant des contenus pertinents pour vos membres sur Google +, vous augmenterez les chances d’apparaitre bien classé dans les résultats des membres de votre réseau. Le travail consistant à accroître la visibilité d’un produit, d’une marque via les réseaux sociaux s’appelle “social media optimization” (S.M.O.).

Dû à cette prise en compte grandissante des “signaux sociaux” par les moteurs de recherche, l’optimisation pour les moteurs de recherche (ou référencement) doit, donc, de plus en plus recourir à des techniques de S.M.O.

Cette fusion entre deux domaines du marketing Web montre, une fois de plus, à quel point il est important d’aborder le marketing Web de manière transversale.

Par défaut
marketing de contenu

Contenus Web: est-ce vraiment la fin des blockbusters?

L’avenir des business models est-il vraiment de vendre des petites quantités de produits de niche comme l’avancent les défenseurs de la “longue traîne”? Des résultats d’études démontrent le contraire. Dans son dernier livre, Gerry Mc Govern applique ces trouvailles au processus d’optimisation des sites Internet.

 Depuis la popularisation du concept économique de “longue traîne” (de l’anglais “long tail”), a-t-on vraiment assisté à un succès des produits de niche sur le net, au règne de la diversité et des voix divergentes? Des études empiriques conduites en 2008 tendent à mettre à mal la proposition attrayante de Chris Anderson, rédacteur en chef du magazine américain Wired. Pour rappel, celui-ci avait avancé en 2004 qu’à l’instar de la stratégie de niche adoptée par Amazon, un nombre croissant de business models consisteront à vendre une grande variété de produits en plus faible quantité, au lieu de vendre de grandes quantités de quelques produits populaires.

« Même si la queue est très intéressante la grande majorité des revenus résideraient au niveau de la tête. »

Le choix de plus en plus grand de produits devait être le signe de la fin proche des “blockbusters”, pouvait-on lire dans The Economist en 2009. Mais, des données tendent à démontrer que la tendance inverse est toujours observée. Pire encore, celle-ci s’accentuerait même. Une étude de “Bilboard” a découvert que les tubes musicaux avaient pris une plus grande part de marché en 2009 qu’ils en avaient en 2004. Le top 200 comptait, par exemple, pour un sixième des ventes de musique en ligne en 2009.

Autrement dit, 80 pourcent des revenus des ventes proviendrait de trois pourcent des titres. D’un autre côté, 80 pourcent de l’ensemble des titres disponibles en ligne en 2007 n’aurait pas vendu une copie (c’est-à-dire 10 millions sur 13 millions de titres) selon une étude portant sur des dizaines de millions de transactions de Will Page, Andrew Bud et Gary Eggleton.

Cou de giraffe VS chaise longue

Il en ressort qu’au lieu de voir se dessiner la distribution statistique en forme de chaise longue chère à Anderson, on voit se former une distribution en forme de cou de girafe.

Selon ses détracteurs, Anderson se serait basé sur l’analyse des données d’un seul service de musique en ligne. Il aurait, ensuite, fait la chasse aux faits qui corroboraient sa théorie au lieu de chercher à examiner les données qui s’offraient à lui avec un oeil scientifique.

Cependant, les recherches ne remettent pas en cause l’existence de la queue (ou traîne). Le nombre de titres vendant quelques copies a presque doublé, selon une étude menée par une chercheuse de l’université d’Harvard entre 2002 et 2005. Cela implique qu’il est possible de générer des ventes dans la queue mais que leur nombre reste très faible. En somme, si on souhaite faire plus que survivre, il faut se concentrer encore et toujours sur les best-sellers, les super-stars. Le récent succès de Lady Gaga avec ses plus de 100 millions de disques vendus à travers le monde illustre que les blockbusters, loin d’être dépassés, ont encore de beaux jours devant eux.

Bien, mais, quelles implications pour votre stratégie digitale?

Bien des équipes en charge de sites Web ont tendance à adopter une stratégie de type « longue traîne » quand il s’agit de politique éditoriale alors que le concept de longue traîne fontionne surtout pour les produits qui exigent stockage et distribution, met en évidence Jean-Marc Hardy, expert belge du contenu Web (blog.60questions.net). Le contenu digitalisé génère, lui, d’autres types de coûts comme la création, la recherche et la révision.

Autrement dit, elles proposent massivement des contenus en ligne à leurs publics dans l’espoir de couvrir toutes les variations de produits et de requêtes autour d’une thématique donnée. Pour Gerry Mc Govern, écrivain et consultant Web irlandais, loin de nous libérer, la profusion de choix permis par les nouvelles technologies nous dépasserait au point de nous rendre plus encore dépendant des comportements des autres pour déterminer nos préférences.

“5 pourcent des contenus comptent pour 25 pourcent des demandes.” Mc Govern

Devant la surabondance de l’offre, les consommateurs se décourageraient, en quelque sorte, à s’aventurer hors des sentiers battus et auraient, de ce fait, plutôt tendance à suivre le courant dominant, à consommer des produits populaires.

Comme l’information en ligne est devenue une commodité omniprésente, il est d’autant plus important de miser sur une politique de contenu mettant en avant la qualité plutôt que la quantité, affirme ce dernier dans son dernier livre « The Stranger’s Long Neck ».

« Est-ce qu’un site gouvernemental devrait publier toute information potentiellement utile pour la simple et bonne raison qu’un surplus d’informations disponibles librement peut potentiellement contribuer à l’évolution de la société », s’interroge-t-il pertinemment.

Des tâches superstars

Selon des recherches qu’il a lui-même conduites sur une quantité considérable d’utilisateurs, Mc Govern a mis en évidence le fait qu’une petite part de l’ensemble des contenus proposés par les sites remporte le plus de succès. En somme, 5 pourcent des contenus comptent pour 25 pourcent des demandes quand à l’autre bout du spectre, dans la « longue queue », ont retrouve 60% des contenus qui comptent pour 20 pourcent.

Dans son livre, Mc Govern utilise le terme de tâches “stars” pour désigner les contenus génèrant le plus d’intérêt ou un plus haut degré d’utilisation. Un exemple de tâche du genre pour un site de tourisme serait, par exemple, la consultation du prix d’un voyage. Les téléphones mobiles ont connu une forte augmentation du nombre des fonctionnalités. Malgré tout la fonction “appel” reste une fonctionnalité fondamentale pour les utilisateurs.

Mais Mc Govern n’arrête pas là son raisonnement. Si les utilisateurs viennent sur les sites pour réaliser un nombre très limité et commun de tâches, tout contenu sortant de ce cadre préétabli risque bien de venir rajouter du bruit et de l’inutilité. Devant un site trop touffu, trop profond, les visiteurs risquent de se perdre. Les pages importantes sont noyées dans la masse, selon Hardy. Chaque élément ajouté vient complexifier le site et risque, donc, de détourner l’utilisateur de sa trajectoire.

“L’optimisation n’est faisable que si elle repose sur un nombre limité d’éléments.” Mc Govern

La page d’accueil de Yahoo comptait en 2004 pas moins de 255 liens. Une complexité qui n’est pas pour rien dans sa chute face à son grand concurrent, Google. Yahoo a, semble-t-il, pris des leçons des apologistes de la simplication du Web car, en 2006, sa page d’entrée ne comptait plus que 168 liens et, en 2009, elle n’en avait plus que 100. Comme on le sait, il est, de nos jours, de plus en plus difficile de prédire ce que les clients veulent.

C’est pourquoi l’idée selon laquelle il est essentiel de tester les produits ou services après les avoir lancés commence à être répandue parmi les équipes Web. À cet égard, l’apport de de Mc Govern se révèle très éclairant:

  1. Il nous incite à considérer le contenu pour ce qu’il est: un élément faisant partie d’un ensemble plus large: les tâches.L’auteur a raison de considérer le contenu non comme une fin en soi mais comme un moyen destiné à servir des desseins plus larges (acheter un bien, se soigner, cuisiner un plat, voyager, etc.). En effet, la plupart du temps, les utilisateurs viennent consulter un site Web avec un besoin bien précis en tête qu’ils désirent combler.
  2. Mc Govern donne un fameux coup de main aux gestionnaires de sites Web en les poussant à se concentrer sur l’essentiel: quelques tâches bien délimitées. L’optimisation continue des sites Web n’est réellement faisable que si elle repose sur un nombre limité d’éléments. Des tests utilisateurs reposant sur tous les contenus ou toutes les fonctionnalités d’un site prendraient bien trop de temps; sans évoquer le coût que cela représenterait.
  3.  Enfin, Mc Govern propose une méthode concrète et originale, permettant de mettre en évidence ces “top tâches”. Son originalité réside dans le fait qu’elle repose sur le vote et non l’observation ou l’ordonnement d’éléments comme c’est souvent le cas.

Il conseille de présenter une liste impressionante de tâches à un petit groupe d’utilisateurs et de les faire sélectionner les cinq tâches qui ont le plus d’importance à leurs yeux en ne leur laissant que très peu de temps. Selon lui, cette méthode pousserait les utilisateurs à laisser tomber les tâches plus accessoires et à se focaliser sur celles qui importent vraiment. Il en ressortirait des tendances bien claires. Une fois celles-ci découvertes, il faut s’atteler à les optimiser en continu afin qu’elles rencontrent de plus en plus les attentes des internautes.

 

À lire: The stranger’s Long Neck de Gerry Mc Govern paru chez A & C Black

(Article paru dans Inside magazine)

Par défaut
Web analytics

Web analytics: pourquoi vos données ne sont pas exactes à 100%?

Aucun système de WA offre des données exactes à 100%. Mais sans données fiables pas d’analyse de qualité de l’activité ayant lieu sur le site. Mieux comprendre les facteurs affectant l’exactitude des données permet d’améliorer la compréhension des rapports et de réduire les erreurs.

 Le Web est un média fantastique quand il s’agit d’approcher les consommateurs et de leur vendre des produits et services. Pour ce faire, il faut comprendre le comportement des visiteurs.

Les données fournies par un outil de Web analytics (WA) permet d’exécuter des analyses assez détaillées de leurs passages sur votre site afin d’évaluer les performances du site Web, notamment de ses contenus, et d’orienter la stratégie e-business.

« Rien n’est pire que de baser des décisions stratégiques sur des données erronées. »

“Les biais éventuels liés au fait que tous les utilisateurs ne sont pas repris dans les données WA ne posent pas de problème puisqu’ils sont entièrement exclus des données et ne représentent qu’une part minime du total”, assure Kelly Halfin de l’agence Semitis.

De plus, un grand nombre d’erreurs courament commises lors de la collecte des données peuvent être évitées.

Si les inexactitudes sont réduites au maximum, alors les WA demeurent un outil très éfficace pour mesurer le succès des actions en ligne.

Les problèmes affectant les données

Pour réduire les erreurs il faut connaitre les sources d’erreurs les plus fréquentes. Le type d’erreurs pouvant affecter vos données dépend du type de méthode utilisé par votre système analytics pour collecter le données.

Il en existe deux: les fichiers de logs du serveur et les tags insérés dans les pages. Il s’agit ici de présenter les problèmes liés à l’utilisation de la deuxième méthode.

« Le but est d’arriver à un niveau acceptable de données exactes. « 

Cette dernière est exploitée, entre autres, pour les solutions analytics de Google, d’Omniture, de WebSideStory et d’IBM (Unica). Cette méthode consiste à collecter les données via le navigateur Web des visiteurs et à envoyer ces informations sur un serveur appartenant au fournisseur. L’utilisateur du service analytics consulte les rapports à partir de ce serveur.

Les informations sont habituellement capturée via des codes javascript (connus par l’appelation “tags”) placés sur chaque page du site. Pendant le processus de collection, des cookies sont placés sur l’ordinateur des visiteurs permettant leur identification.

Dans le passé, la méthode utilisant les fichiers de logs était la plus courante. Mais, ces dernières années la facilité d’installation des tags a contribué à populariser la seconde méthode.

– 1ère cas: tags mal installés

Il s’agit d’une des erreurs les plus fréquemment commise selon Gérald Claessens de Knewledge. La méthode des “pages tags” requiert que le webmaster ajoute le code de tracking à chaque page. Des pages peuvent être ignorées (même si des systèmes de gestion du contenu permettent d’automatiser ce processus). Si des tags sont manquant ou mal placés sur des pages, cela signifie qu’aucune donnée (‘pageview’) ne sera collectée pour cette page.

C’est pourquoi la plupart des agences de WA débute leur mission par un audit afin de controler que toutes les pages du site sont bien taguées. “Pour qu’il soit complet, cet audit doit inclure les mini-sites, les pages de destinations spécifiques, les pages de choix de langues souvent oubliées car n’étant pas dans le CMS principal” souligne Claessens.

– 2ème cas: utilisateurs bloquant les dispositifs de tracking

Depuis quelques temps, la possibilité est donnée aux utilisateurs d’échapper au tracking des systèmes analytics présents sur les sites qu’ils visitent. Comment? Il existe des Add-ons de certains navigateurs, comme le noScript, disponible sous Firefox qui permet, par exemple, de bloquer des scripts. Sous Internet Explorer 9, il existe l’option ‘Do Not Track’. Google permet de procéder à un opt-out permettant à quiconque de se soustraire à son propre système d’analytics.

Heureusement, ceux-ci ne sont qu’une très petite minorité de l’ensemble des utilisateurs d’Internet à avoir recours à ce genre de pratique (environ 1 à 3 pourcent bloque les scripts, selon Dennis R. Mortensen, expert en WA).

Cependant, ils sont une plus grande proportion à rejeter ou effacer leurs cookies (au moins 30 pourcent des utilisateurs le font chaque mois, selon des études conduites par plusieurs sociétés de consultance dont Nielsen & Jupiterresearch).

Les cookies sont un moyen très simple et ayant fait ces preuves pour suivre les visiteurs. Mais cette simplicité est aussi à l’avantage des utilisateurs. Car quiconque peut les retirer. Néanmoins, l’information fournie par les cookies est à la base du fonctionnement des systèmes analytics basés sur les tags. Il permet d’identifier les visiteurs, les sources de traffic d’où ils proviennent et d’autres données liées à la consultation des pages.

Cette source de biais est, donc, au centre des préoccupations dans les cercles d’experts. D’autant plus qu’une nouvelle loi européenne visant à obliger les entreprises du Web à demander le consentement des visiteurs avant qu’il soit placé des cookies sur leur ordinateur risque bien de menacer plus gravement cette méthode de collecte des données.

– 3ème cas: firewalls bloquant les tags ou le placement des cookies

Des firewalls mis en place par des sociétés ou des particuliers peuvent empêcher des dispositifs de tag d’envoyer des données vers les serveurs analytics. Par ailleurs, il se peut aussi que les firewalls rejettent ou éliminent les cookies automatiquement.

Pour protéger des informations sensibles, Facebook peut, par exemple, altérer certains paramètres des URLs taguées pour les campagnes. Pour éviter que ce problème ait un impact sur ses statistiques, Yves Ferket (consultant chez Nascom) utilise un raccourcisseur d’URLs (TinyURL ou Bit.ly). Cela permet d’envoyer les clicks provenant de Facebook et de retrouver les données des URLs telles que paramétrées dans Google Analytics.

– 4ème cas: erreurs d’exécution (ou non exécution) de Javascript

Des problèmes peuvent aussi provenir du fait que d’autres Javascripts placés au-dessus du code analytics en question sur la même page s’exécutent mal. Si une erreur se produit lors du décryptage de la page par le navigateur, les tags placés en-dessous ne s’exécuteront pas.

Dans certains cas aussi, le passage trop rapide d’un visiteur d’une page à une autre ne donnera pas assez de temps au javascript pour s’exécuter.

– 5ème cas: même visiteur utilisant plusieurs ordinateurs ou plusieurs utilisateurs utilisant le même ordinateur

Une personne accédant de deux ordinateurs à un même site implique que deux cookies seront installés. Dès lors, les systèmes de WA compteront deux visiteurs uniques biaisant ainsi les données. Le problème est identique, même si le biais est inversé, lorsque plusieurs utilisateurs se servent du même ordinateur pour accéder à un site.

« Il faut revenir à la définition de ‘visiteur’.« 

Pour Gérald Claessens, il n’est pas possible d’éviter ce phénomène. Par conséquent, il conseille de revenir à la définition de ‘visiteur’. Un visiteur ne doit plus être considéré comme un individu unique, mais comme un ‘visiteur/machine’, avec les limites que cela comporte.

Source/plus d’infos: www.advanced-web-metrics.com/blog/2010/04/23/understanding-web-analytics-accuracy/

Olivier De Keyser

Par défaut