stratégie, Web analytics

Comment tirer pleinement parti de vos rapports Web Analytics en 4 étapes

process web data analyse

Les Web analytics ne doivent pas se limiter à la consultation de rapports. Leur exploitation doit permettre d’apporter de la valeur à votre activité. Arrêtons-nous un moment sur le terme «apporter de la valeur » qui sonne un peu comme un de ces trop nombreux buzz word inventé par des consultants désireux d’appâter des clients. Concrètement, qu’est- ce qui se cache derrière?

« Pour tirer parti de vos données, vous devrez vous mettre à les analyser. »

Développer de la valeur c’est engendrer une idée, une invention, un procédé ou tout autre chose qui aura un impact positif sur votre affaire directement ou indirectement. Il s’agit, donc, d’un terme très large qui dépend du contexte. Dans le cas qui nous concerne, les Web analytics fournissent des informations vous permettant de mieux comprendre et de mieux orienter vos actions en ligne. En d’autres termes, les Web analytics ne génèrent pas directement de la valeur. C’est vous qui, de par votre bonne maîtrise de l’outil, vos capacités d’analyse et de stratégie – allez créer de la valeur pour votre activité.

Aller au-delà des rapports
Il ne suffit pas de mettre en place un outil et d’ouvrir ses rapports quelques fois par semaine pour en tirer des bénéfices. C’est pourquoi, il est essentiel d’aller au-delà des rapports préconçus de votre outil et de vous mettre à analyser réellement vos données.

Une bonne analyse doit vous permettre de:

1/ répondre à des questions précises sur le comportement des visiteurs: Pourquoi ne convertissent-ils pas? Pourquoi sortent-ils du site à cet endroit-là? Quels sont leurs centres d’intérêt ?
2/ jauger le degré de succès de votre site Web et de vos actions en ligne.
3/ déterminer quelles actions doivent être entreprises.

Mais avant de commencer à analyser, il s’agit de mettre à jour quels sont les objectifs du marketing en ligne car ceux-ci ne sont pas toujours bien définis. Et le manque d’objectifs clairement définis risque de mettre à mal l’efficacité de l’analyse. De plus, il est pertinent de se demander s’il vaut la peine d’investir du temps et de l’argent dans un processus dont la finalité est floue.

« Si vous voyez des mots qui pointent des actions à entreprendre avec des données pertinentes, alors vous êtes en face du résultat d’une analyse de données Web. » Avinash Kaushik

N’oubliez pas aussi d’en dériver des moyens de mesurer le degré d’atteinte de vos objectifs, c’est-à-dire des KPIs. Par exemple, si un objectif business est de générer des ventes en ligne, un KPI sera le revenu par jour ou par semaine. Votre plateforme de Web analytics peut déjà offrir les « metrics » et « dimensions » nécessaires. Et, si ce n’est pas le cas, vous pouvez aussi les créer vous-même (par exemple, en créant des custom dimensions).

Le point de départ
Une analyse commence dès lors qu’il y a quelque chose de spécifique que vous voulez découvrir qui va au-delà de la simple consultation d’ensembles de données.
Cette investigation peut débuter dès lors:

  •  qu’un problème se présente. Par exemple : le taux de rebond (plus connu sous le terme « bounce rate ») du site a augmenté ou le taux de conversion a baissé.
  • qu’une question spécifique provenant du management ou d’un collègue est posée. Par exemple. Par exemple : Est-ce que l’argent qu’on a investi dans cette campagne rapporte le nombre de leads escompté?
  • que quelque chose doit être évaluée : un redesign d’une section d’un site, le succès d’une campagne, etc.

Les débouchés attendus de l’analyse
Un problème qui se pose fréquemment lorsqu’on débute une analyse est qu’on ne sait pas toujours par quoi commencer. La première chose à faire est de se poser une question de départ. Celle-ci permettra de cerner l’objet de la recherche et de savoir vers où vous devrez vous orienter.

Par exemple, si l’élément à analyser est :
– la hausse soudaine du taux de rebond du site. La question qui peut être posée est: Est-ce que la hausse est due à une mauvaise gestion des campagnes d’acquisition de trafic?
– le mauvais résultat des ventes en ligne d’une ligne de vêtement. On pourrait poser les questions suivantes: Est-ce que le mauvais résultat est dû au fait que les produits ne sont pas assez mis en valeur sur le site ? Ou bien, est-il dû au fait que ce type de vêtement n’est pas adapté à la vente en ligne?

Vous pouvez même aller plus loin en formulant une hypothèse de recherche que vous allez infirmer ou confirmer.

L’exploration
La seconde phase consiste à explorer la piste que vous vous êtes fixé. Demandez-vous ce qui pourrait avoir un impact sur l’élément que vous tentez d’analyser.
Dans le cas de la question relative à la hausse surprenante du taux de rebond, vous vous orienterez tout naturellement du côté des rapports sur les sources de trafic. Plus spécifiquement, vous regarderez le taux de rebond de chaque source de trafic ou canal d’acquisition: e-mailing, trafic direct, trafic issu des moteurs de recherche, etc.
Dans le cas des questions relatives aux résultats des ventes négatifs, c’est les rapports e-commerce ainsi que ceux montrant le degré de succès des pages produits qui devront être consultés. Plus spécifiquement, vous examinerez l’évolution des revenus par page produit.

« Votre bonne connaissance des divers rapports qu’offre votre plateforme de Web analytics sera clef pour trouver la source d’informations adéquate. »

Votre bonne connaissance des divers rapports – et surtout des « metrics » et des « dimensions » qui les composent – sera déterminante pour trouver la source d’informations adéquate. C’est pourquoi il est essentiel de disposer au préalable d’une bonne maîtrise de l’outil.
Si vous ne trouvez aucune trace de l’origine du problème dans ces rapports, envisagez alors d’inspecter d’autres pistes en recherchant une autre hypothèse plausible. Inspectez chaque facteur potentiellement générateur d’impact tel un enquêteur ne laissant aucune piste pouvant mener au coupable au hasard.

Mais, avant tout, assurez-vous d’avoir exploité toutes les sources d’information à votre disposition. Si votre plateforme de Web analytics ne vous offre pas la réponse, il existe d’autres outils : par exemple, des outils permettant de récolter des «données plus qualitatives »: les heatmaps ou clickmaps, l’A/B testing, le multivariate testing, les enquêtes en lignes, etc.

La découverte d’insights
Une fois que vous tenez des informations-clefs, comment faire vous pour vérifier si votre hypothèse de départ est vraie?
Différentes techniques sont à votre disposition pour « faire parler vos données ».

1/ Identifiez les tendances qui changent.

Dans l’exemple avec le taux de rebond qui augmente, regardez à quel moment le bounce rate augmente significativement.

2/ Comparez les données provenant de divers segments entre elles.

comparer
Dans le même exemple, comparez le taux de rebond des diverses sources de trafic entre eux et avec le taux de rebond moyen du site. Vous verrez tout de suite quelle source fait défaut.

« Inspectez chaque facteur tel un enquêteur ne laissant aucune piste pouvant mener au coupable au hasard. »

3/ Cherchez des éventuelles corrélations.

Vous cherchez, par exemple, à savoir si un afflux de trafic d’une campagne est à l’origine d’une amélioration des ventes à un moment donné. Comparez la courbe des visites du segment représentant la campagne et celle des ventes de produits. Si les courbes se chevauchent, c’est qu’il y a des chances que cela soit le cas.

4/ Recoupez vos sources d’informations.

Après de longs moments d’investigation, vous avez, enfin, l’impression que vous tenez quelque chose. Toutefois, vous flairez qu’il vous manque des éléments vous permettant de confirmer la chose. Sachez qu’il est possible dans beaucoup de cas de trouver ces indications dans d’autres rapports.
Si vous souhaitez, par exemple, savoir sur quels liens d’une page les gens cliquent, vous pouvez:
– soit consulter le rapport de la page en question dans lequel vous trouverez les pages suivantes qui ont été visitées.
– soit consulter le rapport intitulé in-page analytics où vous trouverez le taux de clics sur chaque lien se trouvant sur la page.
Les deux rapports ne se recoupent pas à 100% ? Ce n’est pas grave. Concentrez-vous sur ce qu’indiquent les tendances, et non, sur les chiffres absolus.

in-page analytics

5/ Vérifiez le poids relatif d’un élément dans le total.

Lorsque vous vous attardez sur l’analyse d’un élément (une page ou une source de trafic, par exemple), il est, souvent, indispensable de voir quel est son poids proportionnellement aux autres éléments du même type.
Lorsqu’on souhaite savoir quel est l’impact réel d’une source de trafic sur le site, par exemple.

pie cahrt

Si, à la fin de votre analyse, vous êtes arrivé à trouver une réponse concrète à votre question de départ et à confirmer votre hypothèse, il ne vous reste plus qu’à tirer parti de ce que ces éclaircissements vous indiquent. Soit, il s’agira de quelque chose qui est simplement destiné à être communiqué et servant à accroître votre compréhension de la conduite de vos activités en ligne ; soit, cela sera quelque chose méritant de plus amples investigations (via des user tests, par exemple) ; soit, il s’agira « d’insights » identifiant des actions concrètes à entreprendre.

A l’opposé, si vous n’avez rien trouvé de concluant vous pouvez recommencer le cheminement avec une autre hypothèse que vous allez tester.
C’est à ce prix que vous parviendrez à générer de la valeur pour votre activité .

Publicités
Par défaut
stratégie, Web analytics

Ne dites plus Google Analytics mais Universal Analytics

Google Analytics Universal AnalyticsGoogle Analytics a lancé une nouvelle update importante de son code de tracking. Il s’agit de la quatrième version du code depuis la naissance de la plateforme. Cette nouvelle version doit permettre d’améliorer la qualité et d’augmenter le nombre de données collectées via sa plateforme.

Google Analytics est parti du constat suivant pour mettre à jour sa technologie de tracking : les points via lesquels les consommateurs sont en contact avec les marques sont de plus en plus fragmentés:

  •   les appareils utilisés: tablettes, smartphones, consoles de jeux, ordinateur, etc.);
  • les canaux de marketing (street display, moteurs de recherche, magasins, etc.)

L’adjectif « universel » fait référence à la vision holistique que Google veut offrir aux utilisateurs de sa plateforme analytics.

« Il s’agit plus d’une mise à jour de la technologie de tracking que de l’interface. »

Petit tour d’horizon des innovations apportées :

Intégration de données d’origines plus diverses

Universal Analytics doit permettre l’intégration des données provenant de différents appareils digitaux connectés au Web ou non. Il est, désormais, possible d’envoyer des données des canaux digitaux que l’on souhaite vers la plateforme de Google: qu’il s’agisse d’une appli pour smartphones, d’une console de jeux, d’un point de vente, du CRM d’un service clientèle ou même d’un détecteur de mouvements, …

Il n’y aurait pas de limites pour autant que ces systèmes soient programmés en fonction du protocole de mesure, nous dit-on chez Google.

Il serait, donc, même possible d’envoyer les informations liées aux conversions réalisées en magasin. L’identifiant compris dans la carte de fidélité peut, par exemple, être exploité.

Cela dit Google reste fidèle à sa politique de protection de la vie privée. Les données qui seront envoyées aux serveurs de Google resteront anonymes.

Meilleur suivi des visiteurs

Une autre évolution majeure est l’amélioration du suivi des visiteurs. Jusqu’à présent un des metrics roi dans le domaine des Web analytics était le nombre de visites. Le but de la nouvelle mouture de Google Analytics est de livrer des données plus orientées vers le visiteur.

Avec la multiplication des appareils permettant de surfer sur le Web, il était devenu inévitable de trouver une nouvelle méthode plus efficace pour suivre le comportement des visiteurs à travers tous les stades menant à la conversion (publicité, ventes, utilisation des produits) pour, ensuite, les agréger dans un endroit. Surtout qu’il faut dire que le metric ‘nombre de visiteurs’ souffrait d’un manque de fiabilité.

« Il est désormais possible d’envoyer des données des canaux digitaux que l’on souhaite dans Google Analytics. »

L’intégration d’un plus grand nombre de données permettrait d’en savoir plus sur l’origine sociale, les habitudes, les préférences, l’âge, etc. des visiteurs et permettrait de mieux suivre ceux-ci.
On ne parle plus d’analyser des visites, mais plutôt de décortiquer le comportement des visiteurs.

Contrôle accru via l’interface d’administration

Le nouveau code n’est plus basé sur ces fameux cookies utm propres à Google Analytics (utma, utmb, utmc, utmv, utmz). Il ne reste plus qu’un seul cookie (_ga) qui sert à identifier et reconnaître le visiteur. Le calcul de la session, la source de trafic et les variables personnalisées de type visiteur, qui étaient jusqu’à maintenant stockées dans les cookies, seront dorénavant gérées au niveau des serveurs de Google.

Par conséquent, une grande partie des configurations – comme l’ajout de nouveaux moteurs de recherche ou de sites référents, la définition de la durée d’une session ou d’une campagne – qui se faisaient via le code (JavaScript) sont maintenant gérables via la section admin.

Mais, rappelons qu’avec les systèmes de tag management tels que Google tag manager même le code standard de Google Analytics peut être modifié sans une intervention dans le code.

Nous serions, donc enfin, libéré de configurations qui étaient souvent interminables parce qu’elles requerraient l’intervention de différents intermédiaires (notamment, l’agence de développement).

Possibilités de segmentation plus pointues

Avec la dernière version du code de Google Analytics, il était déjà possible de créer les segments que l’on voulait à partir de variables personnalisées. Cette fonctionnalité – appelée anciennement « custom var » et rebaptisée « custom dimension » – est très utile car elle permet d’aller chercher les données qu’on veut pour approfondir les analyses.

Avec Universal Analytics il est, désormais, possible de créer plus de dimensions qu’avant – jusqu’à 20 variables personnalisées (comparativement aux cinq espaces disponibles des variables précédentes)- ainsi que des metrics personnalisés (cela n’existait pas avant).
Pour que ces valeurs soient envoyées à Google Analytics, elles doivent être définies dans l’interface d’administration – opération qui se faisait précédemment via le code source du site.

custom dimension

Ensuite, il faut, toujours, malgré tout, installer dans les pages un code JavaScript qui envoie les dimensions et les metrics à Google Analytics.

Importation de données sur les coûts

Certainement une des plus intéressantes nouveautés: il est désormais possible d’importer des données liées aux coûts des campagnes marketing. Jusque-là l’import des coûts était limité aux données Adwords.

Le fait d’avoir tous les coûts et toutes les conversions dans Google permet aux marketers de développer une vue plus complète de la performance de leurs canaux de promotion et de ventes.

« Google Analytics est un outil de plus en plus orienté business intelligence. »

Avec l’introduction de ces nouvelles possibilités, Google Analytics concurrence un peu plus des plateformes Analytics plus orientées business intelligence comme Webtrends, Omniture, SAS. Et cela, tout en restant gratuit ! C’est à se demander ce qui motive Google à investir autant dans sa plateforme.

Beaucoup de spéculations ont lieu à propos de la stratégie de Google dont le service Google Analytics fait partie. Certains avancent que le géant de la publicité essaie de récolter toujours plus de données sur les utilisateurs des sites Internet afin d’améliorer la pertinence des publicités qu’il diffuse via ses plates-formes ou réseaux: Google search, Adsense, Double click, YouTube, Gmail, etc. Et d’ainsi améliorer son attractivité auprès des annonceurs …

Plusieurs questions viennent légitimement à l’esprit. Essayons d’y répondre.

1/ Faut-il déjà commencer à implémenter la nouvelle version du code Google Analytics ?
Tout d’abord, il faut savoir qu’actuellement Universal Analytics a été lancé en mode Beta. Le lancement officiel est prévu pour fin 2013, début 2014.
Il n’y a aucune obligation de l’installer aujourd’hui. Mais, il est possible de le faire.

2/ Comment l’installer?
Google Analytics vient de créer une fonctionnalité qui permet de migrer facilement son ancienne propriété vers une propriété Universal Analytics tout en conservant l’historique des données. Il suffit de suivre la procédure indiquée sur l’écran « Universal Analytics Upgrade » accessible via l’interface d’administration.

upgrade to universal analytics

Ensuite, il faut retaguer le site entièrement avec le nouveau javascript (analytics.js). Cela ne devrait pas poser trop de problèmes si vous avez opté pour une solution de tag management qui vous évite de faire appel à votre boite de développement.

Vous pourrez trouver plus d’info sur la procédure à cette adresse : http://bit.ly/1aj7hAz.

3/ Est-ce que l’interface avec les rapports sera modifiée ?
Non, il n’y a pas de gros changements à ce niveau comme il s’agit plus d’une mise à jour de la technologie de tracking. Il y a juste plus de fonctionnalités.
Cependant, il n’est pas encore possible d’exploiter les content experiments et les fonctionnalités liées au remarketing. Mais cela devrait venir bientôt, nous assure-t-on chez Google.

4/ Est-ce que les deux versions du code peuvent être utilisées en parallèle?
Oui, la cohabitation ne doit a priori pas poser de problèmes.

5/ Est-ce que les propriétés classiques seront automatiquement mises à jour lorsqu’Universal Analytics sera officiellement lancé? Oui. Le but de Google Analytics est de transférer toutes les propriétés vers Universal Analytics à terme. Toutes les mises à jour et les nouvelles fonctionnalités seront seulement d’application pour Universal Analytics. Les propriétés qui n’auront pas effectué la transition seront automatiquement transférées dans les prochains mois. Google n’a pas livré plus de précisions quant à la date exacte.

Par défaut
SEO, stratégie de contenu

Remplacement du générateur de mots-clefs Adwords : amélioration?

Outil indispensable pour les experts en référencement, le Keyword tool a subit un important re-lifting. Qu’est-ce qui a changé avec le nouvel outil de recherche des volumes de requêtes?

Le générateur de mots-clefs (plus connu sous le nom de « Keyword tool ») est très utilisé par les experts car il permet de savoir si un mot-clef vaut la peine d’être inclus dans une campagne d’optimisation pour les moteurs de recherche en livrant les volumes de recherche qu’enregistrent ce mot-clef. Il offre aussi des suggestions de mots-clefs issus de recherches connexes.

On devrait dire « était » car le générateur de mots-clefs a fermé ses portes.

Il a été remplacé par un outil de planification des mots-clés (‘’keyword planner’’).

La raison officielle invoquée par Google est qu’ils ont voulu « combiner le « keyword tool » et l’estimateur de trafic en un outil afin de rendre la planification de campagnes plus facile.

Mais les spécialistes du référencement suspectent encore Google de leur mettre des bâtons dans les roues. Vu que, pour y accéder, il faut, maintenant, disposer d’un compte Adwords.

Heureusement pour nous, il ne faut pas avoir des campagnes qui tournent pour l’utiliser (ce qui aurait impliqué de devoir engager des budgets). Il suffit, donc, d’ouvrir un compte. Et c’est (re-)parti!

Quels sont les changements ?

Le nouvel outil se trouve toujours dans le menu « Outils et analyse ».

interface menu keyword tool

Jusque là rien de changé.

Cependant, la suite de la découverte risque d’être plus aventureuse vu les quelques changements opérés à l’interface. C’est pourquoi une visite guidée des lieux peut vous faire gagner du temps.

La page d’accueil ne donne plus directement à l’outil.

Trois options s’offrent à nous :

1/ Rechercher des idées de mots-clefs et de groupe d’annonces

2/ Saisir ou importer des mots-clefs afin d’examiner leurs performances

3/ Multiplier les listes de mots-clefs

Choisissez la première option. Vous retrouvez un ensemble d’options et de champs à paramétrer.

Limitez-vous à ne remplir que le champs de saisie des mots-clés avec votre liste de mots-clefs (séparés par une virgule ou un retour à la ligne) et paramétrez le ciblage sur la langue et le pays requis.

Pas la peine de chercher à paramétrer le type de correspondance (ou ‘match type’) sur exact (lisez plus loin, si vous voulez savoir pourquoi).

Une fois le bouton « Obtenir des idées » cliqué, vous obtenez l’écran suivant.

écran de résultats keyword planner tool

Ce n’est pas fini. Car ce premier écran vous propose les volumes de recherche par groupe de mots-clefs. Cette liste de groupe est une liste prédéfinie par Google. Si vous voulez accéder à votre propre liste de mots-clefs, il vous faudra encore cliquer sur le tab intitulé « idées de mots-clefs ». Vous arrivez ainsi à l’écran de résultats habituel.

écran de résultats final keyword planner tool

C’est là que ça se corse!

Si vous comparez les volumes obtenus par l’ancien outil avec ceux obtenus par le nouvel outil, vous remarquerez des différences. Lesquelles et pourquoi?

1/ Type de correspondance par défaut: Le keyword tool montrait les données en mode requête large (ou « Broad match ») par défaut alors que le keyword planner montre les données en exact par défaut .

2/ Supports informatiques pris en compte: Le 1er outil se limitait aux données provenant des recherches effectuées via desktops et laptops alors que le nouvel outil montre les données pour tout type de devices (mobiles et tablettes inclus).

3/ Limitation à 50 du nombre de mots-clés par analyse : alors que l’ancien outil était moins limitatif.

Je trouve que ce dernier changement est le plus contraignant des trois car il oblige le référenceur à effectuer plus de manipulations pour de grandes listes de mots-clefs.

Plus d’infos sur les différences entre le keyword planner et le keyword tool

Amélioration ou régression: n’hésitez pas à dire ce que vous pensez de ce changement.

Par défaut
Google, SEO

Comment le référencement vertical devient incontournable

Compétition peu active, visibilité accrue, coûts bas, attraction de nouveaux leads plus qualifiés, etc. les moteurs de recherche verticaux offrent de multiples opportunités pour le référencement. Pourtant ils sont sous-exploités par les sociétés désireuses d’accroître leur présence dans les moteurs de recherche. Selon les experts, leur popularité grandissante représente une tendance lourde du marché.

La plupart du temps quand il s’agit de référencer un site dans un moteur de recherche, on se tourne automatiquement vers « Google search » dont le but est d’indexer les pages présentes sur le Web pour, ensuite, retourner des résultats ordonnés suite à des requêtes sans distinction des types de contenus. À côté des moteurs de recherche dits « généralistes » ou « universels », il existe une multitude de moteurs spécialisés dans un type de contenus Web. Ils sont appelés moteurs de recherche verticaux et ils sont emplacement accès vertical search enginesbasés sur le sujet (chimie, industrie) ou le type de média (vidéos, images, blogs) ou le genre de contenus (lieux géographiques, magasins, actualités). Les personnes cherchant une information liée à un média ou à un sujet particulier ont intérêt à utiliser les outils de recherche verticale. Car, le nombre de contenus présents en ligne accroissant constamment, les bénéfices sont évidents : gains de temps, plus grande précision dans les résultats. Mais ce n’est pas tout, ils offrent aussi des fonctionnalités spécifiques au type de contenu sélectionné. On pense, notamment, aux préférences de recherche et aux informations spécifiques aux types de contenus qu’on peut trouver dans les résultats et qui aident l’internaute à déterminer plus précisément la pertinence des éléments présentés. Sur la page d’accueil du portail Google, ils sont accessibles via le bandeau noir localisé tout en haut de la page.

Pourquoi augmenter sa visibilité dans les moteurs verticaux ?

Ces outils de recherche représentent des opportunités à saisir pour améliorer sa visibilité dans les moteurs de recherche à bien des égards.
Tout d’abord, ils sont utilisés par les internautes. Pour des raisons évidentes de confidentialité, Google ne livre pas de statistiques précises permettant de se rendre compte de leur popularité. Mais on sait, par exemple, qu’environ une recherche sur cinq serait orientée vers un objet local (mot-clef + localité, par exemple). Les services susceptibles d’être utilisés sont Google + local et Google maps.
Amazon devient un des moteurs de recherche principaux pour l’achat de produits aux États-Unis. Une étude de Forrester a montré que 30% des acheteurs en ligne américains utilisaient Amazon en premier lieu pour rechercher un bien de consommation.
Ensuite, parce que Google intègre, depuis quelques années, les résultats provenant des moteurs verticaux à ceux de la recherche universelle. Cette intégration donne ce qu’on appelle dans le jargon : l’« Universal search ». Le géant de la recherche sur le Web se base sur son expérience des requêtes et du sens des mots pour déterminer quels « résultats verticaux » seraient susceptibles d’être mélangés aux résultats « classiques ». Prenons l’exemple du terme «Mulholland Drive Hollywood » : en plus de désigner une chaussée située à Hollywood (Los Angeles), « Mulholland Drive » est le titre d’un film de David Lynch.

« Toute personne cherchant une information liée un sujet particulier a plutôt intérêt à utiliser les outils de recherche verticale. »

En tapant cette requête dans Google Search, on trouve des résultats provenant de trois moteurs de recherche verticaux différents en première page! Tout en haut, il y a la « onebox » de Google maps reprenant une sélection de lieux présents dans l’entité « Mulholland Drive » avec une carte du lieu dans la colonne de droite. Plus bas, on trouve la « onebox » de Google Image présentant des images du lieu, et enfin, une vidéo du lieu postée sur YouTube. recherche universelle
De là, on peut en déduire que Google prévoit que l’utilisateur cherche à:

1/ localiser l’endroit;
2/ trouver des lieux intéressants à visiter;
3/ trouver une description et/ou un historique du lieu;
3/ se représenter visuellement à quoi ressemble le lieu.

Un autre exemple illustrant bien cette technique: en tapant le mot-clef « Afghanistan», on trouvera un bloc de résultats provenant de «Google actualités» sur la première page ainsi qu’une vidéo.
Pour décider de remplacer un résultat de recherche classique (menant vers une page Web) par un résultat vertical, Google procède au cas par cas. Si un résultat provenant de Google places est plus pertinent qu’un résultat classique, Google remplace ce dernier par un résultat vertical.

La version de Google États-Unis offre plus de variété car Google dispose d’une plus grande variété de moteurs de recherche spécifiques à certains domaines comme : les recettes de cuisines, les magasins en ligne, les vols d’avions.

« Environ une recherche sur cinq serait orientée vers un objet local. »

Il faut s’attendre à voir une plus grande mixité des résultats dans les versions européennes à l’avenir.
Selon l’expert Dany Sullivan de Search Engine Land cette tendance est générale et va s’amplifier dans le futur : « La première génération des moteurs se focalisait sur les mots présents dans le contenu pour référencer une page. La seconde génération des moteurs tirait parti de l’analyse des liens. La troisième génération prend en compte les données provenant des utilisateurs (activités dans les réseaux sociaux, visites/clicks, etc.) et cherche à rendre la recherche plus verticale. »

D’ailleurs les deux principaux concurrents, Bing et Yahoo! disposent aussi de moyens de recherche verticaux qu’ils intègrent également dans leur moteur principal.
Dès lors, optimiser sa présence dans les moteurs verticaux présente un avantage collatéral évident : il permet d’accroître ses chances d’être repris dans le moteur de recherche le plus utilisé.

Enfin, comme Forrester le relève bien, « le SEM via les moteurs verticaux est un antidote à la compétition grandissante qui sévit dans le domaine du marketing des moteurs de recherche rendant plus difficile le référencement aussi bien dans les résultats naturels que payant (augmentation des coûts par clics, stagnation des taux de conversion, etc.). Il fournit des nouvelles opportunités de génération de trafic et de leads sur des segments niches très peu exploités. »

Pas qu’une question de positionnement

La manière dont Google met en avant les résultats visuellement via les snippets peut aussi avoir un impact sur le click-through-rate (CTR), et donc, les conversions selon le célèbre blog de référencement SEOmoz.
Tout d’abord un petit détour pour expliquer ce que sont des « snippets » et quelle est leur utilité. Les snippets sont les informations extraites d’une page Web par un moteur de recherche qui composent un résultat dans un moteur de recherche. snippet SEO
Ils permettent de se faire une idée sur la page référencée en mettant en avant de manière visuelle, par exemple, des produits, des prix et des évaluations rapidement. Ils servent à aider les internautes à leurs donner plus d’informations sur le contenu de la page référencée sans que ceux-ci ne doivent clicker.
C’est un moyen dont les webmasters disposent pour de se démarquer de la compétition en optimisant leurs pages afin de youtube référencement verticalmettre en avant certains contenus clefs. Selon une enquête de Moz, 20 à 30 % des sociétés enquêtées ont vu leur CTR augmenter après avoir optimiser des snippets relatifs à leurs pages Web.
Les snippets des résultats verticaux prennent une autre forme que ceux des résultats classiques. Ce qui accroît les chances d’attirer plus l’attention. Par exemple, un résultat provenant de YouTube intègrera une image de la vidéo, contrairement à un résultat classique qui ne comporte que du texte.
Un résultat provenant de Google places intègrera un visuel des évaluations postée par les utilisateurs de Google places ainsi qu’une localisation sur la carte.

global search- pizza bruxelles

Google places, un must pour toute société à implantation locale

Nous avons choisi de vous présenter des informations permettant d’augmenter votre visibilité et votre positionnement dans Google places (maps). Car il s’agit d’un moyen incontournable pour toute société ou profession devant faire sa promotion au niveau local. C’est le cas, par exemple, des chaînes de fast-food ou d’un dentiste.

Le développement du moteur de recherche local est une priorité pour Google. Selon le géant de la recherche sur Internet, une recherche sur cinq serait orientée vers un objet local : par exemple, la recherche d’un vendeur de pizza situé à Bruxelles. C’est pourquoi ce service de Google a fortement évolué ces dernières années.  places-pizzas-bruxellesGoogle offre la possibilité de lier la page « Google plus local » aux résultats de recherche. Google plus local permet aux prospects de recommander, partager, évaluer, trouver la route et de vous localiser. Résultat : certaines informations comme les notes, les avis (ainsi que leur nombre) laissés par les utilisateurs de Google plus, une vidéo, le logo, l’adresse de l’établissement postée par le propriétaire de l’établissement sont reprises dans les résultats de Google maps.

La première étape consiste à s’inscrire dans l’annuaire à cette adresse (www.google.com/business/placesforbusiness) en introduisant toutes les données requises.

Top 8 des facteurs jouant un rôle dans le référencement (selon David Mimh, spécialiste en SEO local):

1. Avoir une adresse physique dans la ville sur laquelle la recherche est effectuée.

2. Le propriétaire de la page Google place a été identifié comme étant le bon (après vérification manuelle).

3. Association à une bonne catégorie d’activité

4. Nombre d’avis exprimés par des personnes ayant été dans l’établissement

5. Correspondance entre l’adresse physique présente sur le site de la société et l’adresse mentionnée dans Google Places.

6. Mention de la localité dans le titre de la landing page Google Places

7. Mention du terme recherché (par exemple : « Pizza » dans « Pizza Bruxelles ») dans le texte des avis exprimés

8. Qualité et autorité des avis publiés sur d’autres sites reconnus comme Yelp.com.

Par défaut
Web analytics

Web analytics : 3 questions à se poser pour trouver l’outil idéal

Le choix d’une solution de Web analytics n’est pas une mince affaire tant les critères sur lesquels se baser ne sautent pas aux yeux. Il n’en reste pas moins qu’il s’agit d’une étape cruciale dans votre stratégie analytics. Plus encore, l’outil que vous allez choisir déterminera en grande partie la réussite de vos actions marketing.

Dans son dernier livre, le guru incontestable des Web analytics, Avinash Kaushik, préconise de commencer par mener une « introspection approfondie » afin de mieux comprendre ses besoins et de savoir quelles informations exiger de la part des éditeurs de solutions Web analytics.

Ces solutions logicielles sont par essence complexes. Il existe bon nombre de solutions sur le marché qui disposent de possibilités quasi infinies pour récolter, segmenter et formater les données. En voulant viser trop haut, par exemple,  le risque est grand de se munir d’une solution disproportionnée par rapport aux besoins, et, de perdre un temps précieux dans sa mise en place et dans la compréhension de toutes ses fonctionnalités.

En vous connaissant mieux (on entend par là : votre organisation, bien-entendu), vous éviterez bien des écueils. Car, vous saurez mieux faire le tri entre tous les services que peuvent-vous rendre chacun de ces outils.

« Peu de choses auront autant d’incidence sur vos chances de réussite que le choix de l’outil adapté. » Avinash Kaushik

Bien souvent, les sociétés investissent beaucoup dans la solution logicielle. Alors que ce n’est pas tant l’outil lui-même mais les ressources qui vont s’en servir qui feront le succès de l’outil.  Lors de l’établissement de votre stratégie, il est important de chercher à s’entourer des personnes qui ont les compétences techniques adéquates. Car c’est, elles, qui seront le mieux habilitées à déterminer les critères de sélection pertinents pour vous.

  1. La première question que Kaushik propose de se poser est : « Est-ce que je veux des rapports ou des analyses ». Certains outils offrent des fonctionnalités plus poussées dans l’un ou l’autre champ d’activité des Web analytics ou bien dans les deux champs simultanément. Une organisation qui a juste besoin de distribuer des données à un certain nombre d’employés, aura surtout besoin d’un outil efficace en reporting. On pense, par exemple, à des fonctionnalités telles que l’envoi de rapports automatisés ou la génération de rapports multiples, enrichis de graphiques à l’esthétique soignée (par exemple : histogrammes en polychrome).Pour une autre organisation, il sera essentiel de tirer parti du comportement de ses visiteurs pour entreprendre des modifications de sa stratégie. Cette dernière devra se tourner vers un outil aux fonctionnalités analytiques enrichies. Un tel outil devrait permettre, entre autres, de segmenter et de comparer facilement les données ainsi que de les traiter sur des périodes reculées dans le temps.Cependant, il ne sert à rien d’envisager l’acquisition d’un tel outil sans investir dans les services d’un analyste. Seule une personne qui a de l’expérience dans l’analyse de données saura comment en tirer parti.
  2. Une autre question à se poser tourne autour de votre force informatique : « Dispose-je des compétences informatiques nécessaires. » Car la réussite de la mise en place d’une infrastructure Web analytics passe par une implémentation technique réussie de l’outil. On pense, notamment, à l’implémentation des divers codes nécessaires à la collecte des données sur le site Web. Dans le cas où vous désirez héberger la collecte et l’analyse de données en interne (avec, par exemple, Urchin, Webtrends ou Unica NetInsight), vous aurez, alors, besoin d’une force informatique considérable pour y parvenir.Si vous ne disposez pas des compétences en informatique nécessaires, il faudra prévoir un budget pour faire appel à une agence de consultants externes. Dans le livre du même auteur intitulé, « Web analytics : An Hour A Day », Kaushik propose des recommandations utiles quant au type d’implication précis requis lorsqu’on fait appel à un cabinet de conseil externe.
  3. Enfin, une dernière question décisive à se poser, selon Kaushik, est : « Jusqu’où veux-je aller dans ma stratégie Web analytics ».Cela ne sert à rien d’acheter un outil de tous les superlatifs, si on dispose ni des compétences, ni de l’état d’esprit nécessaire à l’exploitation de son plein potentiel. Si tout ce que vous cherchez est la compréhension des « flots de clics » (c’est-à-dire qui clicke sur quoi ?), un simple analyseur d’historique serveur fera l’affaire.Si vous avez besoin de comprendre l’expérience de vos visiteurs de manière explicite afin, d’ensuite, influencer leur comportement, vous aurez besoin d’un outil qui vous aide à comprendre la signification des clics. Dans ce cas, il faudra qu’il intègre des sources de données d’origines diverses – provenant de systèmes ERP ou CRM de votre entreprise, d’un système de sondage en ligne et de votre éditeur de solutions de test A/B ou multi variable.

En conclusion, « les critères que vous prenez en compte varient considérablement en fonction de votre situation actuelle, de votre point de vue et de votre approche. » Le tout consiste à mettre à jour suffisamment ces trois éléments en se posant les bonnes questions.

Livre : « Web analytics 2.0 » d’Avinash Kaushik (édition Seyroles)
www.kaushik.net

Web Analytics 2.0


Par défaut
marketing de contenu, Relation publique 2.0, SEO

Pourquoi la communication en temps réel va-t-elle révolutionner les relations publiques?

Qui croit encore que les journalistes attendent sagement assis sur leur siège de bureau que les chargés des relations publiques leur envoient leurs communiqués ? Ce n’est certainement pas le cas de David Meerman Scott. Dans son dernier livre, ce spécialiste de la communication nous explique comment s’assurer une couverture médiatique importante avec peu de moyens.

D’un côté, il y a un modèle de relations publiques, de marketing qui est de moins en moins en phase avec un monde en perpétuelle évolution.
D’un autre, il y a les dernières évolutions technologiques qui ouvrent un nouveau monde de possibilités aux professionnels de la communication.

Il n’en fallait pas plus pour faire germer une idée astucieuse de technique de marketing dans la tête d’un expert en relations publiques américain. Pour l’auteur du livre « Newsjacking », les règles ont radicalement changé.

Les règles ont changé
Le marketing traditionnel implique qu’il faille mettre en place une campagne selon un script, un timing et une statégie préétabli. Alors que la sphère publique n’attend pas que l’organisation déroule les actions de sa campagne pour suivre son cours. Un discours soigneusement élaboré peut être mis en pièce en une après-midi par une nouvelle ou une action de nature à contrecarrer les plans d’une organisation. On se souvient, par exemple, comment Greenpeace a détourné une publicité du constructeur automobile Volkswagen en 2011. L’ONG a créé une vidéo exploitant, comme la pub originale, les héros de l’épopée cinématographique ‘’Star Wars’’. On y voit des Jedis voulant arrêter Dark Vador et « l’étoile noire » portant le logo de Volkswagen qui veut détruire ces derniers. Cette vidéo a été vue un grand nombre de fois sur le Web et l’action de Greenpeace a fait les gros titres des sites de presse et des blogs, venant ainsi voler la vedette au spot télévisé diffusé par Volkswagen.

« La stratégie fonctionne à l’envers de la manière dont le monde fonctionne. Car le monde change sans cesse. » D.M. Scott

David Meerman Scott pense que toute organisation peut tirer parti de ce qu’il appelle le «newsjacking» (littéralement : «vol de nouvelles») pour tirer la couverture médiatique vers elle. Nous vivons dans un monde où l’information est diffusée 24h/24h, 7 jours sur 7, 365 jours sur 365. Chaque heure ou chaque minute offre son lot d’histoires et d’évènements nouveaux. Quand un nouvel événement se produit, les journalistes se mettent à scanner le Web via Google, Twitter, les feeds RSS, les blogs afin de trouver des informations supplémentaires leur permettant d’écrire leurs articles. C’est à ce moment précis que les chargés de relations publiques doivent passer à l’action. Comment? En offrant des informations de première main aux journalistes.

Une assurance contre les attaques de crocodiles pour Obama
Une compagnie d’assurance australienne a ainsi profité de la venue d’Obama en novembre 2011 pour lui offrir une couverture assurance contre les attaques de crocodiles. Les journalistes et bloggers qui étaient en manque de nouvelles « croustillantes » sur cet événement se sont fait une joie de relayer cette annonce dans leurs publications. Couverture médiatique assurée! »

Une campagne de publicité aurait couté bien plus cher, aurait pris des mois à concevoir et à exécuter, et n’aurait peut-être pas eu le même succès.

Ce genre d’action est rendu possible par le fait que le Web permette à chacun d’atteindre une audience très large avec peu de moyens.

Réussir son « newsjacking»
Mais, pour réussir son « newsjacking », il est essentiel que deux conditions soient remplies:

1/ Agir rapidement : Le moment opportun pour « newsjacker » est très éphémère. Il a lieu juste après qu’une nouvelle surgisse (ce que les américains appellent ‘breaking news’). C’est pourquoi, la rapidité d’exécution est cruciale dans ce processus.

2/ Offrir une information de valeur : Lorsqu’une nouvelle encore non traitée par les journalistes apparaît, ces derniers manquent d’informations pour répondre à toutes les questions (quoi ? qui ? comment ? où ? pourquoi ?, etc.). Le tout est de leur fournir la dimension manquante à la couverture complète de l’évènement.
Scott prévient : « Tout le monde ayant une information crédible peut devenir une source d’information pour la presse. »

Pour plus d’info, lire:
“Newsjacking: How to Inject your Ideas into a Breaking News Story and Generate Tons of Media Coverage.” de David Meerman Scott (éditions John Wiley & Sons)


« Newsjacker » en 3 étapes

Vous êtes convaincu que le newsjacking peut offrir des avantages pour faire votre publicité? Voici comment David Meerman Scott propose de procéder:

1/ Trouvez une nouvelle à exploiter: surveiller les mots-clefs ‘tendance, suivre les journalistes et publications de presse, suivre les hashtags sur Twitter.

2/ Mettez en place une stratégie: Est-ce que votre organisation possède l’état d’esprit pour réagir en temps réel? Est-ce que votre organisation a des liens avec la nouvelle? Pourquoi les médias devraient attacher de l’importance à ce que vous allez communiquer?

3/ Agissez en publiant une information pertinente en rapport avec la nouvelle sur votre blog, sur votre compte Twitter (en utilisant le hashtag établi); en envoyant une alerte media en temps réel; en réalisant une conférence de presse; en contactant directement un journaliste qui serait intéressé.

Par défaut
SEO

Référencement: l’obtention d’un bon ranking n’est pas une fin en soi

Les pages de votre site ont de bonnes positions dans Google. Sachez qu’il ne s’agit que d’un bon départ car le référencement ne s’arrête pas là. Une bonne position n’est rien d’autre qu’une opportunité pour augmenter l’acquisition de trafic et de leads. Voyons comment faire pour en tirer parti.

Lorsque la question du référencement d’un site est abordée, il est principalement question de l’obtention de bonnes positions dans les résultats des moteurs de recherche. Or, cet objectif ne se trouve qu’à mi-chemin de l’objectif ultime du SEO qui est l’acquisition de leads, de clients, de lecteurs. Bien évidemment, en SEO le parcours vers les conversions ne peut débuter si aucune page ne se trouve dans les premiers résultats des moteurs de recherche. C’est pourquoi cette étape reste cruciale. Ce serait un peu comme vouloir faire du saut à la perche sans perche.

Mais une fois que vous avez atteint cet objectif pour certains mots-clefs, il est indispensable de passer à l’étape suivante c’est-à-dire à l’évaluation du trafic généré pour détecter les points d’optimisation.

Voici comment procéder:

Première chose à faire: vérifier les pages de vos sites qui sont bien positionnées (c’est-à-dire entre la première et la 10ème position).

Vous pouvez le vérifier en faisant une simple recherche dans un moteur de recherche sur le mot-clef. Bien qu’il ne s’agit pas de la manière la plus fiable de le faire car Google tient compte de différents facteurs comme l’historique de vos recherches, votre géolocalisation ou de vos préférences de recherche pour personnaliser les résultats présentés. Vous risqueriez bien de trouver de fortes variations dans la position d’une page en fonction de ces différentes variables. C’est pourquoi il est conseillé d’utiliser un logiciel tiers qui vous donnera les positions moyennes de vos pages (exemples de logiciels: SEOMOZ, rankchecker).

Deuxième chose à faire: vérifier si les bonnes positions amènent du trafic

  Les pages ayant de bonnes positions dans les moteurs de recherche sont celles qui sont susceptibles d’amener du trafic sur votre site. Dès lors, il est important de vérifier si celles-ci amènent du trafic? Pour cela vous devez installer Google Analytics sur votre site. Une fois que c’est fait, vous devez vous diriger vers le rapport ‘landing pages’ sous la catégorie SEO qui se trouve elle-même dans la section ‘traffic sources’. Vous y trouverez toutes les pages sur lesquelles du trafic provenant des résultats naturels de Google aboutit ainsi que les impressions (nombre de fois que le résultat est présenté lors des recherches exécutées), le nombre de clicks, la position moyenne et le click-through-rate.

Troisième chose à faire: optimiser les positions qui ramènent peu ou pas de trafic

Si vous ne trouvez pas les pages qui ont des bonnes positions dans le rapport ‘landing pages’ ou si vous voyez que celles-ci n’enregistrent que peu de visites (clicks), ceci peut être dû à deux raisons:

  • soit votre page n’est pas pertinente pour les internautes en regard de leur recherche,
  • soit les balises ‘meta title’ et ‘meta description’ qui apparaissent dans les résultats ne sont pas rédigées de manière attrayante.

Dans le premier cas, il faut revoir votre stratégie SEO, plus spécifiquement le mot-clef choisit pour optimiser le contenu de la page pour les moteurs de recherche en vous posant la question: est-ce que c’est bien ce contenu que les gens vont rechercher en tapant le mot-clef.

Dans le deuxième cas, il faut revoir le copy des balises en gardant en tête l’impératif d’attraction de l’attention et d’éveil de l’intérêt des internautes. Veillez à ce que votre copy ne dépasse pas le nombre de signes maximum pouvant être affiché sur les pages de résultats.

Quatrième chose à faire: vérifier le niveau d’adhésion (ou d’ ‘engagement’) du trafic et les conversions générées

Pour pouvoir mesurer le niveau d’adhésion du trafic par page et par mot-clef, il est nécessaire de mettre en place un ‘custom report’ dans Google Analytics. Pour ce faire, allez sous l’onglet ‘custom reporting’ et créez un rapport avec comme dimension primaire ‘keyword’ et comme dimension secondaire ‘landing page’, et, avec comme metrics ‘visites’, ‘bounce rate’, ‘average time on page’ ainsi que les ‘goals’ de votre site. N’oubliez pas d’y ajouter un filtre pour n’inclure que le trafic organique.

Vous obtiendrez ainsi une vue en profondeur de votre trafic SEO qui vous permettra d’évaluer son niveau d’adhésion et les conversions générées par mot-clef et par landing page. Un conseil: ne vous concentrez que sur les mots-clés pertinents au regard de votre stratégie.

Cinquième chose à faire: optimiser les pages qui génèrent un niveau d’adhésion et de conversion insatisfaisant

  Listez les pages importantes générant un nombre conséquent de visites avec des durées de visite plus basse que la moyenne et un bounce rate plus élevé que celle-ci et avec un taux de conversion particulièrement bas. Vérifiez pour chacune de ces pages si le terme recherché qui a amené des visites est pertinent au regard du contenu de la page.

Si ce n’est pas le cas, il faut travailler le contenu de ces pages de manière à ce qu’il réponde mieux aux attentes des internautes:

  • Concentrez-vous sur l’amélioration de l’expérience utilisateur en prenant en compte la logique de l’entonnoir de conversion. La première étape de l’entonnoir étant les balises ‘meta title’ et ‘meta description’ sur lesquelles les visiteurs ont clické afin d’arriver sur la landing page.
  • Demandez-vous : si le copy est rédigé de manière à susciter le désir et l’envie de passer à l’acte (demander un rendez-vous, acheter, s’abonner), si le call-to-action est visible et bien placé.
  • S’il s’agit de pages clefs, n’hésitez pas à réaliser un A/B test avec une version alternative de la page pour voir si cette dernière converti mieux que l’originale. N’hésitez pas aussi à faire appel à un spécialiste en ergonomie.

Par défaut