stratégie, Web analytics

Google, la conquête de la pub par l’exploitation intelligente des données

google-publicite-strategie

Google a révolutionné le monde de la publicité en ligne avec ses solutions innovantes permettant aux annonceurs de cibler les consommateurs super efficacement. Mais Google n’a pas fini sa conquête des territoires de la publicité. À vrai dire, le géant californien n’en est qu’à ses débuts… Après avoir assis sa domination sur la publicité des moteurs de recherche, Google cherche à conquérir les autres pans de la publicité.

La société californienne s’est distinguée en construisant son système de publicités entièrement basé sur une qualité désormais incontournable dans le domaine : la pertinence.

L’idée innovante, à l’origine, consistait à faire dépendre les publicités (ou ‘ads’ dans le jargon) servies aux internautes des objectifs de leur recherche. Ce meilleur ciblage garantit une plus grande attention de leur part; et, par ricochet, augmente les chances que ceux-ci soient intéressés par la publicité.
Comme on le sait, ce succès a provoqué un déplacement massif des budgets marketing vers le Search Engine Marketing. Un tiers des budgets dépensé dans la publicité en ligne irait dans les poches du géant, selon le site Mashable.com.

« Le fond de sa stratégie, c’est la recherche de la pertinence pour les utilisateurs. »

Fort du succès d’Adwords, Google a, ensuite, cherché à élargir ses services pour annonceurs au-delà de l’environnement formé par son moteur de recherche. Deux pistes s’offraient logiquement au géant de la publicité:

1/ développer sa présence sur des sites dont il n’est pas propriétaire
2/ agrandir son offre de sites ou d’applications lui appartenant

Il a suivi la première en créant en 2003 un programme de publicité, appelé Adsense, auquel chaque propriétaire de site peut souscrire. Google s’est ainsi construit un réseau de sites de partenaires sur lesquels il sert des publicités en rapport avec les contenus qui y sont présentés. Avec l’acquisition, en 2008, de la régie publicitaire DoubleClick (une des plus grande au monde), Google a encore agrandit considérablement son réseau et son offre de formats publicitaires « display ».

Deuxièmement, il a élargi plantureusement son propre écosystème. Gmail, Youtube, Google News, Chrome, Google talks, Google agenda, Google Maps, Androïd, Google glass, etc. on ne compte plus les sites, applications, solutions logicielles que la firme a achetées ou développées. Sans parler de ses derniers projets dans le domaine de l’automobile, de l’« Internet des objets » (« Internet of things ») et du contrôle de la santé.

Un tel empressement à gagner tous les pans de l’économie numérique suscite naturellement des interrogations; et notamment, la question suivante : Quels sont les besoins stratégiques à l’origine d’un tel appétit de conquête?

Pourquoi Google cherche sans cesse à étendre son territoire ?

Même si les aspirations de Google ne se limitent pas à la publicité, ses revenus proviennent essentiellement de celle-ci. Dès lors, inévitablement, Google a besoin de toujours plus de place. Si ce n’est pas plutôt après du temps que Google court, le temps des gens, du « temps de cerveau humain disponible », selon l’expression formulée en 2004 par Patrick Le Lay, alors président-directeur général du groupe TF1 …

google publicite strategie
À mesure que Google étend son offre de services attrayant, il accroît le temps passé sur son territoire. Il en découle toujours plus d’opportunités pour exposer ses utilisateurs à des annonces publicitaires. Il faut dire que Google s’est, d’ailleurs, concentré sur l’acquisition de sites offrant de belles opportunités en la matière: YouTube, Blogger, etc.

Via son réseau AdSense et l’acquisition de DoubleClick, la société augmente potentiellement son « reach » à tout le Web. Google a, dernièrement, même réussi à conclure un accord avec Facebook  qui permet de cibler des utilisateurs de Facebook via DoubleClick.

« Ses ads attirent plus les annonceurs que les autres parce qu’elles sont mieux conçues. »

Mais la stratégie de Google ne se limite pas à l’extension de son emprise sur le Web. Ses publicités attirent plus les annonceurs que les autres parce qu’elles sont mieux conçues. Les applications – comme Gmail, Google search, Google analytics – que la société met à disposition gratuitement lui permettent de recueillir des précieuses données sur nos besoins, nos habitudes, etc.  Google n’a de cesse de mieux nous connaître. Et, sa vraie force réside dans sa faculté à exploiter ces données au travers de systèmes intelligents pour personnaliser les publicités.

Google n’a de cesse d’introduire des formats publicitaires rivalisant d’ingéniosité à cet égard. Il offre, par exemple, la possibilité de cibler les internautes sur base de leurs intérêts – par exemple, le sport, les animaux de compagnie – en se basant sur le type de sites que ces derniers ont visité. Avec ses applications développées pour la vie réelle via le mobile, l’automobile (Car play, GPS) ou les lunettes (Google glass), le ciblage sera fait bientôt en fonction des lieux visités ou de la direction de nos pupilles ou que sait-on encore …

Quoiqu’il en soit ces évolutions posent d’énormes questions en matière de respect de la vie privée. C’est, d’ailleurs, la seule ombre au tableau qui pourraient pour le moment restreindre le développement du géant, tant son avenir proche semble prometteur.

 

Publicités
Par défaut
stratégie, Web analytics

Vos campagnes de marketing ne sont pas appréciées à leur juste valeur

Les chemins que les consommateurs suivent pour accéder à vos produits ou services sont complexes. Pas un, mais, une multitude de canaux peuvent jouer un rôle dans le processus de conversion. Alors, comment attribuer équitablement le mérite d’apporter des clients aux campagnes marketing? Pourquoi est-ce important pour votre stratégie marketing?

Un visiteur peut visiter plusieurs fois votre site et être exposé à de multiples campagnes de marketing. D’autre part, il peut accéder à votre site via différents moyens : ordinateur, tablette, smartphone, console de jeux, TV, etc. Enfin, il n’est pas limité à Internet. Il peut aussi être influencé par des publicités affichées sur des abribus ou vues à la télévision.
Les parcours des consommateurs – en partant de leur premier point de contact avec la marque jusqu’au moment où ils sont devenus client – sont, donc, plus fragmentés que jamais.

Ce morcellement complique fort le travail d’évaluation de la performance des canaux marketing (tâche habituellement accomplie par les analystes marketing). Prenez le cas de figure suivant : un consommateur surfe sur son site d’informations favorit avec sa tablette. Il y voit une bannière pour une marque de chaussures. Il décide de cliquer dessus. Ce clic le mène une première fois sur le site de vente de chaussures. Il voit des chaussures qui lui plaisent. Il décide d’aller d’abord les essayer en magasin. Ces chaussures lui vont et il va les acheter finalement en ligne avec son ordinateur car le site de vente en ligne offre des réductions que le magasin ne propose pas.

« Le danger est de sous-évaluer ou de surestimer certains canaux. »

Du point de vue de la marque de chaussures qui essaierait de retracer le chemin de conversion de ce consommateur, on aurait trois points de contact ainsi que trois moyens d’accéder à la marque. Le premier point de contact étant la bannière située sur un site, le deuxième étant le magasin « physique », le troisième étant le site de la marque. Le premier moyen d’y arriver étant la tablette, le deuxième moyen étant « physique » et le troisième moyen étant l’ordinateur.

multi-canal conversion

Il n’y a, donc, pas un mais trois canaux qui ont contribué à l’achat du produit. D’un point de vue d’analyse de la performance, la question suivante surgit logiquement : à quel canal attribuer la conversion?
Ces scénarios peuvent varier et inclure, par exemple, d’autres canaux de marketing comme l’emailing, les moteurs de recherche, les campagnes d’affiliés ou d’autres « véhicules ».

Pourquoi est-il important d’attribuer le mérite de la conversion équitablement?
La plupart des systèmes Web analytics attribuent, par défaut, le mérite de la conversion à un seul canal alors que d’autres canaux ont joué un rôle dans le processus de conversion. Le danger est de sous-évaluer ou de surestimer certains canaux, voire d’en supprimer un qui est utile. Prenez une équipe de basket : lorsque celle-ci gagne un match, le mérite d’avoir gagné ne revient pas aux seuls joueurs qui ont marqué les paniers mais à toute l’équipe. De la même manière en marketing, il est pertinent de prendre en considération la contribution de chaque canal; pas seulement celle des derniers canaux empruntés avant la conversion.

« Le but est de trouver quelles sont les combinaisons de canaux gagnantes. »

Heureusement, la plupart outils de Web analytics fournissent bon nombre de rapports utiles qui permettent d’analyser les conversions d’un point de vue multicanal. Vous pourrez y voir quels canaux jouent plus un rôle « d’initiateurs » de la conversion (première interaction), lesquels jouent plus un rôle « d’assistants » (deuxième interaction) et lesquels ont tendance à « fermer » le processus de conversion (dernière interaction).
On remarque, par exemple, que certains canaux (comme le «display» et l’ «emailing») jouent plus souvent un rôle lors de la première interaction et certains canaux interviennent plus en aval du processus (comme le « search », le « direct »).

multi-canal conversion

En étudiant le rôle des canaux et les synergies qu’ils développent entre eux, vous parviendrez à trouver les combinaisons gagnantes (par exemple : télévision avec réseaux sociaux et moteurs de recherche) et arriverez à optimiser le marketing mix pour obtenir un meilleur ROI.

Devez-vous avoir recours à une analyse multicanal?
Mais, avant de vous lancer dans ce genre d’analyse, vérifiez si, en tant que propriétaire de site, vous êtes confrontés à ce genre de problématiques. Comment le savoir? C’est très simple à déterminer. Il suffit de vous connecter à votre application Web analytics et de vous diriger vers le rapport qui montre combien de visites étaient nécessaires avant qu’il y ait conversion.

Si la plupart des conversions ont lieu après plusieurs visites, la question de l’attribution mérite qu’on y passe du temps. Si c’est la situation inverse qui a lieu, concentrez plutôt vos efforts sur la résolution de problèmes prioritaires (le bounce rate de vos pages d’entrée, par exemple).
Si vous souhaitez être sûr, vous pouvez aussi croiser ces informations avec les informations livrées par le rapport « Jours avant achat ». Ce rapport vous indique le nombre de conversions qui se sont produites le jour même de la première visite, et, combien d’entre elles découlent de plusieurs visites et de plusieurs jours.

À quel canal attribuer la conversion ?
Une fois que vous avez identifié un problème qui requiert d’effectuer une analyse des attributions, l’étape suivante consiste à comprendre quel modèle exploiter pour attribuer le crédit aux campagnes.
Un modèle d’attribution est un ensemble de règles utilisées pour déterminer comment le mérite pour les conversions doit être attribué aux différents canaux de marketing.

Il existe bon nombre de modèles d’attribution. Passons en revue quatre d’entre d’eux couramment utilisés :

1. Dernière interaction ou clic (appelé aussi « last click »)
Ce modèle attribue 100% du mérite au canal de la dernière interaction. Le dernier clic est le modèle standard utilisé par la plupart des solutions Web analytics. Même si il est répandu, cette méthode n’est pas optimale pour identifier les canaux dans lesquels dépenser vos sous.

2. Première interaction ou clic (appelé aussi « first click »)
Ce modèle attribue 100% du mérite au canal de la première interaction. Peu d’outils utilisent cette méthode. L’idée est la suivante : « S’il n’y avait pas eu le premier contact, le client n’aurait jamais su que l’on existait. Donc, attribuons tout le mérite au premier canal. » Selon Avinash Kaushik (www.kaushik.net), ce modèle n’est pas très fiable. « Si la première campagne était si formidable, pourquoi en a-t-il fallut six de plus pour que le client soit converti », se demande le guru des analytics.

3. Attribution à parts égales pour les clics (appelé aussi  »linear »)
Le principe est le suivant : « Nous ne savons pas comment attribuer précisément les crédits, alors, accordons les crédits de manière égalitaire à chaque campagne.» Le problème de ce modèle est qu’il amène à investir de manière égale dans toutes les campagnes de la chaîne alors qu’il y a des canaux qui sont plus efficaces que d’autres. Et le but de l’opération est, justement, de découvrir les meilleurs.

4. Dépréciation dans le temps (appelé aussi « time decay »)
Cette méthode donne plus de crédits à mesure que les interactions se rapprochent du moment où la conversion a eu lieu. Le facteur temps est, dès lors, utilisé comme moyen de départager les canaux. L’idée est la suivante : « plus un canal est proche du moment de la conversion, plus il a dû avoir un rôle prédominant dans le processus de décision. » Le point faible de ce modèle est que des canaux peuvent avoir un impact décisif même s’ils sont éloignés de cet instant. Cependant, ceux-ci seront dévalués.

« Même s’il y a des modèles utilisés plus couramment, il n’y en a pas qui soit universellement accepté. »

Même s’il y a des modèles utilisés plus couramment, il n’y en a pas qui soit universellement accepté. Car la manière dont on attribue diffère d’un cas à l’autre, d’une personne à l’autre. On répondra différemment selon qu’on est marketing manager, publicitaire, campaign manager, digital planner, etc.

D’ailleurs, ce flou artistique peut avoir des conséquences sur l’évaluation de vos campagnes. Souvent, plusieurs intermédiaires collectent des données sur les campagnes : la société gérant les campagnes d’affiliés, celle s’occupant des campagnes RTB (real time bidding), celle en charge des campagnes search, etc. Et il n’est pas rare que leur comptage des conversions donne lieu à des résultats divergents de celui du système analytics installé sur le site du client. Ceci est, sans doute, dû au fait que les intervenants utilise un modèle d’attribution différent de celui du système installé sur le site. Généralement, leurs systèmes attribuent la conversion au canal dont ils sont en charge dès que celui-ci a joué un rôle (par exemple : une bannière a été vue ou cliquée) alors que le modèle du dernier clic est souvent d’application dans les systèmes de Web analytics.

C’est pourquoi les éditeurs de solutions Web analytics prévoient aussi la possibilité de créer votre propre modèle. Pour créer un modèle personnalisé, vous devez indiquer le nombre de contacts nécessaires et la manière dont vous attribuez les crédits à chacune des interactions.

Selon Kaushik, cette méthode (comme les autres d’ailleurs) peut porter ces fruits comme ne rien apporter du tout. Tout dépend de la capacité des analystes à percevoir les éléments subtils qui influencent les personnes en ligne ainsi que les performances passées des canaux afin de proposer un modèle reflétant la réalité.

Il est aussi possible de comparer les différents modèles entre eux via vos applications analytics pour voir lequel offre le plus de résultats probants.

En bref, l’analyse des chemins qu’empruntent les internautes reste un exercice difficile. Car, qu’on le veuille ou non, le Web n’est pas structuré. Il est chaotique. Il est impossible de connaître l’impact précis que chaque canal a sur les clients.

La seule chose qu’on puisse faire, c’est formuler des hypothèses pour, ensuite, les tester. C’est à ce prix que la découverte de nouvelles opportunités marketing aura lieu.

Par défaut
stratégie, Web analytics

Comment tirer pleinement parti de vos rapports Web Analytics en 4 étapes

process web data analyse

Les Web analytics ne doivent pas se limiter à la consultation de rapports. Leur exploitation doit permettre d’apporter de la valeur à votre activité. Arrêtons-nous un moment sur le terme «apporter de la valeur » qui sonne un peu comme un de ces trop nombreux buzz word inventé par des consultants désireux d’appâter des clients. Concrètement, qu’est- ce qui se cache derrière?

« Pour tirer parti de vos données, vous devrez vous mettre à les analyser. »

Développer de la valeur c’est engendrer une idée, une invention, un procédé ou tout autre chose qui aura un impact positif sur votre affaire directement ou indirectement. Il s’agit, donc, d’un terme très large qui dépend du contexte. Dans le cas qui nous concerne, les Web analytics fournissent des informations vous permettant de mieux comprendre et de mieux orienter vos actions en ligne. En d’autres termes, les Web analytics ne génèrent pas directement de la valeur. C’est vous qui, de par votre bonne maîtrise de l’outil, vos capacités d’analyse et de stratégie – allez créer de la valeur pour votre activité.

Aller au-delà des rapports
Il ne suffit pas de mettre en place un outil et d’ouvrir ses rapports quelques fois par semaine pour en tirer des bénéfices. C’est pourquoi, il est essentiel d’aller au-delà des rapports préconçus de votre outil et de vous mettre à analyser réellement vos données.

Une bonne analyse doit vous permettre de:

1/ répondre à des questions précises sur le comportement des visiteurs: Pourquoi ne convertissent-ils pas? Pourquoi sortent-ils du site à cet endroit-là? Quels sont leurs centres d’intérêt ?
2/ jauger le degré de succès de votre site Web et de vos actions en ligne.
3/ déterminer quelles actions doivent être entreprises.

Mais avant de commencer à analyser, il s’agit de mettre à jour quels sont les objectifs du marketing en ligne car ceux-ci ne sont pas toujours bien définis. Et le manque d’objectifs clairement définis risque de mettre à mal l’efficacité de l’analyse. De plus, il est pertinent de se demander s’il vaut la peine d’investir du temps et de l’argent dans un processus dont la finalité est floue.

« Si vous voyez des mots qui pointent des actions à entreprendre avec des données pertinentes, alors vous êtes en face du résultat d’une analyse de données Web. » Avinash Kaushik

N’oubliez pas aussi d’en dériver des moyens de mesurer le degré d’atteinte de vos objectifs, c’est-à-dire des KPIs. Par exemple, si un objectif business est de générer des ventes en ligne, un KPI sera le revenu par jour ou par semaine. Votre plateforme de Web analytics peut déjà offrir les « metrics » et « dimensions » nécessaires. Et, si ce n’est pas le cas, vous pouvez aussi les créer vous-même (par exemple, en créant des custom dimensions).

Le point de départ
Une analyse commence dès lors qu’il y a quelque chose de spécifique que vous voulez découvrir qui va au-delà de la simple consultation d’ensembles de données.
Cette investigation peut débuter dès lors:

  •  qu’un problème se présente. Par exemple : le taux de rebond (plus connu sous le terme « bounce rate ») du site a augmenté ou le taux de conversion a baissé.
  • qu’une question spécifique provenant du management ou d’un collègue est posée. Par exemple. Par exemple : Est-ce que l’argent qu’on a investi dans cette campagne rapporte le nombre de leads escompté?
  • que quelque chose doit être évaluée : un redesign d’une section d’un site, le succès d’une campagne, etc.

Les débouchés attendus de l’analyse
Un problème qui se pose fréquemment lorsqu’on débute une analyse est qu’on ne sait pas toujours par quoi commencer. La première chose à faire est de se poser une question de départ. Celle-ci permettra de cerner l’objet de la recherche et de savoir vers où vous devrez vous orienter.

Par exemple, si l’élément à analyser est :
– la hausse soudaine du taux de rebond du site. La question qui peut être posée est: Est-ce que la hausse est due à une mauvaise gestion des campagnes d’acquisition de trafic?
– le mauvais résultat des ventes en ligne d’une ligne de vêtement. On pourrait poser les questions suivantes: Est-ce que le mauvais résultat est dû au fait que les produits ne sont pas assez mis en valeur sur le site ? Ou bien, est-il dû au fait que ce type de vêtement n’est pas adapté à la vente en ligne?

Vous pouvez même aller plus loin en formulant une hypothèse de recherche que vous allez infirmer ou confirmer.

L’exploration
La seconde phase consiste à explorer la piste que vous vous êtes fixé. Demandez-vous ce qui pourrait avoir un impact sur l’élément que vous tentez d’analyser.
Dans le cas de la question relative à la hausse surprenante du taux de rebond, vous vous orienterez tout naturellement du côté des rapports sur les sources de trafic. Plus spécifiquement, vous regarderez le taux de rebond de chaque source de trafic ou canal d’acquisition: e-mailing, trafic direct, trafic issu des moteurs de recherche, etc.
Dans le cas des questions relatives aux résultats des ventes négatifs, c’est les rapports e-commerce ainsi que ceux montrant le degré de succès des pages produits qui devront être consultés. Plus spécifiquement, vous examinerez l’évolution des revenus par page produit.

« Votre bonne connaissance des divers rapports qu’offre votre plateforme de Web analytics sera clef pour trouver la source d’informations adéquate. »

Votre bonne connaissance des divers rapports – et surtout des « metrics » et des « dimensions » qui les composent – sera déterminante pour trouver la source d’informations adéquate. C’est pourquoi il est essentiel de disposer au préalable d’une bonne maîtrise de l’outil.
Si vous ne trouvez aucune trace de l’origine du problème dans ces rapports, envisagez alors d’inspecter d’autres pistes en recherchant une autre hypothèse plausible. Inspectez chaque facteur potentiellement générateur d’impact tel un enquêteur ne laissant aucune piste pouvant mener au coupable au hasard.

Mais, avant tout, assurez-vous d’avoir exploité toutes les sources d’information à votre disposition. Si votre plateforme de Web analytics ne vous offre pas la réponse, il existe d’autres outils : par exemple, des outils permettant de récolter des «données plus qualitatives »: les heatmaps ou clickmaps, l’A/B testing, le multivariate testing, les enquêtes en lignes, etc.

La découverte d’insights
Une fois que vous tenez des informations-clefs, comment faire vous pour vérifier si votre hypothèse de départ est vraie?
Différentes techniques sont à votre disposition pour « faire parler vos données ».

1/ Identifiez les tendances qui changent.

Dans l’exemple avec le taux de rebond qui augmente, regardez à quel moment le bounce rate augmente significativement.

2/ Comparez les données provenant de divers segments entre elles.

comparer
Dans le même exemple, comparez le taux de rebond des diverses sources de trafic entre eux et avec le taux de rebond moyen du site. Vous verrez tout de suite quelle source fait défaut.

« Inspectez chaque facteur tel un enquêteur ne laissant aucune piste pouvant mener au coupable au hasard. »

3/ Cherchez des éventuelles corrélations.

Vous cherchez, par exemple, à savoir si un afflux de trafic d’une campagne est à l’origine d’une amélioration des ventes à un moment donné. Comparez la courbe des visites du segment représentant la campagne et celle des ventes de produits. Si les courbes se chevauchent, c’est qu’il y a des chances que cela soit le cas.

4/ Recoupez vos sources d’informations.

Après de longs moments d’investigation, vous avez, enfin, l’impression que vous tenez quelque chose. Toutefois, vous flairez qu’il vous manque des éléments vous permettant de confirmer la chose. Sachez qu’il est possible dans beaucoup de cas de trouver ces indications dans d’autres rapports.
Si vous souhaitez, par exemple, savoir sur quels liens d’une page les gens cliquent, vous pouvez:
– soit consulter le rapport de la page en question dans lequel vous trouverez les pages suivantes qui ont été visitées.
– soit consulter le rapport intitulé in-page analytics où vous trouverez le taux de clics sur chaque lien se trouvant sur la page.
Les deux rapports ne se recoupent pas à 100% ? Ce n’est pas grave. Concentrez-vous sur ce qu’indiquent les tendances, et non, sur les chiffres absolus.

in-page analytics

5/ Vérifiez le poids relatif d’un élément dans le total.

Lorsque vous vous attardez sur l’analyse d’un élément (une page ou une source de trafic, par exemple), il est, souvent, indispensable de voir quel est son poids proportionnellement aux autres éléments du même type.
Lorsqu’on souhaite savoir quel est l’impact réel d’une source de trafic sur le site, par exemple.

pie cahrt

Si, à la fin de votre analyse, vous êtes arrivé à trouver une réponse concrète à votre question de départ et à confirmer votre hypothèse, il ne vous reste plus qu’à tirer parti de ce que ces éclaircissements vous indiquent. Soit, il s’agira de quelque chose qui est simplement destiné à être communiqué et servant à accroître votre compréhension de la conduite de vos activités en ligne ; soit, cela sera quelque chose méritant de plus amples investigations (via des user tests, par exemple) ; soit, il s’agira « d’insights » identifiant des actions concrètes à entreprendre.

A l’opposé, si vous n’avez rien trouvé de concluant vous pouvez recommencer le cheminement avec une autre hypothèse que vous allez tester.
C’est à ce prix que vous parviendrez à générer de la valeur pour votre activité .

Par défaut
stratégie, Web analytics

Ne dites plus Google Analytics mais Universal Analytics

Google Analytics Universal AnalyticsGoogle Analytics a lancé une nouvelle update importante de son code de tracking. Il s’agit de la quatrième version du code depuis la naissance de la plateforme. Cette nouvelle version doit permettre d’améliorer la qualité et d’augmenter le nombre de données collectées via sa plateforme.

Google Analytics est parti du constat suivant pour mettre à jour sa technologie de tracking : les points via lesquels les consommateurs sont en contact avec les marques sont de plus en plus fragmentés:

  •   les appareils utilisés: tablettes, smartphones, consoles de jeux, ordinateur, etc.);
  • les canaux de marketing (street display, moteurs de recherche, magasins, etc.)

L’adjectif « universel » fait référence à la vision holistique que Google veut offrir aux utilisateurs de sa plateforme analytics.

« Il s’agit plus d’une mise à jour de la technologie de tracking que de l’interface. »

Petit tour d’horizon des innovations apportées :

Intégration de données d’origines plus diverses

Universal Analytics doit permettre l’intégration des données provenant de différents appareils digitaux connectés au Web ou non. Il est, désormais, possible d’envoyer des données des canaux digitaux que l’on souhaite vers la plateforme de Google: qu’il s’agisse d’une appli pour smartphones, d’une console de jeux, d’un point de vente, du CRM d’un service clientèle ou même d’un détecteur de mouvements, …

Il n’y aurait pas de limites pour autant que ces systèmes soient programmés en fonction du protocole de mesure, nous dit-on chez Google.

Il serait, donc, même possible d’envoyer les informations liées aux conversions réalisées en magasin. L’identifiant compris dans la carte de fidélité peut, par exemple, être exploité.

Cela dit Google reste fidèle à sa politique de protection de la vie privée. Les données qui seront envoyées aux serveurs de Google resteront anonymes.

Meilleur suivi des visiteurs

Une autre évolution majeure est l’amélioration du suivi des visiteurs. Jusqu’à présent un des metrics roi dans le domaine des Web analytics était le nombre de visites. Le but de la nouvelle mouture de Google Analytics est de livrer des données plus orientées vers le visiteur.

Avec la multiplication des appareils permettant de surfer sur le Web, il était devenu inévitable de trouver une nouvelle méthode plus efficace pour suivre le comportement des visiteurs à travers tous les stades menant à la conversion (publicité, ventes, utilisation des produits) pour, ensuite, les agréger dans un endroit. Surtout qu’il faut dire que le metric ‘nombre de visiteurs’ souffrait d’un manque de fiabilité.

« Il est désormais possible d’envoyer des données des canaux digitaux que l’on souhaite dans Google Analytics. »

L’intégration d’un plus grand nombre de données permettrait d’en savoir plus sur l’origine sociale, les habitudes, les préférences, l’âge, etc. des visiteurs et permettrait de mieux suivre ceux-ci.
On ne parle plus d’analyser des visites, mais plutôt de décortiquer le comportement des visiteurs.

Contrôle accru via l’interface d’administration

Le nouveau code n’est plus basé sur ces fameux cookies utm propres à Google Analytics (utma, utmb, utmc, utmv, utmz). Il ne reste plus qu’un seul cookie (_ga) qui sert à identifier et reconnaître le visiteur. Le calcul de la session, la source de trafic et les variables personnalisées de type visiteur, qui étaient jusqu’à maintenant stockées dans les cookies, seront dorénavant gérées au niveau des serveurs de Google.

Par conséquent, une grande partie des configurations – comme l’ajout de nouveaux moteurs de recherche ou de sites référents, la définition de la durée d’une session ou d’une campagne – qui se faisaient via le code (JavaScript) sont maintenant gérables via la section admin.

Mais, rappelons qu’avec les systèmes de tag management tels que Google tag manager même le code standard de Google Analytics peut être modifié sans une intervention dans le code.

Nous serions, donc enfin, libéré de configurations qui étaient souvent interminables parce qu’elles requerraient l’intervention de différents intermédiaires (notamment, l’agence de développement).

Possibilités de segmentation plus pointues

Avec la dernière version du code de Google Analytics, il était déjà possible de créer les segments que l’on voulait à partir de variables personnalisées. Cette fonctionnalité – appelée anciennement « custom var » et rebaptisée « custom dimension » – est très utile car elle permet d’aller chercher les données qu’on veut pour approfondir les analyses.

Avec Universal Analytics il est, désormais, possible de créer plus de dimensions qu’avant – jusqu’à 20 variables personnalisées (comparativement aux cinq espaces disponibles des variables précédentes)- ainsi que des metrics personnalisés (cela n’existait pas avant).
Pour que ces valeurs soient envoyées à Google Analytics, elles doivent être définies dans l’interface d’administration – opération qui se faisait précédemment via le code source du site.

custom dimension

Ensuite, il faut, toujours, malgré tout, installer dans les pages un code JavaScript qui envoie les dimensions et les metrics à Google Analytics.

Importation de données sur les coûts

Certainement une des plus intéressantes nouveautés: il est désormais possible d’importer des données liées aux coûts des campagnes marketing. Jusque-là l’import des coûts était limité aux données Adwords.

Le fait d’avoir tous les coûts et toutes les conversions dans Google permet aux marketers de développer une vue plus complète de la performance de leurs canaux de promotion et de ventes.

« Google Analytics est un outil de plus en plus orienté business intelligence. »

Avec l’introduction de ces nouvelles possibilités, Google Analytics concurrence un peu plus des plateformes Analytics plus orientées business intelligence comme Webtrends, Omniture, SAS. Et cela, tout en restant gratuit ! C’est à se demander ce qui motive Google à investir autant dans sa plateforme.

Beaucoup de spéculations ont lieu à propos de la stratégie de Google dont le service Google Analytics fait partie. Certains avancent que le géant de la publicité essaie de récolter toujours plus de données sur les utilisateurs des sites Internet afin d’améliorer la pertinence des publicités qu’il diffuse via ses plates-formes ou réseaux: Google search, Adsense, Double click, YouTube, Gmail, etc. Et d’ainsi améliorer son attractivité auprès des annonceurs …

Plusieurs questions viennent légitimement à l’esprit. Essayons d’y répondre.

1/ Faut-il déjà commencer à implémenter la nouvelle version du code Google Analytics ?
Tout d’abord, il faut savoir qu’actuellement Universal Analytics a été lancé en mode Beta. Le lancement officiel est prévu pour fin 2013, début 2014.
Il n’y a aucune obligation de l’installer aujourd’hui. Mais, il est possible de le faire.

2/ Comment l’installer?
Google Analytics vient de créer une fonctionnalité qui permet de migrer facilement son ancienne propriété vers une propriété Universal Analytics tout en conservant l’historique des données. Il suffit de suivre la procédure indiquée sur l’écran « Universal Analytics Upgrade » accessible via l’interface d’administration.

upgrade to universal analytics

Ensuite, il faut retaguer le site entièrement avec le nouveau javascript (analytics.js). Cela ne devrait pas poser trop de problèmes si vous avez opté pour une solution de tag management qui vous évite de faire appel à votre boite de développement.

Vous pourrez trouver plus d’info sur la procédure à cette adresse : http://bit.ly/1aj7hAz.

3/ Est-ce que l’interface avec les rapports sera modifiée ?
Non, il n’y a pas de gros changements à ce niveau comme il s’agit plus d’une mise à jour de la technologie de tracking. Il y a juste plus de fonctionnalités.
Cependant, il n’est pas encore possible d’exploiter les content experiments et les fonctionnalités liées au remarketing. Mais cela devrait venir bientôt, nous assure-t-on chez Google.

4/ Est-ce que les deux versions du code peuvent être utilisées en parallèle?
Oui, la cohabitation ne doit a priori pas poser de problèmes.

5/ Est-ce que les propriétés classiques seront automatiquement mises à jour lorsqu’Universal Analytics sera officiellement lancé? Oui. Le but de Google Analytics est de transférer toutes les propriétés vers Universal Analytics à terme. Toutes les mises à jour et les nouvelles fonctionnalités seront seulement d’application pour Universal Analytics. Les propriétés qui n’auront pas effectué la transition seront automatiquement transférées dans les prochains mois. Google n’a pas livré plus de précisions quant à la date exacte.

Par défaut
contenu, stratégie

Une nouvelle spécialité est-elle née dans le domaine du marketing digital?

(version francophone et plus élaborée de mon article précédent)

Dans le monde du web, le mot contenu reste encore fort connoté dans le sens d’outil de gestion, de système. Le besoin d’intégrer ce dernier dans un cadre stratégique plus global se fait de plus en plus sentir. Les experts réunis au Content Strategy Forum 2010 se profilent comme les porteurs d’une nouvelle discipline.

Ils attendent patiemment que le domaine digital leur prête attention. Ils briguent une place qui leur serait due. Ils se veulent les tenants d’une nouvelle spécialité dans le monde digital. Eux ? Ce sont ces copywriters, webmasters, rédacteurs techniques, designers, responsables de communication qui sont venus dernièrement des quatre coins d’Europe et des États-Unis à Paris pour discuter pendant deux jours d’une question trop souvent éludée par les responsables du web: le contenu. Non pas les systèmes de gestion, mais, le contenu lui-même.

Malgré que l’assertion « Content is king » est maintenant devenue un lieu commun pour les spécialistes du web, il faut bien admettre que celui-ci endosse encore largement le rôle de maillon faible dans le processus de création web. Le point de focus a successivement été porté sur la technologie pour passer aux questions de design puis à celles d’architecture de l’information, d’expérience utilisateurs en passant par les systèmes de gestion de contenu (CMS). D’ailleurs, il suffit de regarder tout planning de projet web pour se rendre compte de l’absence cruelle de ressources allouées au travail du contenu. Lorsqu’ils sont interrogés sur ce manque, la posture des responsables de projets se résume trop souvent de la manière suivante : « c’est l’affaire du client » (voire de l’utilisateur). « Nous sommes appelés pour développer et délivrer un outil. C’est au client de savoir ce qu’il veut y mettre et ce qu’il veut en faire ». Mais, il est vain de jeter la pierre aux agences. Tant bien même que les clients se verraient proposés des services dédicacés au contenu, ceux-ci refuseraient.

Pourtant, pour les experts réunis au Content Strategy Forum 2010, les deux parties ont y a gagner. «Trop de temps est passé sur l’infrastructure (fonctionnalités, design, templates, CMS) quand trop peu de temps est alloué au contenu, il en résulte que le client ne peut tirer pleinement parti du délivrable car le contenu est insuffisant inadéquat, inapproprié » explique une Ann Rahel Baillie des intervenantes.

 « Il y a une masse de contenus en ligne qui sont désuets, inutilisables ou inutilisés »

Il ne faut pas être expert pour se rendre compte qu’il y a une masse de contenus en ligne qui sont désuets, inutilisables ou inutilisés ; que ce soit dû à une mauvaise prise en compte des besoins dès le départ ou à une négligence installée avec le temps ou un manque de ressource, etc. Pour éviter ce genre de situation, « le copywriter devrait travailler main dans la main avec l’architecte d’information. Mais, auparavant, il faut que le contenu soit une préoccupation dès la phase d’analyse stratégique. » De plus, le contenu doit être géré tout au long de son cycle de vie. Une fois entré dans le CMS, il doit être régulièrement révisé afin de détecter ce qui n’est plus pertinent au regard des objectifs et des audiences.

C’est dans ce contexte que le ‘stratégie’ accolé au mot ‘contenu’ prend tout son sens et que la stratégie de contenu peut être envisagée comme une nouvelle discipline. Christina Halvorson définit ainsi son activité : “la stratégie de contenu planifie la création, la publication et la gouvernance de contenus utilisables et utiles (…) Cela signifie que le stratégiste de contenu n’est pas seulement en charge de définir ce qui doit être publié mais aussi, et d’abord, de dire pourquoi cela doit l’être. Il est le responsable du délivrable « contenu ». Avant de procéder à son développement, il va procéder à l’audit et l’analyse des actifs existants. Il va détailler les messages, thèmes et sujets clefs. Il va établir les objectifs des contenus (censés combler l’écart entre les besoins du business et ceux des audiences) et le cadre en termes de metadata, de contenus transversaux et de SEO. Il va enfin définir les moyens pour mettre en place la politique de gouvernance du contenu (plan de gouvernance, formations, charte et comité éditorial). »

« Cette discipline se trouverait au croisement du développement et publishing de contenu, de l’architecture de l’information et de la business analyse. »

Une autre spécialiste dans le domaine œuvrant pour le compte de la célèbre agence digitale Razorfish aime utiliser l’analogie suivante: « la stratégie de contenu est au copywriting, ce que l’architecte d’information est au design (…) Son but principal est d’utiliser les mots et les données pour créer des contenus accessibles qui permettent de vivre des expériences interactives significatives.»

« L’architecture de l’information est le design spatial de l’information quand la stratégie de contenu peut être vu comme le côté temporel de la même pièce» indique pour sa part Louis Rosenfeld. En fait, ce que veulent les tenants de cette discipline, c’est rassembler des disciplines propres aussi bien à la communication qu’au web pour les refonder en une seule suivant une vision holistique ; et ce, afin de prendre en compte de manière optimale l’expérience utilisateur. Cette discipline se trouverait au croisement du développement et publishing de contenu (copywriting, webmaster, journalisme), de l’architecture de l’information et de la business analyse.

Le spécialiste travaillant de la sorte se profilerait plus comme une sorte de super gestionnaire de projet coordonnant avec habilité ces différents aspects. Dès lors, on le voit bien cette émergence ne vient pas tant pallier au manque d’intérêt quant aux questions de contenu qu’il ne vient répondre au besoin de disposer d’une vision multidisciplinaire dépassant le seul cadre de la communication web dans la gestion de projets digitaux.

« C’est du côté de la structuration du contenu que se situe le vrai défi pour les spécialistes de l’information. »

Mais l’aspect réellement neuf qu’apporte la stratégie de contenu concerne surtout l’élaboration de dispositifs permettant de structurer, de catégoriser le contenu : le tagging, les metadata, les taxonomies voire ontologies. Parce que c’est de ce côté technique là que se situe le vrai défi tant les quantités de contenus à traiter sont de plus en plus vastes et les moyens de les rendre accessible sont multiples et complexes.

Obtenir des contenus qui sont rangés dans les bons tiroirs et que ces tiroirs soient inter-reliés adéquatement entre eux et que le tout soit, en plus, compatible avec les standards en vigueur et interopérables relève, à ne pas s’y tromper, d’une réelle gageure. Cela exige une connaissance profonde de certains aspects techniques alliée avec une vision stratégique du monde digital. Un monde en marche à toute allure vers sa dimension sémantique. Une dimension où les contenus, les applications ont atteint un degré d’intelligence supérieure. C’est dans le contexte plus global de l’émergence de cette nouvelle ère de l’information que ces croisés du contenu ont un rôle important à jouer.

(Article paru dans Inside magazine)

Pour en savoir plus : Voir article fondateur de Rachel Lovinger et articles de Muriel Vandermeulen sur le blog écrire pour le web


 

 

Par défaut