SEO

Search University 2012: les enseignements clefs

Le marketing des moteurs de recherche est un domaine qui reste difficilement pénétrable par la majorité des entreprises. Le fait qu’il s’agisse d’une discipline très technique qui a énormément évolué depuis ses débuts – jusqu’à épouser, récemment, de contours totalement neufs – n’y est pas pour rien.

Dans le même temps, ces mêmes entreprises savent bien qu’elles ne peuvent se passer d’une visibilité dans les moteurs de recherche; d’où, le besoin grandissant d’espaces pour vulgariser le savoir issu de cette discipline. Cela s’est traduit par une hausse de 50% des inscriptions à la 4ème édition de la Search University, principale conférence organisée dans le domaine en juin dernier en Belgique. Preuve, s’il en fallait une, qu’il y a un manque à combler.

Les interventions se sont articulées autour de deux thématiques clefs du moment: l’optimisation pour les moteurs de recherche (SEO) via le contenu et les réseaux sociaux, d’un côté; et l’optimisation des grands sites, de l’autre.

Le contenu et les réseaux sociaux, stars incontestables

Les dernières modifications majeures de l’algorithme de Google (Panda, Pinguin) ont eu comme but de combattre la suroptimisation et de priviligier les résultats de qualité. Résultat des courses: les techniques traditionnelles de référencement sont en perte de vitesse.

Alors, comment faire pour réorienter la stratégie SEO? Selon Koen Verbrugge de l’agence gantoise Wijs, l’équation ‘’mots-clefs X rankings = résultats’’ n’est plus pertinente. ‘’Pour réussir, il faut adopter une stratégie de contenu efficace qui se focalise sur les points suivant: la pertinence en regard des besoins du public et la plannification des mises à jour.

En somme, il faut qu’elle permette de créer les contenus répondant aux besoins de l’audience visée et que celui-ci soit placé au bon endroit et au bon moment.

Gabriel Goldberg de l’agence Semetis a, lui, insisté sur l’importance d’adopter une approche du SEO à long terme et de monitorer l’impact des efforts réalisés sur le trafic du site au moyen des analytics. Il a pris l’exemple de semetis.be qui aurait quadruplé le traffic SEO en 3 ans grâce, notamment, à la publication régulière de contenus.

Aussi, comme Google tient compte des réseaux sociaux pour juger de la pertinence d’un contenu, il faut que la stratégie inclue la création de contenu pour les utilisateurs des réseaux sociaux.

Faire du SEO pour un site multilingue ou multirégional

Gérer les aspects liés au référencement pour des sites de taille importante peut rapidement devenir un vrai casse-tête. La difficulté peut provenir du fait que votre site s’adresse à des audiences localisées dans différentes régions géographiques ou utilisant différentes langues.

Christoffel Hiltermann, en charge de l’assistance aux webmasters chez Google, a donné quelques trucs et astuces pour mettre en place une stratégie SEO multirégionale et multilingue efficace. Google tente de détecter la langue ciblée par une page pour améliorer la pertinence des résultats de recherche.

Dès lors, il est important de faire en sorte que la langue de chaque page soit facilement identifiable par Google. Il faut, par exemple, que chaque page inclue du texte provenant d’une seule langue sinon Google risque d’attribuer la page à l’autre langue présente sur la page. Chaque page de chaque version linguistique doit avoir une URL spécifique. Il a aussi conseillé d’envisager de placer des liens sur vos pages pour passer d’une langue à une autre.

Dans le même but d’amélioration de la qualité de son service, Google tente de détecter le pays ciblé par un site. Les éléments pris en compte par Google pour effectuer cette détection sont les domaines nationaux de premier niveau (par exemple: .be pour la Belgique, .de pour l’Allemagne), la localisation géographique du serveur via son adresse IP, d’autres indices comme des numéros de téléphone, des addresses, des langues, etc.

Alors, que se passe-t-il quand le site est mis sur un domaine générique non rattaché à un pays(.com, .org, .eu) ? Google propose un outil qui permet de lui spécifier quelle zone géographique le site cible.

Vous trouverez plus d’infos sur ce sujet sur le centre d’aide pour les webmasters de Google.

 

Par défaut
Web sémantique

Web sémantique: une petite révolution en vue pour la gestion de contenu

web semantiqueLe web sémantique représente une révolution dans les moyens de présenter des informations à des publics. Mais sait-on que son émergence va affecter aussi la manière de les mettre en ligne.

Maintenant que la plupart des concepteurs de produits digitaux viennent d’intégrer le fait qu’il faut concevoir en priorité les produits digitaux pour les utilisateurs, voila qu’une nouvelle vague est en passe de submerger cet édifice de convictions. Car, dorénavant, c’est pour les machines qu’il faudra les penser. Grand nombre d’entre nous a déjà entendu parler de la prochaine génération du web – ce que certains se complaisent à appeler « web 3.0 » – mais peu de gens savent réellement de quoi il s’agit. Et moins encore savent quel en sera l’impact sur le processus de gestion du contenu. Si les contents managers veulent que leurs audiences continuent à aimer leurs contenus, ils devront revoir leur façon de travailler.

« Le web sémantique a comme objectif de créer des données et des sites web lisibles par les machines »

Commençons par expliquer brièvement ce que signifie un web « sémantique ». La sémantique en linguistique correspond à la signification des mots. De même que la syntaxe correspond aux règles qui régissent le langage. Autrement dit, la syntaxe correspond au ‘comment’ et la sémantique au ‘quoi’. Jusqu’ici le web prenait plus en compte la syntaxe (ex.: orthographe, ordre des mots) que le sens. C’est pourquoi dans de nombreux cas, les recherches sur internet ne mènent pas directement aux résultats voulus. Les machines ne savent, par exemple, pas faire la différence entre des homonymes. Une recherche sur le mot tablette conduira à l’Ipad d’Apple mais aussi aux pages parlant des 10 commandements de l’Ancien Testament. Pour éviter ce genre d’inefficiences et offrir plus de contenus pertinents à l’endroit et au moment adéquat, les machines doivent comprendre les données. Si on leur en donne les moyens, elles pourront les exploiter de manière à leur donner du sens, et, détecter ainsi nos centres d’intérêt potentiels.

Le problème que le web sémantique essaye de résoudre est, comme le souligne bien Rachel Lovinger de l’agence Razorfish, la complexité. « S’il y a bien une chose à laquelle les machines surpassent facilement les humains c’est le traitement rapide des requêtes complexes et la mémorisation de longues séries de chiffres, la recherche d’un élément précis au travers de millions de pages. Les systèmes sémantiques sont conçus pour capter la logique qui va leur permettre de comprendre ce type de relations entre données et les utiliser pour donner une nouvelle dimension aux données. »

Permettre aux contenus de réaliser leur potentiel

Pour qu’elles arrivent, en l’occurrence, à rendre ces services, il faut que les données soient rendues identifiables, définies et structurées. Le W3C a développé un ensemble de standards (e.a. OWL, RDF, SPARQL) qui permettent au propriétaire d’un site d’intégrer toute sorte de données dans le contenu et d’organiser celles-ci selon des règles d’induction. Prenons, par exemple, le site d’événement upcoming. Chaque événement ajouté est « étiqueté » au moyen des codes- appelés microformats- partagés par différentes plateformes. Ce qui permet à l’événement d’être automatiquement repris dans le site de partage de photos flickr et Yahoo. Son exploitation via Icalendar, RSS et GeoRSS est aussi rendue possible.

Search Monkey, un moteur de recherche se voulant sémantique développé par Yahoo !, propose à partir d’une recherche sur un titre de film de voir directement l’évaluation des critiques, la durée du film, la date de sortie ainsi que des liens directs vers la bande d’annonce, une page de vente de ticket, etc.

« Si les ordinateurs comprennent la signification derrière les informations, ils pourront savoir ce qui nous intéresse. »

Le Wall Street Journal propose, pour sa part, des informations plus exhaustives sur chacun des films cités dans leurs articles – réalisateurs, autres critiques sur le film, acteurs principaux – grâce à un partenariat mis en place avec un autre site livrant des infos structurées sur le monde du divertissement (freebase) et ayant ouvert ses bases de données à d’autres.

Avoir des pages web intégrant ces avancées offrira un avantage compétitif indéniable pour les organisations. Leurs contenus web seraient incroyablement plus accessibles et exploitables. De nouvelles manières de les monétiser apparaitront aussi. Par exemple, quelqu’un cherchant une épicerie spécialisée en huiles bio la plus proche du point géographique où il se trouve ou un groupe de musique du même genre que celui qu’il vient d’écouter n’aura de peine à la/le trouver instantanément. Quelqu’un souhaitant s’enregistrer à un événement en ligne recevrait automatiquement les coordonnées dans son système GPS. Son agenda électronique serait mis à jour et il se verrait proposer des vols last-minute vers le lieu où l’événement se tient.

Poussée à l’extrême cette logique pourrait conduire à ce qu’on n’ait même plus besoin d’aller sur les sites eux-mêmes. On peut aisément imaginer les dangers que cela comporte pour les sites dont les revenus proviennent de la publicité. « Mais les machines ne peuvent réaliser certaines tâches sans l’aide des humains » averti l’experte de Razorfish.

Des processus de gestion du contenu boulversés

La raison pour laquelle le web 3.0 prend du temps à voir le jour provient du fait que cette entreprise de formatage des contenus comporte certaines lourdeurs qui ne sont pas en passe d’être résolues. Pour qu’un site puisse agréger automatiquement des informations provenant d’autres sites, il faut, comme on l’a dit, que ces infos soient «balisées » suivant les mêmes standards. Cela implique que des balises soient intégrées spécifiant à quoi chaque élément de contenu se rapporte (ex : nom de l’événement, date, lieu, prix, mots-clefs). Pour prendre un exemple connu, la manière dont Google présente ses résultats (titre, description, liens directs vers certaines pages/sections du site) provient du fait que le contenu des sites référencés ont utilisé des métadonnées (balises ‘meta title’, ‘meta description’, etc.). Le web sémantique est permis grâce un recours extensif à ce genre de pratiques.

« Poussée à l’extrême cette logique pourrait conduire à ce qu’on n’ait même plus besoin d’aller sur les sites. »

Autant le dire tout de suite, ce dessein est, en l’état des choses, plus proche d’une utopie. Car c’est comme si on demandait que les contenus appliquent la même langue – par exemple l’espagnol – mais aussi une manière de parler identique : ordre des mots, expressions, etc. Dans cette façon de communiquer, le double-sens n’aurait sa place que s’il est strictement défini. Les jeux de langages jouant sur le sens (par exemple : métaphore, Antanaclase, synecdoque) seraient dans la plupart des cas inexploitables. Certains outils, comme OpenCalais, permettent d’automatiser en partie ce travail mais ceux-ci ne sont pas encore assez efficaces et connus pour être utilisés par un nombre suffisamment important de responsables de contenu web. Cela explique en partie pourquoi cette nouvelle révolution du web tarde à venir. Ce qui est sûr, c’est que le jour où cette nouvelle dimension du web sera devenue incontournable, leur rôle aura fondamentalement changé. La ligne d’horizon ne sera assurément plus le site web mais s’étendra à toutes les plateformes qui présenteront un intérêt pour y intégrer leurs contenus. Leurs tâches quotidiennes consisteront plus à formater les informations, à trouver des opportunités de placement de contenus, à protéger ceux-ci et à négocier des accords avec des sites. Ils seront tour à tour des avocats et des commerciaux.

Pour en savoir plus, visitez le site du W3C.

Olivier De Keyser

 
(Article paru dans Inside magazine)


Les outils du web sémantique

Le développement et l’utilisation d’outils intelligents assistant efficacement les webmasters dans le processus de marquage du contenu est essentiel pour l’essor du web sémantique. Il en existe déjà plusieurs qui vous permettront de réaliser des tâches diverses. Petit tour d’horizon.

  1. Définir les contenus liés (« related contents » en anglais)
    Ils vous permettent d’améliorer la richesse informationnelle de votre page en identifiant les concepts clefs et en proposant des ressources pertinentes au regard de ceux-ci (user-generated content, tweets, video, articles wikipédia).
    Quelques noms : Apture, Evri, Head up, NewsCred, Zemanta
  2. Surveiller les conversations qui ont cours
    Ils vous permettent de savoir dans quels termes les gens parlent de vous à différents endroits du web (Twitter, blogs, sites de contenus, groupes) et d’améliorer la pertinence et l’orientation générale de vos contenus.
    Quelques noms : Imotty, Inbenta, Lexalytics, Tattler
  3. Éditer et publier des contenus sémantiques
    Ils recommandent des mots-clefs, tags en fonction du contexte de manière à automatiser le processus de formatage sémantique. Ils évitent ainsi de devoir trop se frotter au code.
    Quelques noms : OpenPublish, Jiglu Insight
  4. Optimiser ses résultats dans les moteurs de recherche
    Ils vous permettent d’ajouter automatiquement des balises au contenu, de les soumettre aux moteurs et d’enrichir les résultats avec des infos pertinentes.
    Quelques noms : Google Rich Snippet Tool, Inbenta, Semantify
Par défaut
contenu, stratégie

Une nouvelle spécialité est-elle née dans le domaine du marketing digital?

(version francophone et plus élaborée de mon article précédent)

Dans le monde du web, le mot contenu reste encore fort connoté dans le sens d’outil de gestion, de système. Le besoin d’intégrer ce dernier dans un cadre stratégique plus global se fait de plus en plus sentir. Les experts réunis au Content Strategy Forum 2010 se profilent comme les porteurs d’une nouvelle discipline.

Ils attendent patiemment que le domaine digital leur prête attention. Ils briguent une place qui leur serait due. Ils se veulent les tenants d’une nouvelle spécialité dans le monde digital. Eux ? Ce sont ces copywriters, webmasters, rédacteurs techniques, designers, responsables de communication qui sont venus dernièrement des quatre coins d’Europe et des États-Unis à Paris pour discuter pendant deux jours d’une question trop souvent éludée par les responsables du web: le contenu. Non pas les systèmes de gestion, mais, le contenu lui-même.

Malgré que l’assertion « Content is king » est maintenant devenue un lieu commun pour les spécialistes du web, il faut bien admettre que celui-ci endosse encore largement le rôle de maillon faible dans le processus de création web. Le point de focus a successivement été porté sur la technologie pour passer aux questions de design puis à celles d’architecture de l’information, d’expérience utilisateurs en passant par les systèmes de gestion de contenu (CMS). D’ailleurs, il suffit de regarder tout planning de projet web pour se rendre compte de l’absence cruelle de ressources allouées au travail du contenu. Lorsqu’ils sont interrogés sur ce manque, la posture des responsables de projets se résume trop souvent de la manière suivante : « c’est l’affaire du client » (voire de l’utilisateur). « Nous sommes appelés pour développer et délivrer un outil. C’est au client de savoir ce qu’il veut y mettre et ce qu’il veut en faire ». Mais, il est vain de jeter la pierre aux agences. Tant bien même que les clients se verraient proposés des services dédicacés au contenu, ceux-ci refuseraient.

Pourtant, pour les experts réunis au Content Strategy Forum 2010, les deux parties ont y a gagner. «Trop de temps est passé sur l’infrastructure (fonctionnalités, design, templates, CMS) quand trop peu de temps est alloué au contenu, il en résulte que le client ne peut tirer pleinement parti du délivrable car le contenu est insuffisant inadéquat, inapproprié » explique une Ann Rahel Baillie des intervenantes.

 « Il y a une masse de contenus en ligne qui sont désuets, inutilisables ou inutilisés »

Il ne faut pas être expert pour se rendre compte qu’il y a une masse de contenus en ligne qui sont désuets, inutilisables ou inutilisés ; que ce soit dû à une mauvaise prise en compte des besoins dès le départ ou à une négligence installée avec le temps ou un manque de ressource, etc. Pour éviter ce genre de situation, « le copywriter devrait travailler main dans la main avec l’architecte d’information. Mais, auparavant, il faut que le contenu soit une préoccupation dès la phase d’analyse stratégique. » De plus, le contenu doit être géré tout au long de son cycle de vie. Une fois entré dans le CMS, il doit être régulièrement révisé afin de détecter ce qui n’est plus pertinent au regard des objectifs et des audiences.

C’est dans ce contexte que le ‘stratégie’ accolé au mot ‘contenu’ prend tout son sens et que la stratégie de contenu peut être envisagée comme une nouvelle discipline. Christina Halvorson définit ainsi son activité : “la stratégie de contenu planifie la création, la publication et la gouvernance de contenus utilisables et utiles (…) Cela signifie que le stratégiste de contenu n’est pas seulement en charge de définir ce qui doit être publié mais aussi, et d’abord, de dire pourquoi cela doit l’être. Il est le responsable du délivrable « contenu ». Avant de procéder à son développement, il va procéder à l’audit et l’analyse des actifs existants. Il va détailler les messages, thèmes et sujets clefs. Il va établir les objectifs des contenus (censés combler l’écart entre les besoins du business et ceux des audiences) et le cadre en termes de metadata, de contenus transversaux et de SEO. Il va enfin définir les moyens pour mettre en place la politique de gouvernance du contenu (plan de gouvernance, formations, charte et comité éditorial). »

« Cette discipline se trouverait au croisement du développement et publishing de contenu, de l’architecture de l’information et de la business analyse. »

Une autre spécialiste dans le domaine œuvrant pour le compte de la célèbre agence digitale Razorfish aime utiliser l’analogie suivante: « la stratégie de contenu est au copywriting, ce que l’architecte d’information est au design (…) Son but principal est d’utiliser les mots et les données pour créer des contenus accessibles qui permettent de vivre des expériences interactives significatives.»

« L’architecture de l’information est le design spatial de l’information quand la stratégie de contenu peut être vu comme le côté temporel de la même pièce» indique pour sa part Louis Rosenfeld. En fait, ce que veulent les tenants de cette discipline, c’est rassembler des disciplines propres aussi bien à la communication qu’au web pour les refonder en une seule suivant une vision holistique ; et ce, afin de prendre en compte de manière optimale l’expérience utilisateur. Cette discipline se trouverait au croisement du développement et publishing de contenu (copywriting, webmaster, journalisme), de l’architecture de l’information et de la business analyse.

Le spécialiste travaillant de la sorte se profilerait plus comme une sorte de super gestionnaire de projet coordonnant avec habilité ces différents aspects. Dès lors, on le voit bien cette émergence ne vient pas tant pallier au manque d’intérêt quant aux questions de contenu qu’il ne vient répondre au besoin de disposer d’une vision multidisciplinaire dépassant le seul cadre de la communication web dans la gestion de projets digitaux.

« C’est du côté de la structuration du contenu que se situe le vrai défi pour les spécialistes de l’information. »

Mais l’aspect réellement neuf qu’apporte la stratégie de contenu concerne surtout l’élaboration de dispositifs permettant de structurer, de catégoriser le contenu : le tagging, les metadata, les taxonomies voire ontologies. Parce que c’est de ce côté technique là que se situe le vrai défi tant les quantités de contenus à traiter sont de plus en plus vastes et les moyens de les rendre accessible sont multiples et complexes.

Obtenir des contenus qui sont rangés dans les bons tiroirs et que ces tiroirs soient inter-reliés adéquatement entre eux et que le tout soit, en plus, compatible avec les standards en vigueur et interopérables relève, à ne pas s’y tromper, d’une réelle gageure. Cela exige une connaissance profonde de certains aspects techniques alliée avec une vision stratégique du monde digital. Un monde en marche à toute allure vers sa dimension sémantique. Une dimension où les contenus, les applications ont atteint un degré d’intelligence supérieure. C’est dans le contexte plus global de l’émergence de cette nouvelle ère de l’information que ces croisés du contenu ont un rôle important à jouer.

(Article paru dans Inside magazine)

Pour en savoir plus : Voir article fondateur de Rachel Lovinger et articles de Muriel Vandermeulen sur le blog écrire pour le web


 

 

Par défaut
marketing de contenu, stratégie de contenu

Content Strategy Forum 2010

Can Content Strategy be considered as a new discipline in the digital field?

Here are some of the most useful lessons that I have learned from the content strategy forum held in Paris in mid-April.

We all have heard that “Content is king”. We cannot deny that content is what the users come to look for on our website (information, documents, data, videos). It is the end-product that is effectively consumed, used and that is spread out on the web. That is not brand new!

But does content receive the attention it deserves all along the web production process? The answer of the experts attending the content strategy forum is doubtlessly clear: too much time is spent on the framework for a great user experience (functionalities, design, template, CMS) when too little time is spent on the content. Most of the time the content becomes an issue once the website is build. “The end result is that the value proposition for customers cannot be delivered because the content is insufficient, inadequate, and inappropriate.” said Rahel Anne Baillie, one of the speakers.

For instance, the copywriting activity is seen as an “additional” task to the activities included in the main scope of the project. The copywriter is asked to create or review some contents once the design phase is over. Yet, the content creation is greatly dependent on the way the website is structured (information architecture) and the templates are built. As a result, the content does not fit the templates or the site map. It is like building an art gallery without figuring out by which kind of artwork it will be filled.

To avoid this kind of situation the copywriter should work closely with the information architect. It is also important that the content related matters get attention during the business analysis phase. It is in this sense that we can envisage content strategy as an emerging discipline in digital communication.

Furthermore, the content should been taken care of all along its whole lifecycle (from cradle to the grave). Once it is stored in the CMS, the content should be regularly reviewed in order to detect what is still relevant and what is not.

The process of setting up a strategy, creating the information architecture, the user experience and editing a text or a video should then be driven by the same aim: delivering the right content to the users. The right content is a content that is useful, usable.

How to implement these findings successfully?

1st step: Explore the content

o   Which type of content (news, issue sheet, product description, facts & figures)?

o   Which format (article, video, audio, image)?

o   Which purpose (sell, inform, promote)?

o   How is it organised?

o   How many pages?

o   Etc.

=> Create an inventory

2d step: Assess its quality

o   Redundant, outdated, trivial?

o   Findable and usable?

o   Complete?

o   Clear and accurate?

o   Consistent, appropriate style?

o   Useful and relevant?

o   Influential?

  => Use a quality checklist

3d step: Connect the content with the business goals

o   What are the goals of the business (mission, vision, values)?

o   What is the goal of the website?

o   Does the content fit that goal?

  => Make a SWOT analysis

4th  step: Connection of the content with the users

o   How do users perform tasks?

  => Observe & listen

  => Ask questions

o   Does the feedback fit your communication goals?

5th step: Investigate the content processes and stakeholders

o   What are the content processes and stakeholders?

o   Who decides what can be published?

=> Talk to the stakeholders and the people involved into content process and culture

=> Review documentation of processes

Par défaut