< Search/Acquisition, Web Analytics/Conversion & Web Social/Relation />

Google nous rappelle que si l'on veut changer les règles du jeu, on doit construire sa réussite sur le risque de l'expérimentation. (Antoine Riboud)

Seulement 30% des foyers achètent en ligne … / 25 janvier 2007

La France compte 12 millions de foyers connectés à Internet en 2006. Quels sont les secteurs les plus dynamiques ?

Selon le cabinet d’études GFK, la France comptait en 2006 quelques 14 millions de foyers équipés d’un ordinateur dont 12 millions connectés à Internet. Seulement 30% des foyers achètent en ligne, ce qui représente quelques 17 millions d’internautes.

Les cinq secteurs les plus dynamiques sur le Web sont :

  • la culture (la vente de livres, de CDs et de jeux) avec 35% des achats
  • la vente de vêtements en ligne (28% des achats)
  • le tourisme, avec la vente de billets d’avion et de train (28% des achats)
  • l’univers du spectacle (21% des achats)
  • l’informatique (19% des achats)

Parmi les motivations, les internautes déclarent que « ne pas se déplacer » favorise les intentions d’achats sur le Web. Internet permet aussi d’obtenir des prix plus avantageux (et de comparer) tout en ayant un choix plus instantané.

source : L’émission 8-Fi sur le thème de l’identité numérique en date du 21 janvier 2006.

Le lien est-il la « killer application » du référencement ? / 18 janvier 2007

Le lien est la killer application du référencement naturel durable à condition qu’il repose sur une stratégie rigoureuse et pertinente.

Fin 2006, Olivier Andrieu parlait du lien hypertexte comme étant la « killer application » (ou Killer App’) du référencement naturel. Ce terme, outre sa consonance guerrière, méritait toutefois de bien mettre en exergue le rôle essentiel du lien dans toute stratégie de référencement naturel durable.

Le lien hypertexte (a href) est effectivement la colonne vertébrale du référencement naturel à condition que l’échange ne soit pas systématique. La réciprocité doit être acceptée avec parcimonie pour éviter que les moteurs considèrent votre popularité comme factice et non naturelle.

Posez-vous la question : est-ce que cet échange apporte une valeur ajoutée pour mes visiteurs ? Même une relation triangulaire peut être décelée par un moteur tel que Google. N’est-il donc pas préférable de développer des schémas plus ouverts, notamment en inscrivant dans les budgets marketing des entreprises une ligne dédiée à l’achat de liens, comme celle des liens sponsorisés …

Le lien hypertexte, la figure de proue du référencement naturel durable

Le lien est aujourd’hui la « killer application » du référencement naturel durable à la seule condition que sa mise en œuvre soit rigoureuse, exigeante et de qualité. Pourquoi Jack Welch dit que les ressources humaines sont la « killer app » de toute entreprise ? Sans doute parce que ce n’est pas le directeur financier mais plutôt le responsable RH qui est en mesure de savoir quel(-le) collaborateur (-trice) embaucher pour faire fonctionner son équipe et l’amener sur les chemins de la réussite. En matière de référencement naturel durable, c’est pareil. Vous devez savoir avec qui vous traitez pour connaître la valeur de chaque lien (notoriété et audience qualifiée). Le lien fait partie des critères « off the site » capable de créer une rupture entre vous et vos concurrents.

Définition de « killer application » : l’application qui tue. Se dit à l’origine d’un logiciel novateur susceptible d’apporter une forte valeur ajoutée dans son domaine d’exploitation et donc de remporter un franc succès, mettant du même coup ses promoteurs hors de portée de la concurrence pour un bon moment. L’e-mail et le World Wide Web sont des exemples de la Killer Application.

Le correcteur orthographique de Google

Google ne peut intervenir sur le correcteur orthographique.

Logo Google.Il vous arrive sans doute, lors d’une requête sur une marque spécifique, de voir que le correcteur orthographique de Google vous indique la mention suivante : « Essayez avec cette orthographe : (nom de la marque) ».

Agacé par cette rectification, j’ai contacté le service juridique de Google (marques@google.com) afin d’obtenir l’éclairage qui suit :

« Google ne peut intervenir sur le correcteur orthographique. Celui-ci étant totalement dépendant des requêtes composées par les utilisateurs sur le moteur de recherche de Google, aucune intervention manuelle n’est possible à ce niveau.

Cette fonction évolue toutefois au jour le jour, en fonction des requêtes et de leur quantité. A terme, une requête sur votre marque « ARBADEA » est susceptible de ne plus être automatiquement corrigée. »

Léger comme réponse pour le géant du search mondial !

Depuis cet email, et la date de publication de l’information sur Secrets 2 Moteurs (septembre 2006), la marque Arbadea ne fait plus intervenir le correcteur orthographique de Google.

ARBADEA est une marque déposée par Farzad ABEDIAN dont l’activité est d’importer et de vendre sur le marché français du rooibos biologique (thé rouge). Le rooibos bio la société ARBADEA est un anti-oxydant naturel disponible en infusettes et en vrac.

Qu’est-ce qu’un PageRank mauvais, moyen, bon ou excellent ?

Logo GoogleLe PageRank Google semblerait être moins prépondérant en ce début d’année 2007. Les scientifiques chez Ask suggèrent même que Google ne l’utiliserait plus. Google travaillerait désormais sur le TrustRank, lequel s’appuie sur une sélection rigoureuse des sites de référence en attribuant une note binaire de 0 (spam) ou 1 (page de référence) à une page. Quels domaines seraient concernés pour servir de valeurs de référence ? Les domaines de l’information, de l’éducation, du gouvernement … Le TrustRank indique le degré de confiance que l’on peut attribuer à cette page. Toujours est-il que le PageRank fonctionne toujours, et que le couple PageRank/TrustRank permettra encore d’avancer sur le terrain de la pertinence des contenus Web.

Alors, qu’est-ce qu’un PageRank mauvais, moyen, bon ou excellent ?

  • Un PageRank inférieur à 2 est considéré comme “mauvais”
  • Un PageRank de 4 ou 5 est dit “bon”, ce qui permet à Google de venir tous les 4 ou 5 jours indexer la page
  • Un PageRank de 6 ou 7 est très bon, Google venant alors tous les jours crawler le document Web
  • Un PageRank entre 8 et 10 est excellent, mais là les élus sont peu nombreux

Interview de Bruno Hossenlopp, gérant de la Webagency Alsasys / 9 janvier 2007

Article Webmarketing : L’agence webmarketing Alsasys répond à mes questions, notamment sur les compétences exigées pour embaucher un référenceur.

Ce billet fait référence à un entretien téléphonique avec Bruno Hossenlopp, gérant de la société Alsasys, qui a accepté de répondre, simplement et en toute franchise, à mes questions.

site Alsasys, Webagency AlsaceCréée en septembre 2001, la société Alsasys est, au départ, le projet d’un homme, Bruno Hossenlopp, lui-même issu des services e-business. Aujourd’hui composée de trois collaborateurs (dont un développeur et un graphiste), Alsasys est une webagency alsacienne qui se positionne sur les marchés de l’intégration et du référencement, notamment en implémentant des applications open-source, à l’instar de Mambo/Joomla.

epokhe – Si vous deviez embaucher un référenceur, quels seraient les compétences exigées ?

Portrait de Bruno HossenloppLe référencement est, pour cette agence alsacienne de création de sites Internet, un enjeu majeur. La demande est forte, et l’année 2007 semble confirmer la tendance haussière de 2006. Aussi, en matière de référencement, Bruno Hossenlopp exigerait d’un référenceur de solides connaissances techniques (XHTML/CSS, bases PHP/MySQL) et une approche e-marketing étendue.

Dans la mesure où il n’existe aucune formation dans ce domaine, la connaissance du monde du référencement est un préalable. Pour être en mesure de conseiller efficacement les clients de l’agence, le référenceur se doit d’être pragmatique et d’être capable d’analyser précisément l’univers sémantique et marketing des clients. Et, il semble que ces compétences soient difficilement à trouver … Pour finir, une certification AdWords serait un plus appréciable car, chez Alsasys, la visibilité naturelle va de pair avec les liens sponsorisés.

epokhe – Quels sont, selon vous, les 3 balises ou attributs les plus importants, dans le cadre de l’optimisation technique d’un Site Internet ?

Parmi les professionnels issus du search, les secrets d’optimisation technique sont largement partagés. Toujours est-il que ma jeune expérience m’a conduit à travailler avec différentes agences web, et qu’il semble que la réponse à cette question ne soit pas si aussi évidente que cela.

Aussi, pour Bruno Hossenlopp, les fondamentaux sont le titre du document (title), la description (afin de présenter des résultats efficaces sur les pages de résultats d’index des moteurs) et enfin, les différents niveaux de titre (Hn) dans le corps de la page, avec un intérêt certain pour le titre de niveau 1 (H1).

epokhe – Etes-vous satisfait des résultats présentés par Google ? De nouveaux entrants commencent à faire parler d’eux (Windows Live et ses pubs télé, Exalead et son concours de référencement), Wikipédia et son moteur social. Que pensez-vous de ces moteurs ? Ont-ils, selon vous, une chance de s’imposer ?

Bruno Hossenlopp est clair. Google est, pour lui, un outil fabuleux, très ergonomique et facile d’utilisation. Même si certaines requêtes n’offrent pas toujours la pertinence souhaitée, les différentes commandes (notamment la recherche entre guillemets) permet d’affiner les résultats et de rester pleinement satisfait de l’outil.

Parmi les nouveaux entrants, Bruno Hossenlopp pense que le moteur Live Search a de l’avenir. Par contre, il reste plus sceptique quant à la participation effective des internautes ( »les gens n’auront pas le temps ») au processus long et minutieux de la pertinence prônée par le moteur Wikipédia.

epokhe – Comment envisagez-vous l’avenir du référencement naturel ?

Pour Bruno Hossenlopp, le référencement naturel a de beaux jours devant lui. Seulement, il semble qu’il soit nécessaire de pondérer cette notion en distinguant nettement la recherche, disons « de notoriété », et la recherche locale. En effet, Bruno Hossenlopp estime que certains secteurs (les téléphones portables, l’informatique …) sont saturés et qu’il est impossible de rattraper l’ancienneté acquise par certains marchands d’envergure nationale.

De plus, il pose la question : Quel est l’intérêt de se positionner au niveau national si votre client ne livre physiquement que sur la région ? 80% des demandes concernent le local. Les internautes commencent à cibler davantage leurs demandes. En effet, ils exigent de la proximité et expriment un besoin de réassurance. La recherche locale offre donc, selon Bruno Hossenlopp, un fort potentiel pour les années à venir.

Interview téléphonique en date du 2 janvier 2007. Bruno Hossenlopp – Alsasys Webagency, Alsace

Les blogs, les réseaux sociaux … l’Internet nouveau est arrivé !

Le Web 2.0 est-il une révolution ou simplement un approfondissement du niveau d’interactivité ?

Netvibes, 6Nergies, DailyMotion, Skype … des néologismes, un peu barbares, qui s’imposent chaque jour un peu plus à travers le monde. Ils reflètent la nouvelle façon de vivre avec le monde … via l’Internet.

C’est le Web 2.0. Il représente le cinquième pouvoir, après l’exécutif, le législatif, le judiciaire et celui des médias. Le Web 2.0, une révolution technologique, communautaire ? Philippe Lemoine, président de la FING (Fondation internet nouvelle génération), est plus modéré. Le terme « révolution » est, selon lui, exagéré dans la mesure où le Web 2.0 cristallise davantage un approfondissement du niveau d’interactivité. Parlons donc à cet effet d’évolution dans la révolution Internet. Plus on est nombreux, plus il y a une probabilité de rencontrer celui ou celle dont on a besoin.

Les frontières et les censures sont enfoncées (en Iran ou en Chine, les autorités n’ont pas réussi à museler les blogs), les circuits contournés (ceux de l’édition musicale en particulier), les institutions et leurs représentants bousculés. Avant, le monde était juxtapositions d’ordres. Maintenant, au rythme de la création d’un blog toutes les 4 secondes, le monde est devenu une immense fourmilière qui s’auto organise … pour l’instant ! Aujourd’hui, les citoyens se retrouvent par affinité. Ils parlent et ils agissent. Du coup, c’est le branle bas de combat dans tous les états-majors, qu’ils soient industriels, commerçants ou politiques.

Les blogs, les réseaux sociaux …Qu’est-ce que ça change ?

Les blogs

L’institut Gartner prévoit notamment que le début du déclin des blogs devrait intervenir au premier semestre 2007. Selon l’étude, le pic du nombre de blogueurs devrait atteindre 100 millions dans la première moitié de 2007. La lassitude gagnerait donc les rangs des blogueurs puisque le nombre d’ex-bloggeurs est estimé à 200 millions. Pas si sûr, selon David Abiker, qui évoque, dans son livre « Le mur des lamentations », que les blogs ont encore un bel avenir.

En effet, il existe, selon lui, trois grandes catégories de blogs :

  • le blog « moi », le journal intime
  • le blog « toi », qui transmet un savoir-faire
  • le blog « nous », c’est-à-dire le blog politique, celui qui porte les grandes causes

Les blogs d’adolescents, les skyblogs sont surranés; les blogs « lus » sont les blogs « toi » et les blogs « nous », c’est-à-dire ceux qui transmettent de la connaissance ou qui militent pour des causes. Ces types de blogs représentent un nouveau « mass media ». Bien qu’un blog représente une activité chronophage, ce nouveau média a de l’avenir puisque le citoyen, dans sa vie quotidienne, picore. Le blog fait désormais partie intégrante du panachage de la consommation de l’information.

Et, si le blog devient trop chronophage, puisque 80% d’entre eux ferment après 6 mois de création, alors les réseaux sociaux sont une alternative pour se créer une identité virtuelle …

Les réseaux sociaux

A côté de l’identité physique, une identité virtuelle s’impose. Alors qu’un individu professionnel était amené à rencontrer environ 5 000 personnes tout au long de sa carrière, les réseaux sociaux permettent de démultiplier les possibilités.

En substance, Alain Lefebvre, fondateur de la plate-forme 6nergies, le dit ainsi :

La grande leçon des années 2003-2006, c’est qu’un individu professionel se doit d’exister sur Internet. En effet, 40% des usages sur les moteurs de recherche se fait sur des noms propres. Avant de rencontrer un individu, une recherche sur un moteur de recherche vous permet de connaître l’épaisseur et la réputation de votre interlocuteur. Or, dans la mesure où l’entretien d’un blog est très chronophage, les réseaux sociaux trouvent donc leur pleine justification. Ensuite, le Saint-Graal de l’identité numérique, c’est d’avoir son profil sur Wikipédia. Mais là, les élus sont peu nombreux …

Alors que le Web 1.0, avec près d’un 1,2 milliard d’utilisateurs à travers le monde, permet de surfer, naviguer et commander en ligne, le Web 2.0 permet de faire remonter du contenu (textes, sons, vidéos) de la part des internautes. En fait, le Web 2.0, c’est-à-dire la force de l’interactif, n’est-il pas la pierre philosophale du capistalisme puisque c’est l’utilisateur qui créé les contenus (user generated content) ?

Source : L’émission Rue des entrepreneurs du samedi 16 décembre 2006, France Inter

Seuls 3% des sites Internet respectent les normes d’accessibilité / 8 janvier 2007

Article Accessibilité Web : Le constat est accablant. Seuls trois sites Internet sur les 100 ayant respectent les normes d’accessibilité pour les personnes aveugles.

Seuls trois sites Internet sur les 100 dans le monde ayant fait l’objet d’une étude respectent les normes d’accessibilité pour les personnes aveugles, malvoyantes ou pour celles qui ne peuvent pas utiliser une souris d’ordinateur. Telle est la conclusion d’une nouvelle enquête menée à la demande des Nations Unies.

La majorité des sites Internet dans le monde ne respectent pas les critères d’accessibilité.

Cette étude, qui est lancée alors que les Nations Unies commémorent la Journée internationale des personnes handicapées, repose sur l’analyse dans 20 pays de cinq sites clés : lignes aériennes, banques, media, gouvernments et commerces de détail. L’étude conclut ainsi que la grande majorité des sites sont loin des normes internationales d’accessibilité mais qu’un quart d’entre eux pourraient facilement s’y conformer.

Toujours selon l’étude menée par la société britannique Nomensa (spécialiste en utilisabilité, accessibilité et design), seuls les sites de la Chancellerie allemande, du Gouvernement espagnol et du Premier Ministre britannique remplissent les critères de base.

Les pays dans lesquels l’étude a été menée sont les suivants : Argentine, Australie, Brésil, Canada, Chili, Chine, France, Allemagne, Inde, Kenya, Japon, Mexique, Maroc, Fédération de Russie, Singapour, Afrique du Sud, Espagne, Émirats arabes unis, Royaume-Uni et États-Unis.

« Les Webmasters du monde entier, y compris aux Nations Unies, devraient être conscients qu’ils perdent une part importante de leur audience s’ils ne permettent pas une pleine accessibilité de leurs sites« , estime Thomas Schindlmayr, spécialiste de l’élaboration des politiques au Département des affaires économiques et sociales de l’ONU.

L’étude repose sur des normes reconnues au plan international qui portent sur la capacité qu’ont les utilisateurs à naviguer facilement sur le site, à distinguer facilement les couleurs, à proposer une alternative au langage informatique Javascript et à permettre une navigation au clavier (critère AccessiWeb 12.5 niveau Or).

Conférence Webmarketing au DévCom Nantes Atlantique / 7 janvier 2007

Article Webmarketing et Référencement naturel durable : le DévCom de Nantes a accueilli 3 agences webmarketing pour parler de leur métier …

Lorsque vous travaillez au sein d’une agence webmarketing, il est nécessaire, de temps en temps, de sortir la tête du bocal et d’aller écouter ce que vos concurrents ont à dire.

Parmi les conférences webmarketing 2006 du DévCom de Nantes, une m’a particulièrement intéressée. Intitulée « Comment augmenter efficacement la création de trafic et la qualité du visitorat de votre site web ? », cette conférence était animée par trois agences spécialisées en webmarketing et référencement naturel :

  • Portrait d'Alain Diot - Activis ACTIVIS, représentée par Alain Diot (Responsable Commercial)
  • Portrait de Jean-François Longy - CybercitéCyberCité, représentée par Jean-François Longy
  • Portrait de Christophe Potron - MédiaveilleMédiaveille, représentée par Christophe Potron

Google : la boîte noire

Ce qui est intéressant dans cet exercice, c’est d’écouter le discours plus ou moins commercial des intervenants. Après avoir passé en revue trois des « cent critères » de la boîte noire Google (l’ancienneté d’un site Web, le nom de domaine, l’url rewriting), les intervenants ont surtout abordé les problématiques liées au référencement naturel, à l’achat de mots clefs et à l’affiliation. Les comparateurs de prix ont également été évoqués. Par contre, le netlinking n’a été mentionné qu’une seule fois, en conclusion.

Les intervenants ont toutefois souligné qu’une nouvelle fonction était en train de voir le jour au sein des départements marketing et communication. Un nouveau profil émerge : le Rédacteur Web au service du référencement naturel. Produire du contenu n’a effectivement que peu d’intérêt si celui-ci n’est pas optimisé sémantiquement. Le « bon vieux » rédacteur Web au sens premier du terme doit donc s’adapter. Aux Etats-Unis, les professionnels du search marketing parlent de « seo copywriter ».

A l’issue de cette conférence, je noterais quelques détails forts intéressants :

  • La salle de conférence était pleine, l’auditoire passionné ; au cours de l’heure de présentation, les déserteurs n’ont pas été très nombreux. Au contraire, plusieurs personnes sont arrivées au cours de la conférence. La prise de note fonctionnait à plein régime.
  • Que ce soit Activis, Cybercité ou Médiaveille, le discours semble homogène. Chaque agence webmarketing, fort de ses expériences, semble avoir la même lecture du marché et des actions à entreprendre pour accroître la visibilité de ses clients. Pas facile donc pour l’auditoire de choisir son agence webmarketing …

Une conférence trop courte pour être exhaustive

Le bémol d’une telle conférence se situe davantage dans le discours des intervenants, trop commercial et pas assez chiffré. Le seul élément chiffré concerna le taux de clic moyen des liens sponsorisés, évalués par les intervenants à 2% en moyenne. Le référencement naturel a également bon dos. Il est vrai que garantir des résultats est impossible, mais l’impression donnée, à savoir se dédouaner dès le départ auprès de l’auditoire, m’a semblé trop nette.

Pour avoir les réponses à certaines questions présentées sur le programme …

  • Outils de recherche, liens, accès direct ? Quelle est la répartition de la provenance du trafic sur un site Internet ?
  • Comment mesurer et analyser le trafic sur votre site Web ?
  • Quelles sont les différentes solutions pour générer du trafic qualifié ?
  • Adresse URL intuitive, mots clés ? Quelles sont les règles de base et les astuces à maîtriser pour un référencement efficace ?
  • Combien coûtent ces opérations ? A quelle fréquence faut-il les renouveler ?

… il faudra prendre rendez-vous.

Une bonne description fait cliquer … / 6 janvier 2007

Article référencement naturel durable: Qu’est-ce qui fait cliquer l’internaute ? Le titre, la description …

Pourquoi choisissons-nous un site plutôt qu’un autre ? Son titre est-il plus attractif ? Sa description est-elle plus complète ? Faut-il choisir la première réponse ?

A la question « qu’est-ce qui donne envie à l’internaute de cliquer sur un lien dans les résultats naturels des moteurs de recherche ? », la réponse n’est pas si évidente.

Sa description 30.26 %
Son titre 20.72 %
Tout 18.75 %
Sa position dans la page de résultats 9.87 %
C’est un nom (ou une marque) connu 6.91 %
Le hasard 6.91 %
Son url 4.61 %
C’est un lien commercial 1.97 %

La description, avec 30.26% des voix, cristallise la raison principale de la sélection du clic. La réponse à la question « Qui, selon chaque internaute, se place en première position sur une requête de son choix ? » n’est donc pas si évidente que cela.

Ensuite c’est l’importance du titre qui est mise en avant (20.72%), puis l’ensemble du descriptif (18.75%).

Le point positif dans cette réponse, c’est que le titre (title) et la description (meta name="DC.Description") représentent des valeurs d’ajustement maîtrisables, ce qui est moins probant pour la position et le fait que la marque soit connue ou non. La position dans les moteurs est une variable sur lequel il est possible de jouer, seulement elle est moins maîtrisable que le titre et la description.

Considérer 70 caractères pour le titre et 160 pour la description, ajouter des objectifs de positionnement, le tout enrobé d’un message marketing séduisant à la sauce Adwords pour faire cliquer, et vous obtiendrez une équation complexe ! Peter Da Vanzo le souligne très bien : « Think of titles like newspaper headlines. Make the title enticing. Think Adwords ».

Les statistiques WebRankInfo sur le comportement des utilisateurs dans les pages de résultats nous permettent de bien considérer le caractère stratégique de votre message marketing :

42 % des internautes cliquent sur le premier résultat
12 % des internautes cliquent sur le second résultat
8,5% des internautes cliquent sur le troisième résultat
6,1% des internautes cliquent sur le quatrième résultat
4,9% des internautes cliquent sur le cinquième résultat
4,1% des internautes cliquent sur le sixième résultat
3,4% des internautes cliquent sur le septième résultat
3,0% des internautes cliquent sur le huitième résultat
2,8% des internautes cliquent sur le neuvième résultat
3,0% des internautes cliquent sur le dixième résultat

Ce qui donne, par page de 10 résultats :

  • les résultats en 1ère page totalisent 89,8% des clics
  • les résultats en 2ème page totalisent 4,4% des clics
  • les résultats en 3ème page totalisent 2,4% des clics

Vous avez dit linkbaiting ? / 5 janvier 2007

Article webmarketing – Le linkbait ou linkbaiting est une technique qui vise à attirer les visiteurs sur un site Web ou un blog.

Le linkbait ou linkbaiting est une technique qui vise à attirer les visiteurs sur un site Web ou un blog.

Le linkbait consiste à créer du contenu, lequel va susciter spontanément des liens naturels (backlinks).

Rappelons tout de même que seuls les mots sont nouveaux puisque la chasse aux liens existe depuis l’arrivée de Google.

L’e-marketing s’enrichit donc un peu plus … ou n’est-il qu’une variante du buzz marketing ?

Actuellement, cinq appâts sont utilisés pour susciter les liens naturels :

  • l’appât informationnel (dénicher un scoop, informer, parler de Google …)
  • l’appât polémique (créer des sujets qui suscitent l’intérêt)
  • l’appât créatif (la création d’un concours …)
  • l’appât utile (proposer une innovation, des liens de qualité …)
  • l’appât humoristique (divertir vos visiteurs)

Le process se déroule donc en trois temps:

  • 1. L’écriture d’un billet de qualité, novateur et attirant
  • 2. La création spontanée de liens organiques depuis d’autres sites Web
  • 3. L’augmentation du nombre de visiteurs et l’amélioration du référencement naturel

La traduction française du terme linkbait (ou linkbaiting) est « contenu viral« . Reste ensuite à savoir si le contenu viral remplacera les stratégies de netlinking en matière de référencement naturel durable.

Le référencement, socle de visibilité des PME / 4 janvier 2007

Article webmarketing – Un site Internet sans référencement, c’est un magasin oublié au mileu du désert.

Le référencement, une technique taillée pour les PME …

Le référencement, taillé pour les PME, intéresse de plus en plus les entreprises régionales. Il représente effectivement un excellent apporteur d’affaires. Le référencement « défie toute concurrence », indique Eryck Ponseel, de l’agence web 1-ter-net.

Alors que ce dispositif webmarketing était largement oublié en 2005, il semble que la tendance s’inverse. « Trop d’entreprises pensent qu’il suffit de mettre en ligne un site web pour être vu sur Internet. Et ils négligent l’étape du référencement », résume Arnaud Chaigneau, directeur associé de l’agence webmarketing Intuiti.

Le référencement, dès l’amont de la création …

Le référencement doit être intégré dès le processus de création d’un site Internet. Il consiste à réfléchir dès l’amont à la stratégie de nom de domaine, qui ne représente toutefois que la partie immergée de l’iceberg. Reste ensuite à créer et optimiser le site web techniquement et sémantiquement. C’est notamment sur ces éléments que les techniques diffèrent selon les agences. Ce point de vue est partagé par agence web 1-ter-net, Intuiti Webmarketing et Synodiance, dont le p.d.g Christophe Rozuel indique que « près de 3 mois sont nécessaires pour obtenir des résultats » probants.

Le référencement constitue donc « la base d’un plan de communication interactive plus large », poursuit Arnaud Chaigneau, d’Intuiti Webmarketing . Il constitue le socle de visibilité d’un site Internet, destiné à accompagner l’entreprise tout au long de son cycle de vie. Ensuite, il doit se compléter d’autres moyens, tels que l’achat de mots clefs, l’affiliation, le netlinking, l’ePub et l’emailing.

L’ensemble des actions webmarketing, plus techniques que la communication off-line, permettent ainsi aux entreprises régionales et aux PME d’accroître leur visibilité et ainsi se développer sur le plan commercial.

L’accessibilité Web : A vous de jouer ! / 3 janvier 2007

Franck Letrouvé (Consultant Accessibilité), du collectif PixFl, pose la question : A-t-on besoin d’un décret pour être citoyen ?

La dernière journée internationale des handicapés a eu lieu le dimanche 3 décembre 2006. Cette année, le thème porta sur l’accessibilité numérique.

site PixFl, Consultant Accessibilité - Portrait de Franck LetrouvéOn a souvent tendance à limiter le cadre de réflexion de l’accessibilité aux adaptations physiques de la voirie, des transports ou des bâtiments sans mesurer l’impact culturel, social et professionnel des supports numériques accessibles à tous : une connexion à Internet plutôt qu’un carton d’horaires de bus en braille, un accès égal aux ressources de l’Intranet d’une société ou le droit à l’information citoyenne avant de déposer son bulletin dans l’urne.

Alors, l’accessibilité numérique comme moteur d’intégration : une réalité ou un beau projet de communication politique ?

En France, le législateur semblait avoir tranché en février 2005, en inscrivant dans l’article 47 de la « loi n° 2005-102 pour l’égalité des droits et des chances, la participation et la citoyenneté des personnes handicapées », la mention suivante : « Les services de communication publique en ligne des services de l’Etat, des collectivités territoriales et des établissements publics qui en dépendent doivent être accessibles aux personnes handicapées. ».

Sur le terrain, presque deux ans plus tard, la loi existe mais est toujours orpheline de son décret d’application (comme beaucoup d’articles de cette loi) !

Aujourd’hui, je peux témoigner que pour un (très) grand nombre d’élus de la République ou de responsables de services au public, l’accessibilité numérique n’est pas une priorité. Au mieux, manque d’information, de moyens, de compétences ; Au pire, stratégie bien rôdée : « On ne fait rien tant qu’il n’y a pas de décret !!! ».

Je pose la question : « A-t-on besoin d’un décret pour être citoyen ? »

Nos voisins (anglais, allemands, italiens, américains…) ont « décrété », depuis plus ou moins longtemps, mais ils l’ont fait. Côté français, de grandes théories, des leçons à donner mais peu d’effets concrets…

La France est le pays des Droits de l’Homme et du Citoyen, un ghetto numérique ne doit plus s’y développer. Alors, Messieurs les politiques, tenez vos promesses d’accessibilité numérique !

Franck Letrouvé (Consultant Accessibilité) – PixFL
pixFL regroupe des professionnels de la création internet spécialisés dans l’accessibilité des sites web.

La balise « title » est morte ! Vive la balise « title » ! / 2 janvier 2007

La balise TITLE est toujours considérée comme très importante en référencement naturel durable. Soignez là !

Toute action de référencement passe par la balise « title » ! Cette balise, considérée par certains comme la plus importante, fait donc l’objet de maintes discussions.

Comment l’aborder ? Est-elle toujours si importante ? Combien de caractères préconise-t-on ? Autant de questions qui supposent encore davantage de réponses.

Certains référenceurs « blindent » cette balise de mots clefs et d’expressions. De nombreux sites détaillent effectivement une balise « title » dont l’essence est complètent oubliée puisqu’une suite de mots clefs (avec plus de 160 caractères) correspond davantage à la métadonnée « keywords ». Des professionnels du webmarketing réalisent même un simple copier-coller : leur imagination les conduit à renseigner la balise « title » avec les mêmes informations que la métadonnée « description ». Quel est l’intérêt de suivre un tel schéma dans la mesure où même si cette balise est essentielle, son importance s’est fortement diluée au cours de l’année 2005 ? En effet, que ce soit Google ou MSN, le nombre de caractères affichés dans les pages de résultats ne dépasse pas 70. Sachant que les balises de titre XHTML (de H1 à H6) prennent de plus en plus d’importance, l’intérêt de « blinder » votre titre de document n’a donc plus forcément de raison d’être.

Que faire ? Déjà, évitez de confier le référencement de votre site Web à de tels professionnels qui pensent que l’optimisation d’un site Web se passe ainsi :

  • blinder les balises « title » avec une suite de mots clefs,
  • renseigner les métadonnées « description » et « keywords » avec les mêmes informations en variant simplement l’ordre des mots, et, pour finir :
  • placer juste derrière le BODY un titre de niveau 1 (h1) avec les informations de la métadonnée « description » ainsi qu’un titre de niveau 2 (h2) avec les informations de la métadonnée « keywords ».

Question : Ont-ils seulement réfléchit au fait qu’une limite de caractères permet sans aucun doute aux moteurs de pondérer l’importance des mots ? Un balise « title » et/ou un titre de niveau 1 (h1) trop longs ne sont donc plus pertinents … pour une bonne indexation.

Enterrez le passé et donnez à vos titres de document une seconde jeunesse !

Votre balise « title » sert lorsque les internautes mettent votre site Web en marque-pages. Ce critère n’est pas essentiel mais permet déjà de situer les choses. Essayez donc de la raccourcir ! De plus, le critère 8.5 du guide AccessiWeb mentionne que le titre d’une page se doit d’être explicite (Le contenu de la balise TITLE est-il explicite ?). Une suite de mots clefs est donc rédhibitoire à différents niveaux (incitation au clic, accessibilité et même référencement).
Et, rappelez-vous la réponse à la question qui suit : « Qu’est-ce qui donne envie à l’internaute de cliquer sur un lien dans les résultats naturels des moteurs de recherche ? ». Pour 30% des internautes, c’est la description qui incite à cliquer. Et, pour 20% d’entre eux, c’est le titre. La réponse à la question « Qui, selon chaque internaute, se place en première position sur une requête de son choix ? » n’est donc pas si évidente que cela.

Considérez 70 caractères pour le titre et moins de 160 pour la description, ajoutez des objectifs de positionnement, le tout enrobé d’un message marketing séduisant à la sauce Adwords pour faire cliquer, et vous obtiendrez une équation complexe ! Peter Da Vanzo le souligne très bien : « Think of titles like newspaper headlines. Make the title enticing. Think Adwords ».

Votre balise « title » doit être attirante et incitative. Pensez à l’achat de mots clefs ! Elle représente désormais, avec la métadonnée « description », la titraille de votre message marketing.

Cette manière de faire du search marketing relève donc d’un état d’esprit novateur ! Optez donc pour la jeunesse et mariez votre balise « title » avec d’autres leviers du search …

Ce billet a été, à l’origine, publié sur le Site Moteurzine. Je remercie Chris HEDE d’avoir accepté de le publier.

L’accessibilité améliore-t-elle le référencement ? / 1 janvier 2007

Article search marketing – L’accessibilité d’un site web contribue à optimiser le processus d’indexation. Là encore, des suppositions. Pourtant, l’avenir est là..

L’accessibilité d’un site web contribue à optimiser le processus d’indexation. Là encore, des suppositions . Pourtant, l’avenir est là.

Le référencement ne se résume pas à une meilleure accessibilité des sites Web. Pourtant, les moteurs « seraient » sensibles à la démarche … Notons toutefois que l’accessibilité et le référencement ne font pas appel aux mêmes compétences. La convergence est-elle possible ?

Hiérarchiser les éléments sémantiques

L’objectif de l’accessibilité pour le référenceur est donc de limiter au maximum tous les obstacles pouvant bloquer l’indexation par les moteurs (menus Javascript, Flash). Il convient dès lors d’optimiser le contenu Web en hiérarchisant les éléments sémantiques (utilisation des règles du XHTML).

En effet, les moteurs sont aveugles (notion pourtant relative dans la mesure où Google serait désormais capable de lire les feuilles de styles externes ; à ce titre, le rapprochement entre Google et la fondation Mozilla a-t-il permis au moteur d’aller vite sur ce point ?).

Pour les images, il est donc nécessaire de les décrire (60 caractères autorisés). Les critères de l’accessibilité web (attributs « alt » et « longdesc ») se révèlent donc ici de bonne augure.

L’accessibilité s’explicite par des mots et des phrases. Chaque image doit être décrite textuellement et ces consignes s’appliquent aussi aux liens qui doivent être renseignés. Le nombre d’itérations augmente et le contenu est valorisé.

Que choisir ? Le Flash, l’Ajax, les standards XHTML/CSS2. En fait, tout dépend de votre objectif. Le « spin-off » d’un site web reste le code HTML, qui se retrouve au centre des relations entre la technique, le contenu, le graphisme et l’ergonomie. Les standards permettent alors de construire et de structurer les pages pour une meilleure hiérarchisation.

Un code HTML léger et propre …

L’accessibilité est un choix citoyen ; c’est aujourd’hui une priorité pour les grands comptes (AXA, Groupama). Le collectif pixFL estime d’ailleurs que le surcoût d’un site accessible est d’environ 30%.

« Développer aujourd’hui des pages accessibles, c’est d’abord produire un code HTML léger et propre. Nous retrouvons les bases du référencement naturel », ajoute Vincent Beslay, directeur associé d’Equallia, agence spécialisée dans l’accessibilité, l’ergonomie et le design sur Internet.

L’enjeu est d’être en mesure de faire travailler ensemble les experts en accessibilité, les référenceurs, les ergonomes, les intégrateurs et les développeurs pour atteindre les objectifs du client dans l’intérêt de l’utilisateur.

Le profil du référenceur ne se limite plus à des connaissances techniques. La double compétence technique et marketing est désormais essentielle pour qu’un référenceur puisse devenir un spécialiste du search marketing. Le référenceur doit être également convaincu par les normes d’accessibilité et mettre à profit sa connaissance des outils de recherche pour développer ses capacités rédactionnelles au service de la visibilité de ses clients. Aux Etats-Unis, la société Divine Write parle alors de « seo copywriter ».

Twitter epokhe - Arnaud Briand Haut de page