Prendre des risques… Man on Wire

Pendant le cours de négociation aujourd'hui, vient le moment toujours délicat d'aborder la question des objectifs de négociation. En deux mots, plus on vise haut, plus on obtiendra de bons résultats… ou ce sera la catastrophe.

En marketing, nous pensons savoir que la satisfaction est proportionnelle à la différence entre le niveau d'expérience et celui des attentes. Si vous voulez augmenter la satisfaction, diminuez le niveau des attentes.

Difficile de recommander à de futurs négociateurs de viser bas, de manière à toujours réussir.

Mais il faut comprendre qu'il y a un prix à payer lorsque l'on vise haut. Un prix que certains paieront allègrement parce qu'ils ne peuvent imaginer la médiocrité. 

Vous comprenez certainement le dilemme individuel, pour chacun de soi, et le dilemme professionnel pour quelqu'un comme moi, qui tente d'expliquer tant bien que mal.

Par hasard, ce soir, je vois le film Man on Wire. Paru en 2008, ce film est présentement en tête du palmarès des meilleurs films de tous les temps de RottenTomatoes, dépassant (enfin?) Toy Stories 2: Man on Wire a récolté 136 critiques professionnelles, toutes favorables. 

Histoire extraordinaire de gens extraordinaires. Les critiques tendent à commenter divers aspects de l'histoire que je vous laisse le soin de découvrir. J'ai personnellement été frappé par les derniers moments du film qui expriment mieux que quoique ce soit le dilemme des paris improbables. À voir par ceux qui s'intéressent à la question de la gestion des objectifs personnels 🙂 Je le recommanderai certainement à mes étudiants.
Publicité

#12 Internet et stratégie

Nous en avons parlé au premier module — il y a deux visions qui s’affrontent. La première, illustrée par Michael Porter, considère l’Internet comme un facteur additionnel qu’une entreprise doit considérer dans la conception de sa stratégie — business as usual, with a twist. La seconde, illustrée par Don Tapscott, considère que l’Internet sonne le glas des stratégies d’entreprises refermées sur elles-mêmes — think network.

J’en glisserai aussi un mot dans mon dernier billet pour notre cours de eMarketing — notre compréhension de ce qu’est Internet évolue. Ce qui était d’abord vu comme un médium permettant aux organisations de distribuer leurs informations plus eficacement (web 1.0) est devenu un endroit où la participation de tous et chacun fait une vraie différence (web 2.0). Évidemment, cette vision est erronnée — le www a toujours été un lieu de rencontre pour tous et l’évolution massive du www social n’est rien d’autre que la banalisation de ce que seuls les geeks et les grandes organisations savaient faire. (écouter cet excellent podcast de Tim Berners-Lee, inventeur du www, disponible ici.)

Franchement, je ne sais pas trop comment aborder ce thème d’une manière qui me semble définitivement utile pour mes étudiants. Alors permettez-moi d’y aller de quelques commentaires et  observations:

1) Surprenant de constater qu’il n’y a rien de robuste dans la littérature académique en ce qui concerne ce sujet. Je ne suis pas le seul à être perplexe dirait -on. 

2) La question est complexe. Évidemment que Porter a raison lorsqu’il écrit que les processus stratégiques restent, en dépit de l’Internet. Mais en quoi cette observation permet-elle de mieux guider les décisions des stratèges? L’Internet est il une évolution de facteurs connus, où il suffira d’adapter les façons de faire? Ou un environnement totalement inconnu, imprévisible, où le succès dépend largement d’essais/erreurs dont on ne connait pas le domaine (essayer, c’est bien beau, mais essayer quoi?)

3) Les possibilités de transformations radicales sont là.  Mais de très nombreuses forces s’exercent de sorte qu’il est difficile d’anticiper le  résultat des courses. Quelques lignes de force évidentes:

La participation se généralise. Les barrières "naturelles" (distance, coût de communication) tombent. Elles peuvent être remplacées par d’autres barrières (réglementation). Ou provoquer la transformation des pratiques. De toute évidence, les deux phénomènes sont présents (réglementation en hausse, pratiques en mouvance). Mais il faut aussi de poser la question de l’intérêt de participer. Qui veut participer et pourquoi?

Le potentiel de croissance pour les entreprises se situe dans les économies émergentes. Or l’économie numérique est une économie émergente. Et les chiffres sont spectaculaires. Tandis que l’économie traditionnelle se traîne la patte avec des taux voisins de 2%, l’économie numérique se développe encore rapidement, dans certains secteurs.

L’économie numérique est à la fois plus et moins visible que l’économie traditionnelle. Parce qu’immatérielle, elle est difficile à saisir. Il faut regarder activement. Mais parce que tout peut être capté, elle laisse des traces. De sorte que les stratégies peuvent s’appuyer sur des observations précises.

Deux denrées rares, et donc stratégiquement vitales: l’attention et la science. Goldhaber en particulier est celui qui faisait remarquer que ce qui est en quantité finie, c’est l’attention, pas l’information. Et qu’il est donc plus approprié de parler de l’économie de l’attention que de celle de l’information. Information qui est surabondante. Il faut apprendre à utiliser économiquement l’attention, une denréee rare. Il y a là une considération majeure.

Et pour bien comprendre, il nous manque encore une science de l’Internet. Si le concept de stratégie existe vraiment (i.e. planifier une séquence d’actions, une bonne stratégie consistant à ajuster les actions en fonction de nos objectifs et de l’évolution de l’environnement), il nous faut comprendre. Ce qui n’est pas vraiment le cas pour le moment de sorte que le succès dépend surtout de la chance, et que les "meilleures pratiques" le deviennent trop souvent à cause du hasard.

Mon pointeur. Un document massif, important, rédigé par Berners-Lee et al en 2006: A Framework for Web Science


#11 Prix dynamiques

il était une fois, il y a très longtemps, un royaume où tous les prix étaient fixés dynamiquement. Sur la place publique, les marchands apportaient leurs marchandises et négociaient avec les clients, ajustant sans cesse leurs impressions quant à la vigueur de la demande pour… les courgettes, les étoffes, les outils. Ajustant plus rapidement à la baisse les prix des périssables en cas de fléchissement de la demande. Ajustant à la hausse les prix des étoffes qui plaisaient à la clientèle.

Facile de comprendre la logique. Alors pourquoi autant d’intérêt concernant les prix dynamiques?

Parce que nous sortons de l’êre industrielle où il est généralement plus efficace d’afficher un prix et de s’y tenir. Vous imaginez ce que serait un Wal-Mart si vous deviez négocier le prix de chaque article que vous voulez acheter? Même si les opérateurs de grandes surfaces savent parfaitement qu’ils pourraient vendre leurs articles plus cher à la plupart de leurs clients (ce que l’on appelle le surplus du consommateur, i.e. la différence entre la valeur qu’un objet représente pour l’acheteur et le prix qu’il aura à débourser) ils savent aussi que le coût d’extraction de ces surplus serait prohibitif.

Puis entrent en scène les technologies de communication qui permettent de suivre l’évolution des stocks avec une précision et un temps de réponse nettement améliorés. Entrent en scène des mécanismes de comparaisons des prix qui font en sorte qu’il devient plus difficile pour un vendeur de s’abriter derrière l’ignorance du marché et force les ajustements rapides. Et des mécanismes qui permettent de créer des marchés, comme eBay, où il n’y avait aucune possibilité d’atteindre une masse critique.

De multiples variantes du principe d’ajustements fins des prix méritent d’être considérés.

1) La gestion des prix en fonction du temps (yield management) L’idée est ici que pour certains types de biens, comme les places d’avion, il n’est pas possible de stocker. Les surplus sont perdus. Que l’on parle de surplus d’offre (un avion qui vole à moitié vide) ou des surplus de demande (un passager qui doit attendre). La question qui se pose est de savoir quel(s) prix pratiquer sur l’ensemble des biens (avions, locations de voitures, de chambres d’hôtel, de temps de consultants).

2) La gestion des prix en fonction de la conjoncture Si le yield management se penche d’abord sur la question de déterminer le prix en fonction d’une demande qui se dévoile progressivement, la gestion conjoncturelle s’intéresse au problème de changement du prix des intrants, de l’intensité concurrentielle ou de la demande. Une infinité de situations peuvent être envisagées. Simplifions en suggérant que des "antennes" biens situées prenant le pouls de la conjoncture, et un système de diffusion des décisions de prix sont maintenant concevables. L’exemple le plus évident de la gestion dynamique conjoncturelle est là où on négocie un sur un, avec un client, le prix d’un bien. Illustration extrème: ce journaliste qui relate l’achat d’une boite de céréales via Priceline. Douteux que ce modèle se généralise. En pratique, aujourd’hui, les ajustements non pas un sur un, mais en utilisant des systèmes qui suivent l’évolution de la demande en fonction du prix. Mais demain pour les produits où l’acquisition de données sur la demande d’un consommateur peut se faire à très peu de frais, pourquoi pas? Dans la mesure où les différences sont basées sur des arguments économiques (i.e. sans aspects discriminatoires). En sachant que dans une économie concurrentielle, extraire un prix plus élevé d’un consommateur qui valorise plus permet de réduire (d’autant) le prix afin de réaliser une transaction auprès d’un consommateur qui valorise moins.

Mon pointeur Elmaghraby et Keskinocak qui brossent un tableau de la littérature scientique dans ce domaine
 


#10 Internet et distribution

Ici le thème devrait en fait se lire "Gestion de la Chaine Logistique". Ou en fait, parce que GCL est pratiquement inconnu, il faudra parler de "Supply Chain Management" (SCM).

La présentation "formelle" du cours parle davantage de la fonction vente telle qu’elle est conçue dans la tradition marketing, i.e. en analysant le processus de vente de la génération de prospects au suivi post achat. Dans ce billet, permettez-moi de prendre du recul en considérant l’impact que les technologies de l’information ont sur l’ensemble du réseau de distribution.

Première constatation — les organisations se concurrencent, indirectement, via leurs réseaux. De sorte qu’un concurrent en amont ou en aval de vos fonctions aura un impact sur votre rentabilité même s’il n’est pas directement aligné sur votre créneau. Il est important de bien choisir ses partenaires d’affaires. De savoir quoi confier à qui. Aussi incroyable que cela puisse paraître, on compte maintenant de nombreux exemples d’externalisation (outsourcing) d’activités marketing. Voir par exemple ce bref sommaire exécutif de McGovern et Quelch (si le document n’était plus disponible à l’adresse précédente, essayer ici).

Deuxième constatation — Il est évident que la réduction des coûts de communication
consécutive au déploiement des technologies Internet a entraîné un
glissement sans précédent dans les analyses de coûts de transaction. De
sorte que ce qui "devait" se faire à l’interne se fait maintenant de
plus en plus à l’Internet :)… Une pratique qui se répand, et qui
n’est pas sans soulever son lot de problèmes. Un document intéressant
est disponible ici. L’essentiel à retenir est que:

1) il faut y penser à deux fois avant de se départir d’une tâche stratégique (i.e. une tâche spécialisée et spécifique à notre organisation). Si nous ne sommes capables d’y développer un avantage distinctif, mieux vaut changer d’industrie! En revanche il est imprudent de garder à l’interne des tâches génériques puisque nous avons toutes les raisons de croire qu’un spécialiste, externe, saurait mieux faire pour moins cher.

2) Il faut que les motivations des organisations convergent. Ce qui implique la rédaction de contrats appropriés, bien évidemment, mais aussi que les entreprises partagent une même culture. Une excellente source ici (Narayanan et Raman 2004)

3) Et c’est typiquement dans ce contexte que j’ajoute que la décision d’appuyer une stratégie d’organisation sur un système d’entreprise (ERP) est, à mon avis, problématique. Parce qu’une fois adoptées, ces meilleurs pratiques standard et les inter-relations automatiques qui sont escomptées figent les entreprises dans des systèmes étouffants. Le langage des organisations  utilise de plus en plus le concept de SOA (Service Oriented Architecture), où l’idée est de modulariser les activités et de les rendre disponibles un peu partout sous forme de service. On ne vend plus un produit, mais un résultat. 

Bref, ce sont tous les maillons de la chaîne qui comptent, et ces maillons sont intégrés dans un système d’information, qu’il soit formel ou pas.

Pour illustrer — un étudiant vient tout juste de me communiquer les résultats de son essai stage où il a vérifié que les patients qui connaissent le plus de succès dans le traitement d’une condition chronique sont ceux qui comprennent le mieux leur état. Vous saisissez la portée de ce résultat? Ce n’est pas uniquement, peut-être même pas surtout, la compétence des médecins ou la qualité des médicaments qui déterminent la qualité du service, mais bien la capacité qu’a le client (le patient) de comprendre son état. De sorte que tous les maillons de la chaîne ont intérêt à faire en sorte que le client/patient soit bien informé.

Mon pointeur dans ce module: plusieurs articles mentionnés plus haut sont plus pertinents. Mais pourquoi ne pas suggérer de lire cet article qui parle du programme (britannique) de patients experts. Et de vous suggérer de penser que, de plus en plus souvent, on "vend" des connaissances. Et que notre succès comme individu ou organisation dépend dans une large mesure de notre capacité à transférer les informations clés. En activant un réseau de compétences.


#9 Publicité enLigne

Le matériel du cours de e-marketing (dernière mouture étant 2004) parlait de la "crise de l’industrie de la publicité Internet," consécutive à l’implosion de 2000. Les investissements publicitaires tournaient alors aux environs de $8G par an (données US). J’argumentais qu’il était probable que ces chiffres augmentent considérablement parce qu’Internet est un médium à cheval entre la télé et l’imprimé et que le ratio des dépenses publicitaires en fonction du temps consacré aux différents média montrait qu’Internet était sous-utilisé.

Trois ans plus tard, IAB parle d’un volume qui tourne aux environs de $20G par an (approximativement $1G au Canada)

Nous sommes probablement plus près d’un point d’équilibre où la progression des investissements publicitaires Internet dépendra de la croissance du temps d’utilisation de l’Internet. Ce qui explique l’intérêt extraordinaire que suscitent les réseaux sociaux dont la part du temps d’utilisation a connu une croissance remarquable depuis 2006. (voir ici un graphe de l’évolution du nombre de pages vues, généré par le "panel" Alexa). Pas que l’usage global explose, mais il se transforme.

Il est pratiquement impossible de surestimer l’impact de ce que nous appelons "réseaux sociaux" (essentiellement mySpace et facebook) sur l’industrie de la publicité enLigne. Les investissements sont encore "modestes" (moins de $1G en 2007), mais comme tout indique que la pénétration de l’Internet traditionnel plafonne, c’est sur les réseaux sociaux que les prévisions de croissance d’appuient.

Mais là, j’ai des doutes. Parce qu’en communication publicitaire comme ailleurs, l’utilisateur est en contrôle. Ce qui veut dire que la "publicité non sollicitée" fait face à un avenir incertain. Je doute que le marché des widgets ait, à terme, un impact significatif sur le sens de la communication commerciale. Les consommateurs, de toute évidence, évitent les publicités insipides. Trois observations:

1) ne pas confondre investissements avec impacts. Les budgets publicitaires sont traditionnellement établis en fonction d’une répartition de 15% pour la conception + administration et 85% pour la diffusion de la campagne. Le modèle usuel était d’acheter un auditoire (le 85% des frais) à qui exposer un message commercial plus ou moins intéressant. Oh! la publicité conventionnelle n’est pas forcément ennuyeuse. D’excellents exemples sont primés chaque année. Mais l’industrie s’appuie sur un modèle d’exposition forcée. Ce qui est problèmatique avec Internet, où les intersticiels sont à toutes fins pratiques disparus. On devrait assister, au fil du temps, à un glissement des investissements qui se feront davantage en créatif qu’en diffusion. Parce que le consommateur a le choix.

L’effort de création devrait amener les concepteurs à opter pour l’une de deux stratégies:

2.1) multiplier les concepts et les insérer dans des contextes appropriés. Concrètement – travailler sur une stratégie compatible avec les impressions de publicités contextuelles, aka adwords. Un utilisateur qui tape des mots clés génériques (ex: [ Internet advertising] tombe sur une page où les publicités contextuelles ont une probabilité raisonnable de mener à une action (clic). Le jour où j’ai fait cette requête Google et Facebook avaient acheté les deux premiers liens du haut de page.)

2.2) s’appuyer une un créatif exceptionnel qui attirera les utilisateurs sur un site comme youTube ou qui suscitera une transmission de type viral (voir elf yourself pour un exemple de viralité pure). Deux exemples se démarquent. Gorilla en particulier. Utile de lire le narratif qui se trouve sur wikipedia.

Fallon London aurait dit que la stratégie était de: "step away from pushing the product through traditional advertising
means, and instead produce "entertainment pieces" which would appeal to
a broader range of consumers and spread through viral marketing – that is, through word of mouth." Succès, sans aucun doute. Il y a la publicité, remarquable. Il y a le site qui accompagne. Il faut jeter un oeil sur la gallerie remix. Clips hébergés sur youTube (un élément incontournable des publicités "d’influence") — reflets d’un impact évident qui peuvent être "mashed-up" et redistribuées. Au centre de la nouvelle stratégie de communication où Cadbury marque des points. Certains points. Buzz si ce n’est avantage distinctif. Le gorille-batteur aime les barres de chocolat Cadbury? Ou est-ce que je me tape le nom de marque parce que je suis devant mon écran, encore sidéré par les images, encore en train de me demander comment ont-ils fait? Et je vois défiler le nom de marque. Il aura fallu payer cher ces quelques secondes d’exposition au nom de marque.

Il y a mieux — Dove Evolution. Lire le narratif wikipedia. Remarquer la taille du budget ($50 000). Noter que le clip est disponible en plusieurs copies (indication que de nombreux consommateurs veulent partager leur expérience. Et qu’il y a des remix (moins que pour Gorilla à cause de la nature du sujet, dont certains sont amusants

Le problème avec les stratégies créatives à la Evolution est qu’il est infiniment plus simple de faire dans la publicité contextuelle. En somme — Idée géniale? Faisons dans le créatif viral. Bonnes petites idées? Faisons dans le contextuel.

Mon pointeur de la séance: Le site de l’IAB

ps: Il y a des gens pleins de talent, créatifs, qui font de la publicité un art véritable, où le message est présenté de telle sorte qu’on en redemande. Et il y a des sites qui présentent ces contenus. Par exemple, cette séquence hilarante disponible sur infopresse


#8 Courriel

Un thème qui montre son âge…

Le courriel était le vecteur e-marketing le plus important il y a quelques années. Mais deux problèmes fondamentaux ont largement compromis son utilité: la prévalence du pourriel et l’absence de signature fiable. Deux problèmes inter-reliés d’ailleurs.

Le concept de pourriel n’a pas besoin de longue introduction — nous le connaissons tous. Mais il n’est pas certain que nous en mesurons toute l’importance parce que nous sommes protégés (souvent à notre insu) par des filtres. SpamNation estime qu’une adresse électronique est ciblée par près de 400 pourriels par jour , DCC montre que le pourriel détecté à la source (i.e. jamais relayé au destinataire) est plus fréquent que le courriel (légitime). Et dans le cas de DCC il faut noter que les chiffres portent sur les messages à l’origine, sans tenir compte du nombre de destinataires. Comme les fraudeurs "habiles" envoient leur pourriel à un petit nombre d’adresses à la fois — certains estiment que le pourriel représente maintenant 90%+ de tout le volume de courrier électronique.

L’absence de signature électronique a conduit à une situation invraisemblable où les institutions financières avisent leurs clients de ne pas répondre aux courriels qui prétendraient en provenir. Vous le savez certainement: il est très facile d’envoyer un message en prétendant être une banque. Vous imprimez des enveloppes et du papier à lettre qui imitent ceux de la banque et vous envoyez à la ronde, en demandant que les coordonnées bancaires des destinataires vous soient retournées au casier postal de votre choix. Et évidemment, vous le savez aussi je suppose, on peut faire la même chose avec du courrier électronique. "L’avantage" de l’arnaque électronique est qu’il est plus facile de travailler discrètement, rapidement et à peu de frais. "L’inconvénient" est que dans la version électronique, il est relativement facile de se protéger contre les documents falsifiés via un mécanisme automatique de validation de l’identité de l’expéditeur, un peu comme si on téléphonait à l’institution financière pour vérifier qu’une lettre a bel et bien été envoyée. Sauf que la signature électronique valide automatiquement l’auteur d’un message précis. Je me demande souvent pourquoi la signature électronique n’est pas utilisée… mais je digresse. Le fait est que la signature électronique ne s’est jamais imposée de sorte que n’importe qui peut prétendre à n’importe quoi et que l’infestation de pourriel est un problème complexe.

Ceci dit, il ne faut pas croire que le courriel est un outil inutile. Le courriel demeure le véhicule privilégié de relation avec le client, lorsque ce dernier initie la démarche. Que ce soit dans un contexte de support à la clientèle, de question en prévision d’un achat, d’un abonnement (opt-in) à un service de renseignement sur les aubaines ou autres, les opportunités sont nombreuses et importantes.

Quelques idées simples:

1) oui, il faut prévoir recevoir et traiter des courriers — la rapidité de la réponse est un déterminant essentiel de la satisfaction du client (et ici je fais toutes mes excuses à mes étudiants auxquels, parfois, il m’arrive de répondre plus tardivement parce que je suis absorbé par d’autres activités…). Il faut que les adresses soit diffusées, que le traitement des courriers soit planifié.

2) oui, pas évident lorsque les clients actuels ou potentiels nous inondent de questions banales auxquelles ils auraient très facilement pu trouver réponse sur notre site ou ailleurs, ou de questions complexes auxquelles nous n’avons pas la réponse. En conséquence, oui, nos adresses sont bien en évidence, mais lorsque la situation l’impose, elles seront derrière un processus qui fait cheminer par les FAQ, les outils sociaux (forums), les moteurs de recherche (qui peuvent d’ailleurs être appliqués aux courriels entrants pour suggérer des réponses).

3) les abonnements aux newsletters sont un extraordinaire terrain expérimental où des concepts peuvent être testés sur des fractions d’abonnés, où les offres peuvent être ajustées en fonction des réactions.

4) et si vous pensez qu’un courriel envoyé à un client qui en a fait la demande est peu efficace (parce que la plupart du temps les destinataires ne le lisent pas) alors demandez-vous quelle peut bien être l’efficacité d’une publicité non contextuelle? Oui vu différemment, si le courriel-marketing était sans aucune efficacité, comment se fait-il que le pourriel soit aussi fréquent?

Probablement parce que le courriel demeure malgré tout l’un des vecteurs les plus efficaces en terme de rendement sur l’investissement.

Mon pointeur sur ce thème: Advanced email strategies (2007)


#7 référencement

L’idée de base est simple: quelque chose comme 30% du trafic www commercial transite via des recherches par mots-clés — il faut agir de manière à être trouvé. (les chiffres varient en fonction de l’industrie. Par exemple, dans le secteur voyage en Grande Bretagne, hitwise parle de plus de 40%)

En pratique, pas si simple parce que l’environnement est hautement concurrentiel et pas facile à circonscrire parfaitement. Il est utile, je crois, de considérer trois facteurs:

1) Trouver vs retrouver

Oui bien sûr on pourrait souhaiter être le premier lien à être trouvé suite à une requête générique. Si vous tapez "Assurance", qui voyez vous? Et maintenant, si vous tapez "assurances"? Ou "assurance auto", "insurance" ou "car insurance"? Plusieurs entreprises variées. Très probablement pas les mêmes d’une requête à l’autre parce que chaque page a ses qualités propres qui font qu’elle est plus concurrentielle pour une requête précise. Utile de refaire avec différents types de requêtes. Par exemple, en se mettant à la place de quelqu’un qui cherche un hôtel à Montréal. Quelle requête sera tapée? Et comme il y a des tas d’hôtels dont le nom contient Montréal. Et des tas de services de réservation qui se font concurrence…

Et dans le cas des hôtels, il y a les cas délicats de l’Hôtel de Paris (situé à Montréal) et celui de l’Hötel de Montréal situé "à deux pas du Louvre et du Musée d’Orsay" (à Paris).

Au niveau critique, il faut pouvoir être facilement retrouvé. Pour revenir à l’exemple des assurances, si on cherche "Assurance Aubin", on retrouvera immédiatement le courtier en question (qu’on ne trouvera pratiquement jamais via des mots clés génériques). Pour l’Hôtel Montréal à Paris, pas du tout évident (on le trouve très loin au 90ième rang des liens retournés par la requête "Hotel Montréal"). Ce qui n’est pas génial. Parfois critique au point de devoir penser sérieusement à changer de nom. Mais auparavant, deux options sont à envisager.

2) Organique vs payé

Les liens retournés sont majoritairement "organiques". Ce qui veut dire que Google applique à chaque page un coefficient calculé à partir de la pertinence déduite en fonction des mots présents sur la page, des mots-clés proposés aux robots qui indexent l’Internet, du nom de la page, etc. mais aussi, beaucoup, en fonction des liens qui pointent vers une page et qui agissent ainsi comme indicateur de sa qualité (pagerank), et de plus en plus par le taux de clics historiquement générés par le lien et l’âge de la page (voir par exemple ici)

Le bon côté de l’approche organique est qu’elle retourne (idéalement) des liens pertinents et de qualité. Le succès de cette formule est évident — c’est à cette approche que Google doit son quasi monopole en recherche www. Et pour goûter la différence, faites des requêtes sur un site concurrent…

Le côté moins génial est que l’approche organique favorise les structures existantes de sorte qu’un innovateur, même pertinent, n’aura pas le même classement. Et plus généralement, parce que les utilisateurs ont recours à des mots clés génériques et parce qu’une faible proportion ira voir au delà de la première page de (10) résultats, très peu de liens organiques seront vus.

La bataille se joue souvent sur le plan des liens payés. Tapez "hotel paris" et la page retourne des liens payés en entête, des liens payés en colonne de droite, une carte de paris avec des insertions qui sont parfois gratuites parfois payées…. dans certaines applications, les liens organiques sont devenus moins importants que les liens payés.

Ces liens qui font la fortune de Google sont vendus aux enchères (adword). Utile de "faire comme si" on voulait lancer une campagne pour vendre (ex: un hôtel, une police d’assurance), histoire de comprendre comment l’approche fonctionne (montant maximal qui sera payé pour un clic, montant maximal qui sera payé dans une journée, simulation des résultats, etc.)

3) Direct vs indirect

Pas facile de suggérer une proportion de visites référées. Tout dépend du secteur. Tout dépend de l’importance de l’entitée dont on parle. Mais ce qui est clair est que pour un très bon nombre de sites, l’important est que le trafic soit alimenté par des référents. Des sites qui comparent. Des sites qui commentent, des sites qui relaient.

Mon pointeur: "Optimal Search Engine Marketing Strategy" (disponible sans frais aux membres de la communauté universitaire de Laval. Passez par Scholar.google.com pour récuper l’article. Une requête ici


#6 Produit

Il faut, je pense, s’arrêter 2 minutes et se demander ce que c’est qu’un produit.

La première impression est qu’un produit, c’est quelque chose que l’on trouve dans un magasin. Quelque chose qui pousse à la ferme ou qui est fait en usine. Que l’on tient dans ses mains. Impression dépassée. Nos sociétés ne sont plus (toutes) agricoles ni industrielles… Alors:

La seconde impression est qu’un produit est un ensemble d’attributs.  La définition contemporaine orthodoxe est qu’un produit est "tout ce qui peut servir à satisfaire un besoin ou un désir". On distingue les produits tangibles (de la ferme ou de l’usine) et les intangibles (consultation médicale, spectacle). (voir ici) Mais rapidement on développe un malaise quand on réalise qu’une automobile achetée est un produit alors que la même automobile, si elle est  louée, est un service. Alors:   

La troisième impression, plus proche de la réalité selon moi, est qu’un produit est un amalgame de dimensions, certaines tangibles d’autres pas. Et avec le temps et le niveau de développement économique et social, ce sont les dimensions intangibles qui prennent le plus d’importance.

Parce qu’en fait, dans une société développée, l’essentiel est l’expérience (de consommation).

La notion d’expérience est au centre des innovations les plus intéressantes et les plus importantes des dernières années. Par exemple, l’explosion d’intérêt à l’endroit de ce que nous appelons le "contenu généré par les utilisateurs" et qui se traduit en "web social".

La question est importante parce qu’elle mettra en relief un débat qui avait trouvé prématurément sa solution. Je veux parler du design de sites www, où des ténors comme Jakob Nielsen avaient tranché que l’important, c’est utilisabilité. C’est-à-dire la propriété d’une interface de permettre à un utilisateur de s’y retrouver facilement et rapidement. Les principes énoncés par Nielsen sont souvent compris comme des évidences. Et pourtant, le cordonnier semble tellement mal chaussé! (cf. page d’accueil de useIT)

Donc une façon différente de comprendre le fameux www 2.0 est de réaliser que le concept de portail menant vers des expériences pré-déterminées (Yahoo! ou Google) laisse progressivement sa place à une expérience qui se déroule de manière moins prévisible (YouTube, mySpace ou Facebook).

Mais ce sur quoi j’aimerais attirer votre attention est que notre conception de cette expérience est très sommaire. S’il y a un après 2.0, mon impression est que ce n’est pas dans le domaine des conversations machine à machine qu’on le trouvera, mais dans l’apparition de façons radicalement nouvelles d’interagir avec son environnement.

Heureux hasard — un étudiant qui présente devant ses collègues d’un cours d’introduction au marketing le concept d’ordinateur de surface". Un excellent clip est disponible ici

L’Internet est encore largement un médium qui supporte le texte. Que l’on écrit, que l’on lit, que l’on cherche (et trouve) plus facilement que jamais. Un médium en train d’évoluer vers un type radicalement nouveau d’expériences. Si vous avez regardé le clip auquel je fais référence, il vous reste à imaginer les usages. Mignon de prendre et partager des photographies. Mais pourquoi pas repenser tout le concept d’enseignement. D’ouvrir des fenêtres sur des questions.

Quelques illustrations, quelques autres pointeurs, mais surtout ce message que le futur du marketing passe vraisemblablement par l’Internet. Mais ce n’en est certainement pas l’aboutissement. L’important est de travailler à concevoir de nouvelles expériences.

Funky forest: une extraordinaire installation présentée aux Pays bas. Où les enfants ont un impact immédiat, tangible, sur un environnement de synthèse.

Digital experience un site danois. Exemples dans le domaine des arts. Dont celui-ci où des danseurs interagissent avec une murale. Très loin de l’interface utilisable…

Plus près de la réalité telle que nous la connaissons, Boxes and arrows qui parle d’une manière intelligible aux administrateurs.


Un site qui redéfinit le concept de publicité

Je reçois un quasi-spam. Vous savez, le genre de message non sollicité qui nous arrive après avoir essayé puis rejeté un logiciel.

Comme le besoin subsiste, je clique. Non, ne fait pas.

Je google.

Et je tombe sur ce site

La façon dont Bee Doc’s présente son logiciel est extra. Je ne sais pas sur quel clip vous tomberez. Mais j’ai été séduit en moins de 30 secondes, conquis en moins de 5 minutes. Et je ne vois pas comment ils auraient pu expliquer autrement que par un vidéo comment leur logiciel intègre les données.

Pour résumer. Entreprise A me spamme. Je mords. Ils sont moyens. Je google. Je trouve B. Je suis conquis. (mais je n’ai pas encore acheté… 🙂 (mais ce n’est qu’une question de temps.)


Blog analytique – trois observations

Un de mes étudiants du cours de eMarketing remarque qu’il n’a pas beaucoup de visiteurs sur son blog. Un autre me relaie un pointeur sur les outils analytiques du blogger. La porte est ouverte:

1. Oui, il y a des outils analytiques qui donnent une quantité appréciable d’informations sur le trafic généré par un blog. Il est facile (et gratuit) de compiler des statistiques globales. Nombre de pages vues, nombre de visiteurs uniques, provenance des visites (géographique, source: url de relais/mot-clés/visites directes), visites par pages, etc.

On obtient tout aussi facilement des données sur le clickstream (parcours des visites). Du "bounce rate" (nombre de visites limitées à une seule page), à la durée du parcours, en passant par une analyse plus ou moins fine de parcours-types (i.e. les visites commencent où et se terminent comment). Et là, on touche du doigt un concept important, celui de conversion, où on détermine une action désirée (par exemple, que le visiteur s’abonne à votre fil), qu’il est possible de formaliser avec des outils comme google analytics.

On peut enfin établir des mesures personnalisées. Attention ici. Les outils sont puissants mais ils ne vont pas retrouver votre nom. Ils vont toutefois garder trace d’une machine (pour déterminer s’il s’agit ou pas d’une première visite). Et archiver toutes les visites de cette même machine. Dans certains cas il sera possible de relier un individu à une machine. Par exemple, un visiteur qui laisse un commentaire signé sur un blog ouvre la possibilité de relier une machine (et/ou une adresse I.P.) à une identité.

J’utilise des outils analytiques pour suivre quelques statistiques globales. En particulier la provenance des visiteurs et les mots-clés qui amènent des gens. Instructif de constater que bon nombre de visites sont planifiées (ex: on recherche "stephane gauvin", ou on arrive d’un site de cours ou de l’université). Que d’autres sont pertinentes (i.e. on tape une requête comme "ebay enchères" ou "marketing responsable" et on tombe sur un billet pertinent). Et qu’un petit pourcentage sont accidentelles (i.e. on tape "responsable marketing" et on tombe sur un billet qui parle de marketing responsable).

2. L’analytique tend un piège. Mais contrairement à ce qu’on pourrait croire, le piège guette l’auteur plutôt que le visiteur. Quel est le motif derrière un blog? Exprimer une idée ou être lu? Il y a une maxime qui dit qu’on ne gère que ce que l’on mesure. Or le web analytique mesure les visites. Pas le plaisir que vous retirez de formuler une idée. Pas la qualité de la formulation. Pas l’originalité de vos points de vue.

Alors le risque est de vouloir jouer le jeu d’augmenter le nombre de visites. Les moyens sont infinis.

Le piège est que l’auteur risque de prendre une décision sans s’en rendre compte. Si vous bloggez dans un contexte d’entreprise, que l’entreprise soit le blog lui-même ou un véhicule de relation publique, les règles du jeu sont, je suppose, relativement claires d’entrée de jeu. Elles le sont moins dans le cas d’un individu qui exprime ses intérêts personnels. Au risque de pousser l’exemple au-delà de ce qu’il convient – je ne vous conseillerais pas d’utiliser un système analytique pour suivre la qualité de vos relations personnelles. Amis, amants, parents, enfants. Les mesures deviennent des monnaies d’échange qui sont corrosives.

Un exemple frappant – handbrake est une communauté qui collabore au développement d’un logiciel d’archivage de DVDs. Ils ont posé le geste conscient de ne pas accepter de dons (lire ici) afin de protéger l’éthos de leur groupe. D’éviter les dérives qui porteraient les efforts du groupe dans la direction de générer davantage de revenus plutôt que de générer du code plus performant. Cette communauté de développement protège ses intérêts premiers au point de confronter ouvertement certains de leurs utilisateurs dans un langage qui provoquerait des apoplexies chez les responsables CRM d’entreprises de marché.

3. Ce qui explique la professionnalisation de la blogosphère. Et la convergence surprenante du contenu blog avec l’opinion publique. Parce que les blogs sont à la recherche d’attention. Goldhaber écrivait il y a déjà longtemps que l’Internet n’était pas gouverné par les lois de l’économie de l’information (qui est super-abondante) mais par celles de l’économie de l’attention (qui est en quantité limitée).

Bref — si vous visez un plaisir dilettante, ne vous investissez pas trop dans l’analytique. Si vous vise de retombées monétaires (économiques au sens étroit), l’analytique devient un allié important. Bien que pas un substitut au génie, au travail, à la création. Mais oui, un outil important.