L’après 2.0 – PerspecTIves

1.0 est à maturité. 2.0 s'en approche rapidement. L'après 2.0 sera centré sur la mobilité (consensus visible) et la vidéo (dans l'intimité du foyer).   

Je vais présenter quelques observations dans le cadre d'une activité organisée par le Réseau Action TI de Québec, mercredi midi.

Bien que le titre de la conférence suggère que je vais essentiellement parler du web social et du comment faire, je parlerai tout autant sinon plus de ce qui se profile. Le concept du web social est relativement bien cerné. On sent un certain retour de balancier, d'une part — la télévision conventionnelle est rapidement remplacée par du contenu vidéo distribué à demande, et on commence à discerner un modèle qui parait viable à moyen/long terme. 

D'autre part, la rupture avec les modèles économiques habituels devient de plus en plus évidente. Ce qui n'est pour le moment que de l'anecdote pourrait peut-être, en fait, être signe précurseur de cette nouvelle économie dpont nous parlons depuis 15 ans.

Ma présentation débute sur un retour rapide de ce que je racontais à Infopresse MTL l'an dernier (où je vais devoir constater la progression remarquable de Facebook, où je vais présenter quelques observations sur la démographie et l'évolution du nombre de pages vues, mais bon…. je ne parierais ma chemise ni dans un sens ni dans l'autre). Puis je parle de l'explosion du contenu d'information de l'Internet (200 fois en 4 ans) et du fait que "tout s'y trouve dans des proportions harmonieuses", avant de mettre l'accent sur l'évolution du trafic — Internet obéit présentement à la loi de Paréto, avec 20% des utilisateurs qui consomment 80% de la bande passante. Vous avez une idée du volume moyen consommé par le top 5% en 1 mois? Voisin de 80G. Ça en fait des mails! 🙂

Transparents ici, qui contiennent de nombreux clips que je vous laisse le soin d'imaginer.

Indice du Commerce Électronique

Je participe ce matin au dévoilement des derniers résultats de l'enquête sur l'Indice du Commerce Électronique au Québec, une activité organisée par le CEFRIO.

On me permettra de formuler un commentaire. En bref — nous savons maintenant que les ventes enLigne progressent de manière prévisible. Elles représentent un petit pourcentage des ventes totales (disons 3.5% aux USA — je pointerai vers les résultats de l'ICE lorsqu'ils seront publics). Elles satureront à un niveau un peu plus élevé, mais qui ne sera pas spectaculaire.

Par contre, on observe une transformation rapide et profonde du "cyberespace". Je ferai l'obligatoire distinction entre Web 2.0 (une évolution technologique) et Web social (une évolution de société) avant de faire remarquer que nos sociétés reposaient sur l'agriculture et les matières premières au siècle dernier. Puis sur l'industrie manufacturière jusqu'à il y a 25 ans. Puis sur les services qui comptent maintenant pour plus de 60% de l'activité économique mesurée.

Il est clair que l'Internet ouvre la voie à d'autres activités. Il y a une réalité derrière le vocable "économie du savoir". 

Deux écueils majeurs. D'une part, les laissés pour compte qui ne trouveront pas leur avantage dans ces nouvelles activités. D'autre part la difficulté de mesurer ces activités virtuelles. 

Nos gouvernements sont à travailler à la relance d'une économie à bout de souffle en investissant massivement dans des infrastructures dont on ne sait pas vraiment si elles correspondront aux besoins de demain (bon, en fait pas lieu de trop s'inquiéter — les chiffres absolus donnent le vertige mais les efforts relatifs demeurent, heureusement, modestes).

Bref, il y a ce défi de "valoriser" de nouvelles activités. Tout en gardant à l'esprit que jusqu'à présent, les efforts de monétisation n'ont pas atteint leurs objectifs.

Nous sommes à un carrefour.

Transparents ici

#7 référencement

L’idée de base est simple: quelque chose comme 30% du trafic www commercial transite via des recherches par mots-clés — il faut agir de manière à être trouvé. (les chiffres varient en fonction de l’industrie. Par exemple, dans le secteur voyage en Grande Bretagne, hitwise parle de plus de 40%)

En pratique, pas si simple parce que l’environnement est hautement concurrentiel et pas facile à circonscrire parfaitement. Il est utile, je crois, de considérer trois facteurs:

1) Trouver vs retrouver

Oui bien sûr on pourrait souhaiter être le premier lien à être trouvé suite à une requête générique. Si vous tapez "Assurance", qui voyez vous? Et maintenant, si vous tapez "assurances"? Ou "assurance auto", "insurance" ou "car insurance"? Plusieurs entreprises variées. Très probablement pas les mêmes d’une requête à l’autre parce que chaque page a ses qualités propres qui font qu’elle est plus concurrentielle pour une requête précise. Utile de refaire avec différents types de requêtes. Par exemple, en se mettant à la place de quelqu’un qui cherche un hôtel à Montréal. Quelle requête sera tapée? Et comme il y a des tas d’hôtels dont le nom contient Montréal. Et des tas de services de réservation qui se font concurrence…

Et dans le cas des hôtels, il y a les cas délicats de l’Hôtel de Paris (situé à Montréal) et celui de l’Hötel de Montréal situé "à deux pas du Louvre et du Musée d’Orsay" (à Paris).

Au niveau critique, il faut pouvoir être facilement retrouvé. Pour revenir à l’exemple des assurances, si on cherche "Assurance Aubin", on retrouvera immédiatement le courtier en question (qu’on ne trouvera pratiquement jamais via des mots clés génériques). Pour l’Hôtel Montréal à Paris, pas du tout évident (on le trouve très loin au 90ième rang des liens retournés par la requête "Hotel Montréal"). Ce qui n’est pas génial. Parfois critique au point de devoir penser sérieusement à changer de nom. Mais auparavant, deux options sont à envisager.

2) Organique vs payé

Les liens retournés sont majoritairement "organiques". Ce qui veut dire que Google applique à chaque page un coefficient calculé à partir de la pertinence déduite en fonction des mots présents sur la page, des mots-clés proposés aux robots qui indexent l’Internet, du nom de la page, etc. mais aussi, beaucoup, en fonction des liens qui pointent vers une page et qui agissent ainsi comme indicateur de sa qualité (pagerank), et de plus en plus par le taux de clics historiquement générés par le lien et l’âge de la page (voir par exemple ici)

Le bon côté de l’approche organique est qu’elle retourne (idéalement) des liens pertinents et de qualité. Le succès de cette formule est évident — c’est à cette approche que Google doit son quasi monopole en recherche www. Et pour goûter la différence, faites des requêtes sur un site concurrent…

Le côté moins génial est que l’approche organique favorise les structures existantes de sorte qu’un innovateur, même pertinent, n’aura pas le même classement. Et plus généralement, parce que les utilisateurs ont recours à des mots clés génériques et parce qu’une faible proportion ira voir au delà de la première page de (10) résultats, très peu de liens organiques seront vus.

La bataille se joue souvent sur le plan des liens payés. Tapez "hotel paris" et la page retourne des liens payés en entête, des liens payés en colonne de droite, une carte de paris avec des insertions qui sont parfois gratuites parfois payées…. dans certaines applications, les liens organiques sont devenus moins importants que les liens payés.

Ces liens qui font la fortune de Google sont vendus aux enchères (adword). Utile de "faire comme si" on voulait lancer une campagne pour vendre (ex: un hôtel, une police d’assurance), histoire de comprendre comment l’approche fonctionne (montant maximal qui sera payé pour un clic, montant maximal qui sera payé dans une journée, simulation des résultats, etc.)

3) Direct vs indirect

Pas facile de suggérer une proportion de visites référées. Tout dépend du secteur. Tout dépend de l’importance de l’entitée dont on parle. Mais ce qui est clair est que pour un très bon nombre de sites, l’important est que le trafic soit alimenté par des référents. Des sites qui comparent. Des sites qui commentent, des sites qui relaient.

Mon pointeur: "Optimal Search Engine Marketing Strategy" (disponible sans frais aux membres de la communauté universitaire de Laval. Passez par Scholar.google.com pour récuper l’article. Une requête ici


#6 Produit

Il faut, je pense, s’arrêter 2 minutes et se demander ce que c’est qu’un produit.

La première impression est qu’un produit, c’est quelque chose que l’on trouve dans un magasin. Quelque chose qui pousse à la ferme ou qui est fait en usine. Que l’on tient dans ses mains. Impression dépassée. Nos sociétés ne sont plus (toutes) agricoles ni industrielles… Alors:

La seconde impression est qu’un produit est un ensemble d’attributs.  La définition contemporaine orthodoxe est qu’un produit est "tout ce qui peut servir à satisfaire un besoin ou un désir". On distingue les produits tangibles (de la ferme ou de l’usine) et les intangibles (consultation médicale, spectacle). (voir ici) Mais rapidement on développe un malaise quand on réalise qu’une automobile achetée est un produit alors que la même automobile, si elle est  louée, est un service. Alors:   

La troisième impression, plus proche de la réalité selon moi, est qu’un produit est un amalgame de dimensions, certaines tangibles d’autres pas. Et avec le temps et le niveau de développement économique et social, ce sont les dimensions intangibles qui prennent le plus d’importance.

Parce qu’en fait, dans une société développée, l’essentiel est l’expérience (de consommation).

La notion d’expérience est au centre des innovations les plus intéressantes et les plus importantes des dernières années. Par exemple, l’explosion d’intérêt à l’endroit de ce que nous appelons le "contenu généré par les utilisateurs" et qui se traduit en "web social".

La question est importante parce qu’elle mettra en relief un débat qui avait trouvé prématurément sa solution. Je veux parler du design de sites www, où des ténors comme Jakob Nielsen avaient tranché que l’important, c’est utilisabilité. C’est-à-dire la propriété d’une interface de permettre à un utilisateur de s’y retrouver facilement et rapidement. Les principes énoncés par Nielsen sont souvent compris comme des évidences. Et pourtant, le cordonnier semble tellement mal chaussé! (cf. page d’accueil de useIT)

Donc une façon différente de comprendre le fameux www 2.0 est de réaliser que le concept de portail menant vers des expériences pré-déterminées (Yahoo! ou Google) laisse progressivement sa place à une expérience qui se déroule de manière moins prévisible (YouTube, mySpace ou Facebook).

Mais ce sur quoi j’aimerais attirer votre attention est que notre conception de cette expérience est très sommaire. S’il y a un après 2.0, mon impression est que ce n’est pas dans le domaine des conversations machine à machine qu’on le trouvera, mais dans l’apparition de façons radicalement nouvelles d’interagir avec son environnement.

Heureux hasard — un étudiant qui présente devant ses collègues d’un cours d’introduction au marketing le concept d’ordinateur de surface". Un excellent clip est disponible ici

L’Internet est encore largement un médium qui supporte le texte. Que l’on écrit, que l’on lit, que l’on cherche (et trouve) plus facilement que jamais. Un médium en train d’évoluer vers un type radicalement nouveau d’expériences. Si vous avez regardé le clip auquel je fais référence, il vous reste à imaginer les usages. Mignon de prendre et partager des photographies. Mais pourquoi pas repenser tout le concept d’enseignement. D’ouvrir des fenêtres sur des questions.

Quelques illustrations, quelques autres pointeurs, mais surtout ce message que le futur du marketing passe vraisemblablement par l’Internet. Mais ce n’en est certainement pas l’aboutissement. L’important est de travailler à concevoir de nouvelles expériences.

Funky forest: une extraordinaire installation présentée aux Pays bas. Où les enfants ont un impact immédiat, tangible, sur un environnement de synthèse.

Digital experience un site danois. Exemples dans le domaine des arts. Dont celui-ci où des danseurs interagissent avec une murale. Très loin de l’interface utilisable…

Plus près de la réalité telle que nous la connaissons, Boxes and arrows qui parle d’une manière intelligible aux administrateurs.


Internet, TV, youTube

Un article fascinant. Encore tiré du NYT, probablement le journal qui a le mieux pris le virage Internet.

On y parle d’une escarmouche Clinton-Obama dans le contexte des primaires du Texas. Comment l’équipe Obama a réagi à un message diffusé par l’équipe Clinton.

L’article est captivant sur plusieurs plans. On y lit, par exemple, que le commercial de l’équipe Obama était prêt une heure après la première diffusion du message de l’équipe Clinton. (!!!)

Mais ce que je retiens, c’est à quel point l’appareillage médiatique est imbriqué. Comment le point revient à l’équipe Obama non pas tellement à cause du contenu du message (dont on ne parle que très superficiellement) mais à cause de la qualité de l’exécution et du fait que leur stratégie devient une nouvelle en soi. Que youTube est un médium en soi, dont l’influence augmente rapidement, mais qu’il ne faut pas non plus la surestimer (600 000 vues, un score exceptionnel, alors que la télévision génère des millions de vues).

Link: Candidates Responding Almost as Fast as They Can Attack – New York Times.

Three days after it made its television debut, the Clinton commercial had registered more than 600,000 views on YouTube, and Mr. Obama’s recorded over 200,000, making the dueling advertisements the first breakout hits of the YouTube campaign. (Some campaign videos are lucky to receive 10,000 views.)

More important to the campaigns, reports on the advertisements made the evening news, for while the candidates may be responding at Internet speed, they still reach millions more voters via television.


Marketing et web social

Je présentais mercredi à la journée infopresse sur les nouveaux modèles d’affaires. De marketing à l’ère du "web social" (je n’aime pas vraiment l’expression web 2.0 utilisée dans le contexte des interactions sociales).

Mes transparents sont ici.

Plusieurs graphes pour décrire l’évolution de l’Internet (plafonné en terme de pénétration / transformé en terme de destinations). Ce qui frappe est la croissance soutenue du secteur des blogs (depuis 2005) et surtout de youTube (depuis 2006) qui est sur le point de devenir la destination #1 (et rien ne laisse présager un essoufflement)… mais aussi le ralentissement évident dans le secteur des "réseaux sociaux" (mySpace et Facebook) qui sont tous deux en perte de vitesse.

Je parle ensuite du "2.0" que je préfère associer à des aspects technologiques plutôt qu’à des aspects sociaux. En partie parce que le web est social depuis ses touts débuts (ex: on a pas attendu 2005 pour solliciter les critiques de livres chez Amazon, ou inviter au recrutement chez hotmail). En partie parce que la nature des interactions sociales n’est pas dictée par la technologie. Les débats Porter-Tapscott ou Davenport-McAfee le montrent bien. Internet peut être utilisé dans un contexte "traditionnel" ou dans un contexte "ouvert", i.e. s’appuyant plus ou moins sur l’input des utilisateurs.

Quelques notions de toujours, mais importantes pour expliquer que le marketing 2.0 considère le client comme un partenaire. Que l’on écoute. Avec lequel on collabore. Qu’on ne voudra donc pas manipuler viralement ou exposer à de la publicité (inutilement). Cette image oculométrique éloquente et le commentaire de Nielsen que les seules publicités rentables sont les publicités contextuelles et les annonces classées. La vision articulée par Prahalad et Ramaswamy.

Puis des exemples. Amazon, Dove, OfficeMax, Nokia, Handbrake, Kiva. J’aime bien Kiva. Marginal. Mais une excellente illustration du principe de la co-création. J’aime bien Amazon. Pas marginal du tout. Qui fait tout pour bien servir ses clients. J’aurais aimé avoir eu le temps de parler davantage de cette entreprise exemplaire.

Puis quelques observations personnelles.

Papillon et chrysalide en première page. Belle métaphore. On devine à peine le papillon. La chenille, quelconque, s’enveloppe et se transforme.

La société se transforme. Bien malin celui qui saura prédire comment. Mais dans le cas qui nous préoccupe, une société consciente peut probablement exercer un certain contrôle sur sa destinée.

Mon message central est que l’entreprise doit plus que jamais être à l’écoute de son marché. Et que si celui-ci manifeste l’envie de contribuer, il serait probablement sage de faciliter cette collaboration. Mais qu’en fait plusieurs modèles sont plausibles. Il faut trouver sa voie, et ajuster sa voix en conséquence.

ps. impressionné par la qualité de l’événement.


Un site qui redéfinit le concept de publicité

Je reçois un quasi-spam. Vous savez, le genre de message non sollicité qui nous arrive après avoir essayé puis rejeté un logiciel.

Comme le besoin subsiste, je clique. Non, ne fait pas.

Je google.

Et je tombe sur ce site

La façon dont Bee Doc’s présente son logiciel est extra. Je ne sais pas sur quel clip vous tomberez. Mais j’ai été séduit en moins de 30 secondes, conquis en moins de 5 minutes. Et je ne vois pas comment ils auraient pu expliquer autrement que par un vidéo comment leur logiciel intègre les données.

Pour résumer. Entreprise A me spamme. Je mords. Ils sont moyens. Je google. Je trouve B. Je suis conquis. (mais je n’ai pas encore acheté… 🙂 (mais ce n’est qu’une question de temps.)


Blog analytique – trois observations

Un de mes étudiants du cours de eMarketing remarque qu’il n’a pas beaucoup de visiteurs sur son blog. Un autre me relaie un pointeur sur les outils analytiques du blogger. La porte est ouverte:

1. Oui, il y a des outils analytiques qui donnent une quantité appréciable d’informations sur le trafic généré par un blog. Il est facile (et gratuit) de compiler des statistiques globales. Nombre de pages vues, nombre de visiteurs uniques, provenance des visites (géographique, source: url de relais/mot-clés/visites directes), visites par pages, etc.

On obtient tout aussi facilement des données sur le clickstream (parcours des visites). Du "bounce rate" (nombre de visites limitées à une seule page), à la durée du parcours, en passant par une analyse plus ou moins fine de parcours-types (i.e. les visites commencent où et se terminent comment). Et là, on touche du doigt un concept important, celui de conversion, où on détermine une action désirée (par exemple, que le visiteur s’abonne à votre fil), qu’il est possible de formaliser avec des outils comme google analytics.

On peut enfin établir des mesures personnalisées. Attention ici. Les outils sont puissants mais ils ne vont pas retrouver votre nom. Ils vont toutefois garder trace d’une machine (pour déterminer s’il s’agit ou pas d’une première visite). Et archiver toutes les visites de cette même machine. Dans certains cas il sera possible de relier un individu à une machine. Par exemple, un visiteur qui laisse un commentaire signé sur un blog ouvre la possibilité de relier une machine (et/ou une adresse I.P.) à une identité.

J’utilise des outils analytiques pour suivre quelques statistiques globales. En particulier la provenance des visiteurs et les mots-clés qui amènent des gens. Instructif de constater que bon nombre de visites sont planifiées (ex: on recherche "stephane gauvin", ou on arrive d’un site de cours ou de l’université). Que d’autres sont pertinentes (i.e. on tape une requête comme "ebay enchères" ou "marketing responsable" et on tombe sur un billet pertinent). Et qu’un petit pourcentage sont accidentelles (i.e. on tape "responsable marketing" et on tombe sur un billet qui parle de marketing responsable).

2. L’analytique tend un piège. Mais contrairement à ce qu’on pourrait croire, le piège guette l’auteur plutôt que le visiteur. Quel est le motif derrière un blog? Exprimer une idée ou être lu? Il y a une maxime qui dit qu’on ne gère que ce que l’on mesure. Or le web analytique mesure les visites. Pas le plaisir que vous retirez de formuler une idée. Pas la qualité de la formulation. Pas l’originalité de vos points de vue.

Alors le risque est de vouloir jouer le jeu d’augmenter le nombre de visites. Les moyens sont infinis.

Le piège est que l’auteur risque de prendre une décision sans s’en rendre compte. Si vous bloggez dans un contexte d’entreprise, que l’entreprise soit le blog lui-même ou un véhicule de relation publique, les règles du jeu sont, je suppose, relativement claires d’entrée de jeu. Elles le sont moins dans le cas d’un individu qui exprime ses intérêts personnels. Au risque de pousser l’exemple au-delà de ce qu’il convient – je ne vous conseillerais pas d’utiliser un système analytique pour suivre la qualité de vos relations personnelles. Amis, amants, parents, enfants. Les mesures deviennent des monnaies d’échange qui sont corrosives.

Un exemple frappant – handbrake est une communauté qui collabore au développement d’un logiciel d’archivage de DVDs. Ils ont posé le geste conscient de ne pas accepter de dons (lire ici) afin de protéger l’éthos de leur groupe. D’éviter les dérives qui porteraient les efforts du groupe dans la direction de générer davantage de revenus plutôt que de générer du code plus performant. Cette communauté de développement protège ses intérêts premiers au point de confronter ouvertement certains de leurs utilisateurs dans un langage qui provoquerait des apoplexies chez les responsables CRM d’entreprises de marché.

3. Ce qui explique la professionnalisation de la blogosphère. Et la convergence surprenante du contenu blog avec l’opinion publique. Parce que les blogs sont à la recherche d’attention. Goldhaber écrivait il y a déjà longtemps que l’Internet n’était pas gouverné par les lois de l’économie de l’information (qui est super-abondante) mais par celles de l’économie de l’attention (qui est en quantité limitée).

Bref — si vous visez un plaisir dilettante, ne vous investissez pas trop dans l’analytique. Si vous vise de retombées monétaires (économiques au sens étroit), l’analytique devient un allié important. Bien que pas un substitut au génie, au travail, à la création. Mais oui, un outil important.


NYT: Nocera vise juste

Deuxième article de Nocera en quelques jours où je ne peux m’empêcher de penser qu’il voit très juste (ce qui veut probablement dire qu’il voit juste comme moi 🙂

Le premier parlait des vrais raisons derrière de succès d’Amazon (en 2 mots — l’importance qu’on accorde au client)

Aujourd’hui il parle de l’offre d’acquisition de Yahoo! par Microsoft. Mérite d’être lu.

Et il y a cette remarquable conclusion:

Link: A Giant Bid That Shows How Tired the Giant Is – New York Times.

I think back to the fall of 2005, when Bill Gates visited The New York Times, and an editor asked him if Microsoft “would do to Google what you did to Netscape?”

“Nah,” laughed Mr. Gates, “we’ll do something different.” This ain’t it.

—–

Mais si on en revient au fondement: Microsoft serait devenu "lent, bureaucratique, incapable de réagir". Et l’acquisition ne sera pas la fontaine de jouvence pour microsoft, mais plutôt l’inoculation du virus bureaucratique dans la culture Yahoo!

Peut-on lutter? Doit-on? Est-ce un cycle parfaitement normal tout comme le cycle de vie d’un individu?

Et si le cycle bureaucratique est la transposition du cycle de vie de l’individu, que faut-il penser des individus qui veulent rester créatifs?

Ma réponse pour le moment, est qu’il est possible qu’une organisation (ou un individu) demeure agile. Tout dépend de comment on investit. On investit de manière concentrée pour dominer un secteur. On investit dans plusieurs secteurs pour demeurer flexible.

Je ne suis pas convaincu qu"il soit vraiment vraiment vraiment possible de combiner les deux disciplines dans un monde compétitif. Je prends ma profession, où les diversifiés risquent de devenir dilettantes suspects, où les sectoriels risquent de devenirs fossiles….


Microsoft + Facebook + Yahoo!= Google?

Aussi bien ajouter mon grain de sel…

La nouvelle de la journée est certainement l’offre de Microsoft de se porter acquéreur de Yahoo! L’offre est alléchante pour les détenteurs d’actions de Yahoo! non seulement parce qu’elle représente une prime de 60% sur la valeur du titre (à la veille de l’annonce) mais surtout parce que les perspectives n’étaient pas tout ce qu’il y a de plus génial pour Yahoo!

L’argument avancé est qu’une intégration Microsoft+Yahoo! permettrait de faire contrepoids à Google qui est (très) rapidement devenu la force dominante sur Internet.

En fait je me demande si l’offre ne risque pas, au contraitre, de confirmer la force de Google. Si l’intégration ne risque pas d’accélérer le repli de Yahoo!

Au fil des ans, l’image de Microsoft s’est détériorée. Dans les années ’80, Gates et Jobs étaient un peu l’équivalent de Brin et Page (de Google). Jeunes, hyper brillants, partant à l’assaut de l’informatique corporative à la IBM. C’est Apple, puis surtout Microsoft qui ont contribué à placer un ordinateur sur chaque bureau, et non pas un vulgaire terminal.

Les rôles sont inversés. IBM a vécu des crises importantes avant de se retrouver. En partie en se recyclant dans le logiciel libre. Microsoft est devenu synonyme d’informatique corporative. C’est le IBM d’il y a 20 ans. Et Google est le Microsoft/Apple d’alors. Je ne suis absolument pas certain que l’implication de Microsoft augmente les chances de succès d’une entreprise www. Les problèmes d’image de Facebook ont commencé peu de temps après l’implication de microsoft…

Ce qui pose problème est que dans la "nouvelle économie", il n’y a pas vraiment de place pour deux. Bref, même si j’anticipe que 2008 sera une année intéressante, je serais porté à parier que Google gagnera la guerre.  À court terme c’est une autre histoire — Microsoft a annoncé des résultats qui ont dépassé les attentes, l’inverse de Google. Le momentum a basculé.