“Big data” VS ”Right data”

SI tout est mesurable, faut-il pour autant tout mesurer ?

Parmi les nombreux changements induits par le numérique dans les pratiques marketing, l’un des plus remarquables est sans doute la mise à disposition aux décideurs, en temps réel, d’un volume considérable de données sensées les aider à mesurer les performances de leurs actions. Une bonne chose ? Peut-être pas autant que ne le laissent supposer les articles dithyrambiques sur la valeur du « big data ».Partant du postulat que si tout est mesurable, il faut tout mesurer, le remède peut s’avérer pire que le mal. S’il est indéniable que le « big data » maîtrisé est une formidable opportunité marketing, cinq raisons montrent en quoi la course à toujours plus d’information n’est pas toujours une panacée.

 

Trop d’information nuit à la compréhension de l’information.  

Ce qui a été théorisé par le néologisme d'infobésité s’applique également à la donnée chiffrée. L’accumulation d’indicateurs extrêmement détaillés nuit à la compréhension globale et peut rendre rébarbative l’analyse. Et parfois même la fausser complètement. On peut oser une analogie avec les menus de restaurants asiatiques. En dépit d’un choix pléthorique, ce sont finalement toujours les mêmes plats que l’on commande. Il en va de même des indicateurs. Pourquoi empiler les données alors que la décision s’effectuera la plupart du temps sur quelques chiffres ? Par exemple, aujourd’hui, malgré tous les efforts réalisés sur les dashboards, un rapport analytics restera illisible par un néophyte, qui aura tendance à se focaliser sur un seul indicateur : le trafic (un indicateur utile au demeurant, mais tout à fait réducteur pour analyser la performance d’un site web).

La cohérence des flux d’information et la correspondance des données.  

De plus en plus de sources de données deviennent disponibles : Informations en sortie de caisse, stocks, e-commerce, CRM, trafic et profiling des internautes, campagnes de communication, données boursières, veille concurrentielle, e-réputation, social media... La douce utopie d’un unique tableau de bord qui agrègerait toutes les informations (et créerait des liens entre elles pour anticiper les évolutions) s’efface devant un triste constat : la mise aux normes et la standardisation de la donnée s’avèrent beaucoup plus difficiles à opérer que sa simple récupération. Quiconque a essayé de réconcilier des données de campagne d’acquisition (approche bottom-up) et l’origine des clients dans la base CRM (top-down) en est cruellement conscient. Toutes les données semblent fiables et pourtant... elles ne correspondent jamais complètement. (Et parfois même pas du tout).

La pertinence de la data.  

A trop vouloir mesurer, on oublie parfois la finalité de la mesure. Et l’on crée par conséquent des indicateurs surnuméraires et parfois trompeurs. Un exemple est révélateur dans le domaine du social media. Dans un but louable de mesurer les performances de cette science « humaine », le marché a créé le taux d’engagement, agrégat hétéroclite des interactions des internautes avec la marque sur internet. Outre le fait que cet indicateur reste extrêmement parcellaire (si on caricature, il ne concerne quasi exclusivement que Facebook et Twitter), son utilité est des plus floues : un bon taux d’engagement fait-il vendre plus (et si oui, de combien) ? Diminue t’il les investissements media ? (et si oui, comment calculer l’équivalent en achat d’espace) ? Renforce t’il la notoriété de la marque (et si oui, quel est son impact sur le top of mind ?). Le taux d’engagement (et tous ses dérivés exotiques : RONI, RONE) n’a, en soi, virtuellement aucune utilité et ne peut servir à rien, en l’état, dans une stratégie de moyens. En revanche, il est bien pratique pour justifier l’utilisation de chats ou de licornes dans le brand content.

La fiabilité de la data.  

Ce n’est pas parce que c’est fourni automatiquement que c’est fiable. Nombre de directeurs marketing qui pourraient s’enorgueillir de leur trafic doivent savoir qu’une grande partie est composée... de robots. Et que Google exclut de manière arbitraire de ses analytics un nombre conséquent de visiteurs. Et qu’une partie du trafic est extrapolée, et non mesurée. Idem pour les ad-exchanges, où les chiffres varient considérablement en fonction du paramétrage du post-view. Ou les bases de données CRM où les informations ne sont pas vérifiées régulièrement et qui sont pourtant les pierres angulaires de la segmentation marketing. Ne mentionnons même pas la data fournie par les cookies, sur laquelle repose une bonne partie des techniques de retargeting et de ciblage comportemental, et dont l’exactitude n’est jamais mise en question ou mesurée (ne serait-ce que parce qu’un cookie donne l’historique d’une machine et non d’une personne).

Le référentiel.  

Enfin, parlons d’un élément essentiel : l’ordre de grandeur. Les acteurs du marché internet sont parfois juge et partie : ce sont eux qui fournissent les indicateurs pour mesurer les performances de leurs propres actions : agences media, social media, web-agencies. Il est parfois tentant de présenter un résultat médiocre comme un succès, faute de benchmark ou d’indices de références. Par exemple, une vidéo vue moins de 100 000 fois sur internet n’a virtuellement aucun impact sur le top of mind. Qu’elle soit « virale » ou pas. Une page Facebook à 100 000 fans n’est PAS un succès si l’entreprise a des millions de clients (ce qui soulève également la question de l’utilité du nombre de fans sur Facebook, mais c’est un autre débat). 50 000 visiteurs uniques par mois, c’est le trafic d’un gros blog. Pour une marque grand public qui chercherait à distribuer son contenu, c’est trop peu. Mais pour une entreprise B2B, c’est remarquable. Une bannière qui s’affiche 1 million de fois, cela peut sembler énorme. Mais avec un taux de clic de 0,15% et un taux de transformation du clic en vente à 1%, elle ne génère que 15 ventes. A 10 euros de moyenne le CPM, calculez le coût d’acquisition client. Vous avez deux heures. Sans référentiel, pas de performance. Et s’il est possible d’obtenir relativement aisément toutes les données dont on est propriétaire, récupérer l’information sur un marché ou un concurrent s’avère nettement plus ardu.

Le bon indicateur.

L’approche qui consiste à accumuler trop de données est souvent vouée à l’échec. Faute d’une expertise suffisante, le risque d’avoir de mauvaises informations, mal contextualisées, mal comprises, augmente exponentiellement avec la multiplication des indicateurs. Le résultat sera immanquablement l’inverse de l’intention originelle : des décisions hasardeuses, fondées sur des données au mieux empiriques (et souvent post rationalisées ensuite par de nouveaux indicateurs).

Un coup de poker, finalement, qui aura coûté cher.

Parce qu’on l’oublie souvent : la donnée n’est pas gratuite. Bien au contraire. Sa définition, son agrégation et son analyse sont très onéreuses. C’est aujourd’hui un poids non négligeable lorsqu’on parle d’achat d’espace (en particulier pour le real time bidding). Et parfois outrancièrement facturé par les prestataires qui en profitent pour reconstituer leurs marges (cf. l’adserving ou le tracking, où le coût facturé est parfois totalement dé-corrélé du coût de revient). Plus on a d’informations, plus la facture grimpe.

Big data ? Fat money. Le vrai enjeu de la donnée ne semble plus vraiment être le « big » data (au sens volumétrie), mais le « right » data : L’indicateur qui permettra de prendre des décisions opérationnelles et qui sera fiable, simple à comprendre, adapté à sa cible (Un executive et un opérationnel n’auront évidemment pas les mêmes besoins et pas les mêmes périmètres).

Trouver le « right » data semble simple. C’est une erreur. Il est beaucoup plus complexe de trouver le bon indicateur que d’empiler toutes les données disponibles. De calculer sa fréquence, la période à laquelle il se rapporte (temps réel ? quotidien ? hebdo ?). De le corréler à d’autres indicateurs. De savoir, finalement, à quoi il sert.

Ironiquement pour un marché aussi friand d’indicateurs, il n’y a pas aujourd’hui de KPI pour déterminer les bons...KPI. Quelques pistes, un peu à contre courant de la boulimie actuelle de tableaux excel, nous paraissent intéressantes à explorer.

1. Eliminer l’hyper-choix : commencer par éliminer toute la data inutile semble être un pré-requis. La perfection dans ce domaine, ce n’est pas quand il ne reste plus rien à ajouter, c’est au contraire quand il ne reste plus rien à enlever.

2. Rester simple : peu de CEOs auront la compétence ou l’envie de rentrer dans le détail du taux de rebond ou de l’e-cpm moyen. La performance d’un site web (si on sait à quoi il sert, bien sûr) peut s’exprimer en quelques chiffres. Et parfois, sur-simplifier peut permettre de rétablir entre les équipes marketing/com et les autres divisions (ventes, SAV, RH) un dialogue rompu par trop d’expertise.

3. Construire ses propres agrégats : un bon indice vaut mieux que les cinquante indicateurs qui le composent. Il permet d’expliquer les variations, de se comparer à la concurrence, de comprendre ses performances en une seule information. Et il est propriété de l’entreprise et peut, à terme, faire partie de sa culture.

4. Ne jamais perdre de vue la finalité : une très grande majorité de nos actions a finalement un seul but : vendre. Tous les indicateurs devraient être connecté à cet objectif, d’une manière ou d’une autre. De même, si l’on part du principe que l’un des leviers majeurs pour faire vendre est la visibilité, le coût au contact ne devrait-il pas être une donnée commune à toutes les actions engagées ?

5. Éviter le temps réel : tous les indicateurs ne sont pas des cours de bourse. A trop faire varier, on perd la mesure et la capacité à décider. Comme ces revues de presse quotidiennes qu’on ne lit plus, le bon indicateur ne doit pas être une « commodity » consultative mais une mesure attendue pour prendre des décisions.

6. Estimer l’utilité : chaque indicateur doit avoir une finalité opérationnelle. C’est bien de savoir que le trafic d’un site a augmenté de 10%. C’est mieux de savoir quoi faire de cette information.

7. Le fond et la forme : souvent, la data, c’est moche. Il n’y a pourtant aucune raison particulière de ne pas soigner la forme autant que le fond, au contraire. Une donnée bien présentée a plus d’impact qu’un tableau excel rébarbatif. Regardez les keynotes de Steve Jobs pour vous en convaincre.

8. Centraliser les informations : rien de pire que d’avoir des dizaines de dashboards dans tous les sens. Aujourd’hui, la technologie permet facilement d’exporter automatiquement les données. La revue de presse peut côtoyer l’indice boursier, l’évolution des ventes et un indice concurrentiel de présence sur internet, par exemple.

9. Ne pas changer le périmètre : un indicateur est fait pour durer dans le temps. Même s’il est imparfait. Même si d’autres indicateurs plus à la mode apparaissent. Résister à la tentation de tout changer tout le temps, c’est garantir à l’indicateur une pérennité qui permettra de comparer, à terme, de longues périodes d’activité.

Less is more ?

Le but de cette réflexion n’est évidemment pas de remettre en cause l’importance fondamentale de la donnée dans la décision marketing. Il s’agit surtout ici de pondérer les moyens consacrés à l’exploitation de la data. Investir plus de temps et d’énergie dans la qualification des indicateurs et leur visualisation peut être plus sensé que de mettre à disposition toutes les sources de données disponibles. C’est ce qu’a bien compris la dernière génération de start-up spécialisées dans ce domaine. Les plus gros succès, à l’instar d’un « Tableau Software », sont celles qui ont misé sur la visualisation et la simplicité de paramétrage. La technologie est maintenant mature. Reste à répondre à une question : qui aidera les entreprises à définir les meilleurs indicateurs ?

 

Tristan Beauchesne
Senior Partner / WNP Consulting

0
0
0