Data Marketing 2019

L’exploitation opérationnelle des nouvelles sources de données

Devant toutes les sources internes et externes qui enferment des volumes importants de données structurées pour une petite part et textuelles et non structurées pour la plus grande part, la question est de savoir comment extraire les éléments intéressants et les exploiter de manière opérationnelle.

OPTION 1 :
SE METTRE EN VEILLE

Comme dans beaucoup d’autres domaines de l’analyse de données, la tentation est grande de vouloir obtenir un résultat sans chercher à maîtriser ou du moins comprendre les mécanismes qui ont permis de l’obtenir. L’homme ou femme de marketing est généralement pressé(e) et supporte mal l’incertitude et le doute. Il (elle) exige de l’automatique, du simple, du pratique.

C’est sans doute pour cela qu’on a vu fleurir des plateformes de veille et d’analyse des médias sociaux qui se proposent de scanner tous les médias en ligne pour en extraire l’information exhaustive utile au suivi des tendances et des opinions sur les marques. Les résultats s’expriment en tableaux de bord fort agréables et très faciles d’accès qui indiquent l’évolution de citation d’un produit ou d’une marque, assortie d’indicateurs de tonalité (positif/négatif) des commentaires. On peut citer notamment les français Synthesio, Linkfluence et Digimind, le britannique Brandwatch ou le luxembourgeois Talkwalker…

Ces offres sont très séduisantes pour des annonceurs en quête de solutions simples et rapides, qui collent à l’air du temps. L’écoute des médias sociaux est présentée aujourd’hui comme une nécessité incontournable et ces plateformes apportent un moyen facile et rapide d’être dans le coup. Si toutes les principales solutions du marché présentent un certain intérêt, il est important de les aborder tout de même avec de la circonspection et un certain regard critique. Si vous souscrivez rapidement un abonnement sur l’une de ces plateformes en tant que client lambda, vous aurez beaucoup de mal à disposer d’autre chose que du standard. Mais si vous vous adressez à différents fournisseurs en les challengeant sur les prestations offertes, vous risquez d’en obtenir plus, sur ce marché très concurrentiel où chacun cherche à faire sa place et à élargir sa base de comptes clients. Demandez des détails sur les capacités d’indexation et les modes d’obtention et de présentation des résultats. Assurez-vous que les sources qui vous intéressent sont bien couvertes sur les territoires qui vous concernent. Vérifiez que vous disposez de possibilités de paramétrage et de personnalisation pour optimiser les fonctions d’écoute, de filtrage correct des résultats et de levée d’ambiguïtés (ex : « Mars » correspond à la fois à la marque, au mois, à la planète, au champ du même nom…). Testez les résultats de tonalité sur un échantillon de commentaires liés à votre métier.

Il faut garder à l’esprit que ces outils fournissent des résultats forcément résumés et simplificateurs. Les tableaux de bord donnent des indicateurs qui semblent décrire parfaitement la réalité. Ils convient pourtant de les prendre avec recul. Par exemple, le score de tonalité des commentaires qui est fourni sur certaines consolidations de résultats ne doit pas être pris à la lettre. Le fait d’avoir 65% de citations positives ne veut rien dire en soi car, lorsqu’on analyse dans le détail le score associé à chaque commentaire, on se rend compte du côté très approximatif de la mesure, même si chaque fournisseur prétend obtenir des résultats meilleurs que ceux de ses concurrents. Lorsqu’un fournisseur prétend fournir les résultats de tonalité avec 75% de justesse, il faut garder en tête qu’il se trompe dans 25% des cas et qu’on n’est pas très loin d’une évaluation donnée au hasard qui fournirait 50% de bons résultats. Les valeurs obtenues pour les résultats consolidés sont donc forcément erronées même si elles donnent une indication générale d’évolution d’une période sur l’autre.

OPTION 2 :
ÊTRE PRO-ACTIF

Le terme « Veille » qui est associé aux outils de suivi des médias sociaux et du web sous-tend une notion d’attente. On dirait qu’il s’agit de monter la garde en attendant un événement qui pourrait survenir et auquel il faut réagir.

Et c’est bien cela que l’on fait lorsqu’on se contente de recevoir un feedback sur l’utilisation de nos noms de marques sur les réseaux sociaux. C’est tout le contraire de la démarche active des études marketing, qui se fixent un objectif, définissent les moyens d’y arriver et explorent en profondeur tous les aspects d’une problématique.

Or le gisement de données pouvant intéresser l’entreprise va aujourd’hui bien au-delà des seules conversations sociales évoquant la marque. Les systèmes de veille correspondent davantage à un dispositif de gestion des réclamations et des insatisfactions qu’à un véritable outil d’aide à la décision marketing. Pourtant, il est plutôt facile aujourd’hui, à travers une démarche active de collecte et d’analyse de données, de répondre vite, bien et en profondeur à des questions marketing que seules des études et analyses complexes et coûteuses pouvaient traiter auparavant.

Entendons-nous. Il ne s’agit pas de transformer l’équipe marketing en groupe de recherche qui se concentre pendant des mois sur une problématique particulière transformée en projet sans fin. Les laboratoires universitaires s’en chargent bien et le rythme qu’impose le marché aux gens de marketing ne le permet pas.

Il s’agit en revanche de mettre en place une démarche structurée à visée opérationnelle et qui permet de déboucher rapidement sur des résultats justifiés et vérifiables, obtenus selon un protocole raisonné et maîtrisé. Comprendre ou pas ce que l’on fait et ce sur quoi on base nos décisions, là est tout l’enjeu. Cette approche raisonnée correspond à l’adaptation de la démarche rigoureuse des études à l’univers des nouvelles données.

  1. Objectifs et organisation

Pour bien prendre le problème, il est indispensable de commencer par fixer des objectifs clairs et précis. Par exemple, écouter le web social, n’est pas un objectif mais une démarche. Les velléités omniscientes de tout savoir et de tout maîtriser ne le sont pas davantage. La question à se poser doit être précise, quitte à s’en poser plusieurs et mettre en place plusieurs démarches distinctes de résolution.

Il convient donc de s’interroger sur ce que l’on vise exactement : Mieux connaître ses clients ? Mieux comprendre leurs comportements et leurs usages ? Repérer des insatisfactions et des réclamations ? Evaluer son image de marque ? Mesurer l’impact de ses actions de communication ? Suivre ses concurrents ? Remonter des données pour mieux gérer une crise ? Repérer des tendances et des évolutions du marché ?

On voit bien que toutes ces problématiques sont celles, classiques, des études marketing. Mais la manière d’y répondre est désormais différente.

Comme dans une démarche d’étude classique (cf. nos dossiers sur www.surveymag.eu), il est indispensable de s’assurer du caractère opérationnel des objectifs retenus. Autrement dit, il faut savoir si vous serez en mesure, en fonction des données collectées, d’agir et d’améliorer vos produits ou services, de répondre aux besoins des clients, de régler les insatisfactions et répondre aux réclamations… Le fait de SAVOIR, c’est bien. Mais il faut s’assurer que vous pourrez FAIRE. L’organisation à mettre en place pour votre dispositif d’écoute doit être pensée en fonction de cet impératif. Ainsi, il ne sert à rien de sortir des tableaux de bord qu’aucun opérationnel ne va vraiment utiliser ou de lister des problèmes que personne ne va s’atteler à résoudre. Les personnes en charge de l’écoute doivent être en mesure de relayer l’information et de s’assurer de son exploitation. Or souvent, le travail d’écoute est confié à un(e) assistant(e) ou à un(e) jeune stagiaire qui « comprend bien les réseaux sociaux ». On se contente ensuite de regarder les tableaux de bord a posteriori juste quand il faut des données pour animer ou illustrer une réunion.

Un système d’écoute doit être associé à un système de traitement des insatisfactions, des réclamations. Il faut également savoir utiliser les résultats pour agir sur les influenceurs et les relais d’opinions ainsi détectés.

  1. Identification des sources

Le choix parmi les nombreuses sources web disponibles se fait en fonction de vos objectifs. Pour effectuer votre choix, un moteur de recherche est certainement votre meilleur assistant. La première étape consiste à lancer des requêtes pour repérer tous les sites où votre produit ou marque sont cités et de déterminer ceux auxquels il est utile de s’intéresser.

Le moteur Google offre en outre une fonction précieuse et méconnue qui permet de bâtir gratuitement un véritable système de veille. Il s’agit de Google Alerts, qui vous permet de programmer la réception une fois par jour, une fois par semaine ou dès que le cas se présente, d’un mail de notification listant tout ce qui a été émis sur le ou les mots clés de votre choix sur le web, dans les actualités, les blogs, les vidéos, les livres, les discussions ou les sites boursiers.

En programmant des alertes quotidiennes pendant un laps de temps suffisant (2 semaines minimum), vous pourrez recenser les principales sources auxquelles vous devrez vous intéresser tout particulièrement.

  1. Mise en place du dispositif

A ce stade, vous savez ce dont vous avez besoin et connaissez les sources auxquelles vous devez vous intéresser. L’étape suivante consiste à mettre en place un suivi et/ou une capture des données qui vous intéressent.

Concernant le suivi, il existe sur le marché différents outils gratuits de monitoring des différents réseaux sociaux. Mais leur inconvénient est d’être le plus souvent spécialisés dans un réseau donné. Vous en trouverez des exemples dans l’article « L ’utilisation de Twitter pour les études marketing », publié dans ce numéro.

Pour la capture, vous pouvez avoir recours à des logiciels d’aspiration de sites web, que vous lancerez sur un ou plusieurs sites donnés. Leur inconvénient est de récupérer des pages de manière peu structurée, à moins de paramétrages complexes et de retraitements systématiques.

Le mieux serait de recourir plutôt à des outils plus spécialisés dans la récupération de données en vue de leur traitement statistique. Plusieurs logiciels de visualisation de données et de fabrication de tableaux de bord permettent, en amont, la capture de données en provenance du web. Depuis peu, le logiciel d’enquêtes Ethnos propose dans sa version EthnosData, de capturer de nombreuses sources et de structurer leur contenu en vue de l’analyser. Cet outil permet de capturer facilement des forums, blogs, pages web, fichiers Open Data mais également des données en provenance du système d’information de l’entreprise : fichiers de bases de données, données Excel, boîtes de messagerie, informations consolidées dans les CRM et ERP…

La possibilité d’automatiser la capture est primordiale. En effet, l’analyse des réseaux sociaux et des sources Big Data se conçoit dans le temps et pas comme une opération ponctuelle. Il faut donc mettre en place un processus qui puisse être permanent, ou, du moins, reproductible à fréquence régulière.

  1. Exploitation des données

Une fois vos données récupérées, votre objectif est, bien sûr, de les exploiter pour faire ressortir des éléments marquants. Le traitement des données quantitatives est réalisable avec vos outils d’enquêtes et d’analyse de données classiques, à condition d’avoir structuré convenablement les fichiers récupérés.

En revanche, pour analyser vos données textuelles, vous avez besoin d’outils adaptés, capables d’en résumer et représenter le contenu. Ces données textuelles sont généralement accompagnées d’informations complémentaires. C’est le cas, par exemple, d’un tweet, qui a un émetteur, une date et une heure d’émission, l’indication de la plate-forme source, le pseudo de l’auteur (@) et son nombre de followers. Le logiciel EthnosData, évoqué plus haut, permet de récupérer ces données et de les croiser entre elles et avec les verbatims des tweets. Le logiciel combine d’ailleurs les analyses statistiques des données quantitatives aux analyses sémantiques et détection de tonalité, et cela, sur plusieurs sources de données simultanément. Il vous permet ainsi de représenter sur un rapport unique le résumé des résultats obtenus sur la base des différentes sources de données utilisées.

Concernant l’analyse textuelle, notons qu’il existe un logiciel très sophistiqué, Tropes, qui était jadis vendu plus de 3.000 € et qui est aujourd’hui disponible en téléchargement gratuit. Bien que son interface date un peu et que son ergonomie laisse à désirer, cet outil est capable de vous apporter un éclairage très intéressant sur vos données textuelles.

  1. Visualisation des données

Pour permettre une véritable exploitation des données, il convient de s’intéresser à la forme des résultats, à leur mode d’accès et à leur caractère personnalisé. C’est sans doute ces exigences qui expliquent le développement des outils de DataViz destinés à simplifier des éléments complexes et à faciliter l’accès à l’information dans des formats agréables et adaptés. C’est d’autant plus nécessaire qu’on a affaire ici à des données de sources variées, dont beaucoup d’éléments textuels qu’il convient de synthétiser dans des formes adaptées (tag-clouds, many eyes…). Ici, les outils d’infographie trouvent également toute leur utilité pour partager efficacement les résultats.