Dernier numéro de Survey Magazine

Place à la facilité d’usage !

Place à la facilité d’usage !

Interview

Edouard Beaucourt est Directeur régional France et Europe du Sud de Tableau Software

Survey-Magazine : Quelle est l’utilité des outils de dashboarding et BI pour le marketing ?

Edouard Beaucourt : Le marché de la data a profondément évolué. Les informations et les données marketing sont de plus en plus stockées dans des machines qui souffrent de cet effet « boîte noire » et demeurent finalement assez illisibles par l’humain. Or le nombre de données ne cessent de croître : qu’il soit question d’achat en ligne ou en magasin, d’échanges sur les réseaux sociaux ou de l’envoi d’un simple e-mail. Les professionnels, dont ceux du marketing, ressentent plus que jamais le besoin d’accéder de façon autonome à toutes les données qui les concernent ou qui pourraient être utiles. Les outils Tableau permettent justement de se connecter facilement à toutes les bases de données et systèmes applicatifs afin d’explorer et manipuler l’information stockée avec des fonctions aussi simples que le glisser-déposer. Les technologies de dashboarding et d’analyse visuelle permettent littéralement d’aider les gens à voir et comprendre les données.

En quoi se différencie Tableau ?

Edouard Beaucourt : Nous nous différencions par une technologie brevetée développée en interne. La technologie s’appelle VizQL™ et permet d’automatiser les requêtes sur les bases de données. Concrètement, un outil d’analyse habituel oblige à traiter les données en lignes et en colonnes, à sélectionner les sous-ensembles, à structurer les données dans une table pour enfin créer un graphe. VizQL supprime ces étapes et créé directement une représentation visuelle des données. C’est une technologie qui casse le modèle classique de langage de requêtes. L’outil me permet moi-même dans mon quotidien de questionner directement les ventes, le nombre de leads et le taux de transformation de mes prospects. Une des principales spécificités de l’outil est l’intégration d’un système de recommandation. Il s’agit d’un module intitulé « show me » qui affiche la représentation la plus logique et adéquate en fonction de la nature des données ciblées. Au-delà, Tableau est parvenu à rassembler au fil des années une large communauté d’utilisateurs qui échangent sur la prise en main des outils et discutent des bonnes pratiques. Certains profils marketing partagent par exemple des nouvelles idées de segmentations à partir de croisement de données réalisés à partir de l’outil. L’effet viral est incroyable. Nous comptons comme utilisateur des profils métier technique (responsable décisionnel data ou chef de projet informatique) mais aussi des profils émergents comme le data scientist pour qui la donnée est le cœur de métier. Nos outils équipent tous types de collaborateurs, des développeurs à la direction générale. Plus loin, certains clients équipent tous leurs employés, comme c’est le cas de Travel Planet qui possède 160 000 comptes Tableau Server.

Selon vous, comment les outils de BI s’inscrivent-ils par rapport aux technologies comme le Big Data ?

Edouard Beaucourt : Le Big Data impose plusieurs challenges sur le marché de l’analytique. Le premier auquel Tableau répond est la possibilité de connecter facilement l’utilisateur à toutes les nouvelles données – qui se confondent dans la terminologie Big Data. En la matière, le marché souffrait d’une offre restreinte. Peu voire pas d’outils permettaient à l’utilisateur métier d’interroger et tirer parti des bases de données pour une meilleure prise de décision. L’offre a depuis évolué, et le Big Data a fait émerger de nouveaux défis. L’un des premiers défis repose sur les capacités à collecter et à préparer les données avant l’exploitation analytique. Historiquement, Tableau se positionne en front-end en facilitant la lecture et la compréhension des données. Mais nous cherchons aujourd’hui à dépasser ce cadre. Nous voulons permettre à l’utilisateur d’accéder à toutes les sources de données dont il a besoin, et en même temps. Nous avons amélioré l’outil pour qu’il soit en mesure de réaliser des extractions à partir de Facebook, par exemple, sur des données publiées en temps réel, mais aussi à se connecter à une grande variété de bases de données des fournisseurs sur le marché. Le Big Data impose des défis en termes de volume, variété et vélocité qui sont finalement les 3 adjectifs utilisés pour le décrire. Tableau ambitionne d’aborder le volume et la variété mais aussi la vélocité avec la possibilité de récupérer des streaming de données en temps réel. Notre outil propose 2 protocoles de collecte de données : un premier d’extraction qui inclut un rafraîchissement de données à fréquence définie (par exemple, toutes les nuits), et un deuxième protocole dit « en direct » qui collecte les données qui se renouvèlent quasi en temps réel. L’approche s’apparente très fortement aux places de marché, sauf qu’aujourd’hui les concernés ne sont plus uniquement les traders, mais les professionnels du marketing et des études qui analysent les réseaux sociaux pour leurs activités.

Comment Tableau Software intègre l’ensemble de la chaîne de valeur de la donnée (collecte, analyse et présentation) ?

Edouard Beaucourt : Notre premier savoir-faire demeure la manipulation de la donnée. Mais les phases en amont de collecte et de préparation sont fondamentales. L’outil Tableau propose désormais des ponts de connexion à des fichiers Excel par exemple, pour pouvoir récupérer et nettoyer les données avec des modules spécifiques. Une boite à outils est disponible à cet effet. La collecte de données peut parfois nécessiter des efforts plus conséquents. C’est la raison pour laquelle Tableau s’accompagne d’un réseau de partenaires tels qu’Informatica, Alteryx ou encore Talend et Dataiku en France. Ces spécialistes de l’intégration de données nous aident dans les procédés complexes intégrant du machine learning. En ce qui concerne la collecte, nous travaillons actuellement sur un vaste projet nommé Maestro dont l’objectif est d’accompagner l’utilisateur dans les étapes de préparation et collecte de data. Pour illustration, SalesForce est aujourd’hui mon premier environnement applicatif. Je peux y consulter les ventes par région, par produit, par catégorie, etc. De temps en temps, j’éprouve la nécessité de confronter ces données avec de l’information venant d’autres sources. L’information peut venir d’un fichier de préparation de territoire par exemple disponible sur Excel et qui une fois croisée avec les données de SalesForce, pourra m’informer de la répartition clients / prospects sur le marché français. Lorsque l’on y réfléchit, ces deux sources de données sont communes, et sont faites pour être croisées. Je ne fais que les réconcilier. L’idée du projet Maestro est de créer des lots de préparation qui permettraient de cibler et croiser les données entre elles avec des clés de correspondances. Des procédés industrialisés seront bien entendu nécessaires selon la nature et le type de données ciblées, mais l’utilisateur marketing pourra, lui, être autonome dans l’utilisation de ces données.

Quelles sont les évolutions à venir à court terme ?

Edouard Beaucourt : Tableau a récemment fait l’acquisition d’un projet allemand nommé HyPer. Il s’agit d’un moteur qui permet de requêter des bases de données beaucoup plus importantes que précédemment. L’autre évolution réside dans les capacités de l’outil à placer l’analyse statistique prévisionnelle à la portée de l’utilisateur métier. L’application pour le marketing serait de réaliser des projections à partir de plusieurs jeux de données (analyse prédictive, forecasts…). Tableau se penche aussi sur la mise à disposition de tous les outils dans le Cloud pour que l’offre soit disponible sous forme de service (on parle de mode « saas » pour « system as a service »). L’évolution devient d’autant plus urgente lorsque l’on constate la quantité de données désormais hébergée dans le Cloud. Le virage s’est opéré en très peu de temps. Les outils doivent suivre. Il y a quelques années, c’est plus de 95% des données qui étaient hébergées dans des bases de données sur des serveurs. Aujourd’hui, les données sont stockées dans Google Analytics, Microsoft Azur, Amazon Web Services…

Quel est l’apport de la BI et l’analytique pour les études et le marketing par rapport aux outils d’enquêtes ?

Edouard Beaucourt : Si l’on devait citer un métier « disrupté », il s’agirait probablement du marketing. Le métier connaît de profonds changements dans ses pratiques. Par exemple, la tendance pour les études il y a quelques années était à l’outsourcing. Le client payait un institut pour analyser et restituer ses données d’enquêtes. Aujourd’hui l’approche semble dépassée au regard du nombre d’outils analytiques à disposition du responsable d’études marketing. Le marketeur peut à partir réaliser une partie des études lui-même. Au-delà, je pense facilement qu’il s’agit aussi d’une question de génération. Les grands acteurs du retail, qui avant étaient très demandeurs d’études, comptent désormais dans leur équipe des hommes et femmes qui ont grandi avec les mobiles. Ils sont habitués à se poser des questions et à aller chercher l’information par eux-mêmes. Ils réussissent à mieux connaître leurs marchés en se connectant et croisant des données publiques et privées pour sortir des analyses 360° opérationnelles comme base de prise de décision. Fût une époque où je bûchais bon nombre de rapports pour me faire un point de vue sur un sujet précis. Aujourd’hui, je consulte Google pour trouver le ou les fichiers Open Data qui m’aideront. Je réalise quelques croisements de donnés, et j’obtiens les réponses à mes questions.