Data Marketing 2019

Les nouvelles technologies du Market Research

img

Intelligence artificielle, Big data, automatisation des tâches, blockchain, neurosciences, eye-tracking, réalité virtuelle, social listening, implicite, digitalisation, émotions, DIY… De façon non exhaustive, voici autant d'innovations à base scientifique, technique ou technologique qui viennent gonfler le nombre d'outils qu'annonceurs et instituts peuvent « dégainer ». Alors comment se retrouver dans cette jungle de solutions parfois futuristes ? Sans oublier les éventuelles contraintes du RGPD ?

Au sein du secteur des études, nous vivons une nouvelle donne grâce aux sciences, aux techniques avancées et à la technologie. Parmi les plus flagrantes contributions, nous pouvons noter

- Le behavioral economics et les neurosciences car nous sommes maintenant conscients de l'impact de l'environnement sur la perception et le comportement humain ;
- La réalité virtuelle permettant de simuler le bon environnement et de connecter les consommateurs au moment de vérité le plus juste ;
- La digitalisation car nous disposons désor mais de nombreux moyens d'interviewer les consommateurs : à chaud à froid, seul ensemble, simultanément ou non, implicitement ou explicitement… ;
- Les techniques avancées telles que le Big Data et l'IA, qui ont un impact sur l'automatisation des tâches et la prédictibilité ou « probabilisation » des comportements, ce qui est toutefois différent de la compréhension pure.

Et ces évolutions doivent, dorénavant, être « RGPD » compatibles. Face à ces nouvelles technologies, nous souhaitons connecter nos clients à des acteurs et technologies qui nous semblent prometteurs. Et ce rôle d'initiateur, de filtre et de testeur va sans doute être de plus en plus important dans les années à venir pour le métier des études. L'expérience nous fait également prendre conscience chaque jour de l'enjeu que représente la qualité de l'information, et du sens que l'on souhaite donner à la data. Une bonne étude, c'est avant tout une bonne collecte de l'information et une bonne qualité de la data. Et pourtant, nous savons tous que 76% des innovations sont déréférencées après une année de lancement. Tous les acteurs études, y compris Strategir, doivent optimiser la prédictibilité des études. Alors comment ces nouveaux outils peuvent-ils nous aider à améliorer la qualité de nos études ?

Si nous sommes historiquement ancrés dans la donnée explicite (aussi appelé « déclaratif conso »), qui a certes bien des limites mais est aussi porteuse d'un sens à ne pas sous-estimer, nous intégrons de plus en plus de données implicites (observation, eye-tracking, captation vidéo, temps passé) pour obtenir une vision plus holistique et donc complète du consommateur.

L'objectif est de faire évoluer le modèle en intégrant de nouvelles expertises ou en nous appuyant sur des partenaires notamment en matière d'Intelligence Artificielle et machine learning (pour la création d'un panel virtuel par exemple ainsi que la micro-modélisation en test de potentiel) et dans l'analyse des discours consommateurs. Nous travaillons également avec des universitaires (Agros Campus de Rennes) ou des start-ups pour investiguer de nouvelles façons de révéler la vérité consommateurs.

Nous travaillons aussi sur l'automatisation des tâches liées à notre production. Ce besoin répond à un enjeu qui est celui du temps. Celui-ci est devenu une donnée clé, sans doute au centre de toutes les « douleurs » actuelles : notre cerveau a besoin de temps et devient débordé par la capacité des machines et des outils. Actuellement nous observons un véritable sprint sur l'ensemble du processus : étude en 24h, si ce n'est parfois livraison des résultats en 2h (recueil intégré). Nous sommes tous clients, instituts, start-up technos et autres dans une surenchère impactant ce processus qui s'emballe. Alors comment nos clients ne pourraient-ils pas s'enivrer de la magie de l'automatisation qui semble tellement simple et rapide ? Pourtant que de confusion, voire de déception lorsque l'on met le doigt dans la machine : si le concept est prometteur, le résultat n'est pas toujours à la hauteur des attentes. Pourquoi ? Parce que les instituts ne prennent pas suffisamment le temps de s'asseoir avec leurs clients pour comprendre leurs attentes et anticiper leurs besoins. Parce que nous ne sommes plus assez vigilants pour poser les bonnes questions et n'osons pas tirer la sonnette d'alarme, de peur de perdre du temps. Forcément, l'automatisation est un moyen technique réel mais qui demande une rigueur scrupuleuse de la part de tous les protagonistes : clients, instituts, partenaires. Elle aboutit à des standards permettant une vélocité et réactivité réelle mais sans flexibilité car tout besoin spécifique est à proscrire. Et toute demande « spéciale » vient perturber ce modèle. Nous aurons toujours besoin de temps pour nous investir avec nos clients sur leurs problématiques. Ce temps est d'autant plus crucial aujourd'hui que nous devons nous assurer que les solutions choisies parmi cette myriade d'outils, méthodes et technologies rempliront au mieux le contrat. Donc, les différents acteurs de la chaîne doivent être gardiens de l’équilibre entre le haut potentiel d’automatisation du traitement et de l’analyse de la data et le temps qu’il convient de se donner pour que nos réflexions conjuguées traitent sérieusement les enjeux de nos clients.

Les études de demain se profilent donc ostensiblement vers deux offres possibles : d' un côté, la voie de l'ultra automatisation, rapide et pas chère et de l'autre celle du sur-mesure adapté et plus sophistiqué. On peut s'inscrire sur les deux pans comme Strategir. Alors, bien que cela ne soit pas la vertu du 21ème siècle, anticipons, posons-nous avant de foncer et prenons intelligemment le temps d'être efficace.

Contenu du dossier