Data Marketing 2019

La recherche marketing face au déluge de données

Recherche marketing face au déluge des données

Qu’on l’appelle Big Data ou autrement, le déluge de données que chacun d’entre nous participe à alimenter à chaque instant, est en train de révolutionner notre rapport à la réalité. Un changement systémique est en train de naître de la mise à disposition de volumes gigantesques de données de toutes sortes, délivrées en flux continu et à grande vitesse. Cette avalanche remet en question les postulats et les pratiques dans beaucoup de domaines de l’activité humaine, y compris ceux que l’on considérait, il y a peu, comme immuables. Ainsi, même la démarche scientifique est affectée par la mise à disposition de jeux de données exhaustifs et semble tentée par la substitution d’une démarche inductive à l’approche déductive traditionnelle. Mais c’est dans le domaine de la recherche marketing et des études que le phénomène prend une dimension particulière, chargée de risques et de promesses.


Market Research & Big Data : La nouvelle donne


Il y a peu d’années encore, la difficulté à collecter des données et les coûts associés aux opérations sur le terrain nous obligeaient à considérer des petits sous-ensembles de la réalité.

Nous rassemblions des échantillons avec moult précautions pour être en mesure, ensuite, d’extrapoler nos conclusions à la population générale considérée. Nous étions, malgré tout, contraints de prendre quelques libertés avec la théorie statistique de tirage aléatoire, inapplicable en l’état, en utilisant notamment la méthode des quotas et en mesurant des marges d’erreurs qui finissaient systématiquement par être négligées à un moment ou à un autre par les destinataires finaux de l’information. Aux arrangements théoriques s’ajoutaient fréquemment et quoi qu’en disent les praticiens généralement sûrs de leurs certitudes, des erreurs humaines liées à l’administration des enquêtes, à leur codage et/ou saisie et au processus d’analyse de données. Beaucoup de décisions économiques se basaient donc sur des approximations et souffraient de biais, avec lesquels on finissait par s’accommoder, faute de mieux.

Les seules remises en question des méthodes d’échantillonnage et de sondage survenaient dans les périodes post-électorales, où la divergence entre les résultats issus de la réalité et les estimations prédictives des sondeurs s’affichaient avec une cruelle clarté. Mais le doute intermittent restait circonscrit à la sphère politique et imprégné de ses turpitudes. On n’avait ni l’idée ni l’envie de l’étendre aux études marketing, pourtant basées sur le même socle théorique et les mêmes usages pratiques.

Aujourd’hui, le Big Data rebat les cartes et offre de nouvelles perspectives à la recherche marketing.

Beaucoup de secteurs d’activité ont désormais accès à une information quasi-exhaustive et peuvent appréhender, dans son ensemble, la réalité du consommateur et de ses comportements. C’est le cas, à différents degrés, dans les métiers du web bien sûr mais aussi des médias, des télécoms, de la finance, de l’assurance, de l’énergie, de la grande distribution, de la vente à distance… Dans ces secteurs, le suivi permanent de l’activité et des arbitrages des consommateurs permet de tester des hypothèses en temps réel et d’ajuster des propositions optimisées de manière quasi instantanée.

Bien entendu, s’il est aisé pour un site marchand de baisser un prix ou de changer une disposition d’écran puis d’en mesurer les effets comparés, ce type d’ajustement automatique en temps réel est loin de concerner tous les métiers. Le plus souvent, les données exhaustives désormais disponibles, permettront de prendre des décisions a posteriori, comme dans la recherche marketing traditionnelle, mais en les basant sur un socle plus solide qu’un simple échantillon. On pourra, par exemple, mieux segmenter les clients ou mieux évaluer la validité de certaines offres croisées. L’analyse pourra être affinée au fil des données recueillies mais il faudra bien qu’on définisse au départ les informations à considérer, les données externes au processus à prendre tout de même en compte, les analyses à mettre en œuvre et les hypothèses à valider.

La promesse du tout automatique, capable de générer des décisions optimales sans rien connaître au domaine considéré a actuellement le vent en poupe. Mais certains échecs récents (Google Flu Trends par exemple) peuvent tempérer les ardeurs des tenants du processus empirique et déshumanisé. Les instituts d’études, rompus à l’exploration intelligente des données, ont une chance importante à saisir s’ils arrivent à dompter le nouveau flux de données et à maîtriser les nouvelles exigences techniques du nouveau métier qui s’offre à eux. Mais le veulent-ils vraiment ? S’en sentent-ils capables ?