Transformation digitale, data sciences : la nouvelle donne des instituts d’études

Transformation digitale, data sciences : la nouvelle donne des instituts d’études

L’institut d’études « augmenté »

Stéphane Truchi, Président du directoire du groupe Ifop

Avec la révolution du Big Data, le secteur des Etudes est amené à intégrer de nouvelles données, multiformes, passives, massives, rapides, non structurées, contrairement aux données habituellement recueillies. Ces datas enrichissent les études et ne vont pas les remplacer. Elles vont les compléter en révélant la partie immergée de l’iceberg, celle que le consommateur émet dans d’autres contextes et vont nous permettre d’approfondir sa connaissance. Réside alors un enjeu : faire cohabiter des métiers dont les logiques sont différentes et qui sont encore en phase d’expérimentation pour certains. Pour y répondre, nous avons fait évoluer au sein de l’IFOP notre organisation, nos ressources humaines, nos méthodes de travail et nos outils. Nous avons été amenés à intégrer des nouveaux profils (data scientist, web designer…) ainsi qu’à développer des partenariats avec des start-up. Les témoignages suivants sont des exemples concrets de ce que nous mettons en place quotidiennement afin que cette révolution soit porteuse de sens, de valeur ajoutée, de business pour toutes les parties prenantes.

Rendre le Big Data actionnable par la Data Science

Les sources de données disponibles n’ont jamais été aussi nombreuses.
Je suis en charge de rendre ces données hybrides et massives facilement et rapidement accessibles aux parties prenantes de l’entreprise. Je travaille de manière transversale sur toute la chaîne de valeur de la donnée en interaction avec les équipes étude. Mes missions couvrent 4 étapes clefs. La 1ère consiste à identifier les sources pertinentes pour répondre à la problématique client. C’est une sorte de mise à plat des données, qu’elles soient internes à l’entreprise, produites par l’Ifop ou issues de l’Open Data. Il est essentiel de travailler conjointement avec les experts étude et le client car de la nature et la richesse des données à disposition dépend tout ce qui suit. La 2ème étape correspond à une phase de préparation de données avec l’harmonisation des sources pour rendre les fichiers exploitables. J’ai par exemple récemment dû pour une étude, uniformiser des fichiers issus d’un réseau de magasins qui n’étaient pas identiques selon les zones puis retravailler une partie de la base client qui comportait des doublons, des valeurs manquantes et des données obsolètes. J’utilise principalement le logiciel R. La 3ème étape correspond à la modélisation et l’analyse de données, où je cherche à articuler toutes les sources ensemble (enquête de satisfaction, données magasins, plan média…) afin de détecter des leviers opérationnels d’amélioration de la performance. Un expert métier est nécessaire pour interpréter les signaux détectés. Enfin, la 4ème étape est la visualisation des résultats dans une phase de restitution. Il arrive souvent qu’il y ait plusieurs parties prenantes qui n’ont pas les mêmes besoins, ou que le client souhaite explorer lui-même ses données. Dans ce cas je développe des visualisations interactives ad-hoc. C’est la maîtrise de ces 4 étapes qui permet de transformer des données multiformes en connaissance client actionnable.

Par Lucas Gutierrez, data scientist de l’Ifop

Se reconnecter à la vraie vie des consommateurs par la photo

La photo et la vidéo sont devenues un mode de langage universel et transgénérationnel. Elles contiennent une multitude de signes que les mots ne permettent pas de révéler, à tel point que cette donnée devient une information sociologique et prospective. Dès lors qu’elle est recueillie massivement, elle bouleverse la connaissance du consommateur dans son interaction avec sa consommation et ses modes de vie. InCapsule by Ifop a conçu une démarche exploratoire « Picture Prospective » primée en 2016 aux Trophées Etudes et Innovation et détournant à des fins prospectives la démarche développée par la Start Up Clic and Walk. Picture Prospective s’appuie sur la captation de données visuelles (photos ou vidéo) et de data personnelles, recueillies en masse auprès de la communauté des « ClicWalkers ». Ces données sont classées et analysées sémiologiquement et les conclusions challengées auprès d’une communauté d’experts. L’intérêt est multiple : tirer parti de la force de mobilisation d’une communauté d’individus (ces « Clics Walkers » habitués aux missions de collecte de photos), reconnecter les entreprises à la réalité des consommateurs et de leurs usages « sans fard », rétablir la réalité qui se cache derrière les représentations et les images que nous renvoient les médias ou même le déclaratif (les photos personnelles sont captées dans l’instant, sans filtre, par les personnes qui n’ont aucun enjeu de valorisation de soi contrairement à Instagram…), et d’identifier des modes de vie émergents pour « donner corps » aux signaux faibles qui sont des sources d’inspiration pour l’innovation.

Par Martine Ghnassia, co-fondatrice InCapsule by Ifop

Donner une nouvelle vie à vos bases de données

Lors d’une expérience d’utilisation de datas propriétaires, nous avons cherché à comprendre et analyser l’érosion importante du taux d’occupation des centres de vacances du comité d’entreprise pour une grande société. Le projet a nécessité un état des lieux sur les comportements de 2 cibles-clés : les familles adhérentes (leurs comportements d’inscription, d’anticipation, d’annulation, les centres de vacances fréquentés, les activités préférées) et les abandonnistes. Nous avons décidé d’utiliser la seule base de données opérationnelle disponible : à savoir, celle des inscriptions d’enfants qui comptabilisait plus de 100 000 inscriptions sur 6 ans. Nous avons tiré de nombreux enseignements comme le constat que la date de 1ère inscription de l’enfant était bien plus tardive que celle observée à la concurrence, illustrant ainsi une faiblesse de la stratégie de recrutement. Notre équipe a élaboré une typologie des comportements réels à partir de ces informations collectées sur 20 000 familles. Au-delà de la richesse de l’information obtenue – pour peu qu’on sache en tirer parti -, la fiabilité est assurée. Le délai d’anticipation (nombre de jours compris entre la date d’inscription effective et la date prévisionnelle du séjour) et le taux de ré-achat par famille par exemple s’avèrent plus exacts que si nous avions posé directement la question aux familles. Des constats très précis mis en regard avec un état de situation sectorielle et un benchmark concurrentiel ont permis de mettre en lumière les forces et faiblesses de l’association pour élaborer un plan stratégique(en plus des habituels états de situation sectorielle et benchmark concurrentiel). En complément, la qualification de l’ensemble des familles selon la typologie retenue a permis de suspendre l’adressage du catalogue aux familles abandonnistes soit une économie substantielle/ ou une économie importante.

Par Véronique Gabriel des Bordes, directrice du pôle « Expérience client & Grandes Enquêtes » de l’Ifop

Intégrer les données dans un cadre légal

L’enjeu pour un institut d’études est d’intégrer l’ensemble et la variété de ces données dans un cadre juridique qui soit conforme aux législations actuelles et à venir [GDPR- General Data Protection Regulation], sans être trop contraignant afin que cela ne représente pas un frein à l’innovation. Rappelons que les données collectées et traitées par le Big data peuvent être classées en 2 catégories : des données privées (données à caractère personnel récoltées ou non en ligne ou des données relevant du patrimoine informationnel de l’entreprise) et des données publiques (Open data). Il n’en reste pas moins qu’il est souvent difficile avec le Big Data de définir ce qu’est une donnée personnelle : il advient de se tourner vers la notion d’usage de la donnée (l’usage porte-t-il sur des données personnelles ou pas ?). Lorsque c’est le cas, la pleine application des principes fondamentaux de la protection des données est requise. L’Ifop privilégie de plus en plus le principe du « Privacy by design » pour les études utilisant le Big Data. C’est-à-dire, intégrer en amont du projet les outils de protection des données, au lieu de les ajouter ultérieurement sous forme de compléments : prise de mesures proactives et non réactives, intégration de la protection de la vie privée dans la conception des systèmes et des pratiques (systèmes d’anonymisation des données transmises), sécurité de mise pendant toute la période de conservation des renseignements (outils de gestion internes des données permettant leur destruction « programmée ») et assurance d’une visibilité et transparence (prévention sur l’objet et l’utilisation des données). Ce concept doit surtout s’inscrire dans une démarche collective, concevoir le projet avec l’ensemble des parties prenantes : la direction de l’entreprise, l’informatique, le juridique, le data scientist et tous les opérationnels impactés. L’analyse des risques de l’utilisation de données personnelles se fait au cas par cas et ce, de façon conjointe. Cela nous amène parfois à devoir infléchir le design de l’étude. Le Big Data oblige à réfléchir à la transformation de l’organisation des entreprises avec un enjeu juridique capital.

Par Sandrine François, legal manager de l’Ifop

Apporter l’expertise études au Web Listening

L’écoute du web délivre en temps réel une matière riche et facilement accessible essentiellement utilisée par les marques pour monitorer le buzz ou la e-réputation. Au-delà, lorsqu’il s’agit de rechercher des insights, de nourrir l’innovation, d’orienter des initiatives, le web listening fait face à un enjeu de transformation des données collectées en matière actionnable. Le challenge est de passer du « nice to know » au « so what ?», de l’observation à l’action. A l’IFOP, notre approche s’articule autour de 5 partis pris :
le web listening ne peut pas être laissé dans les mains de techniciens du web. La prise en charge par des experts sectoriels apportant leur connaissance du marché, des enjeux et dynamiques, permet de dégager des insights actionnables.
le web listening perd de sa pertinence quand il cherche à représenter le point de vue d’ensembles de populations très larges comme « les Français » ou « les jeunes ». Il peine à être représentatif et sa force réside au contraire dans la capacité à explorer des populations plus typées, à restituer ce qui se dit au sein de communautés rassemblées autour de situations ou d’affinités communes (les acheteuses de produits de luxe, par exemple). Ecouter le web, c’est explorer les communautés.
le web listening ne doit pas se contenter d’explorer les contenus textuels. La photographie et la vidéo sont devenues des langages du quotidien – expressifs, immersifs, concrets – qu’il est fondamental d’intégrer pour comprendre ce qu’expriment les gens. Nous avons été précurseurs de l’analyse de contenus photo et vidéo massifs avec l’approche Picture Prospective.
le web listening ne sert pas qu’à capter l’instant. Il doit au contraire être exploité dans sa capacité à révéler des évolutions dans le temps, à injecter une dimension dynamique et prospective aux recherches qualitatives « traditionnelles ».
le web listening prend sa valeur dans la confrontation à d’autres données qu’il vient compléter, illustrer, éclairer. Il se réalise dans l’hybridation, dans le métissage, dans le croisement avec les études quantitatives et qualitatives, la mesure passive, les démarches prospectives. C’est tout sauf un « truc de geeks ». Ce n’est que marginalement un enjeu de plateforme de crawling, de capacités techniques. C’est avant tout une question de regard, d’ambition, de capacité à mettre en relation (des méthodologies, des sources, des contenus, des formats complémentaires) et d’expertise marketing.

Par Christophe Jourdain, directeur général de l’Ifop