Les do’s and don’ts de l’analyse de la social data

Interview

Anna Oualid est directrice du Social Media Research de l’institut d’études OpinionWay. Claire Boudet est directrice conseil au sein de la même entité.

Survey-Magazine : Les données issues des réseaux sociaux sont-elles des données comme les autres ?

Anna Oualid : Définitivement, non. En premier lieu, il ne s’agit pas forcément des données issues des réseaux sociaux mais de celles qui proviennent du web en général, communément appelées les social data. Le premier élément à avoir en tête, c’est qu’il s’agit d’un ensemble de données très hétérogène et ce, pour de nombreuses raisons. La plus évidente est qu’un tweet n’équivaut pas à un message de forum, qui n’équivaut pas non plus à un post Facebook sur une page de marque. Vous ne dites pas la même chose en 140 caractères qu’en 2 pages, au même titre que vous ne dites pas la même chose quand vous parlez d’une marque sur un forum, en vous adressant à d’autres internautes, ou quand vous interpelez une marque via sa page Facebook.

Claire Boudet : De plus, prendre la parole sur le web est déjà une preuve d’engagement : tout le monde ne s’amuse pas à donner son avis sur la dernière offre de son opérateur téléphonique. On dit souvent que le web est binaire, c’est-à-dire qu’on y trouve à la fois des « pros » – qui ont un avis positif, et des « antis », qui ont davantage tendance à émettre une critique. Une affirmation à nuancer bien entendu (sinon je n’en aurais pas fait mon métier) mais qui reste partiellement recevable.
Enfin, le pseudo-anonymat que procure internet délie la parole, ce qui peut donner lieu à des jugements sans appel de la part des internautes ou des avis émis avec moins de nuances que si le répondant était en face de nous. À l’inverse, ce pseudo-anonymat peut s’avérer extrêmement fructueux lorsqu’il s’agit de cibles dites « fragiles » comme par exemple, des individus en situation de surendettement ou des populations marginalisées comme les personnes atteintes de l’hépatite B. Ce sont en effet des profils particulièrement difficiles – voire impossibles – à recruter dans des focus groupes ou des entretiens « classiques ». L’anonymat des forums leur permet donc de s’exprimer librement et d’utiliser leur pseudo et l’écran de leur ordinateur comme de véritables boucliers qui leur garantiraient le secret de leur identité.
Ces exemples et illustrations viennent ainsi renforcer une idée maitresse : c’est la connaissance du medium Internet et de sa sociologie qui permet à l’expert d’utiliser à bon escient la social data. On ne peut pas manipuler la social data « à plat », sans prendre en considération les spécificités des supports utilisés, l’influence de la source, la rapidité de la diffusion ou encore les types de partages…

Y a-t-il des points de vigilance ?

Anna Oualid : La grande différence entre les études dites « classiques » et le social media research est structurelle et repose sur le fait que les études « traditionnelles » se créent ex nihilo tandis que le social media research est tributaire d’une matière préexistante. On ne peut pas travailler sur tous les sujets sur la base du social media research, certaines questions n’appelant pas de réponses satisfaisantes, car les internautes n’évoquent pas spontanément ces aspects du sujet. Il en est de même pour l’évaluation de produits qui n’existent pas encore sur le marché et de leurs perceptions prix, par exemple : trouver le juste prix aux yeux du consommateur est souvent une mission compliquée voire impossible à réaliser pour les analystes online.

Claire Boudet : L’autre élément qui diffère entre les 2 disciplines est la question de la représentativité. Les études se fondent habituellement sur des critères sociodémographiques et la fameuse méthode des quotas. Quand on travaille sur la base de la matière publiée en ligne, ces notions n’ont plus lieu d’être : les internautes ne remplissent pas au préalable de chaque commentaire publié leurs états civils, adresse et CSP. Par conséquent, la question se pose et ne cesse d’être abordée par les commanditaires de ce type d’études : comment fait-on pour trouver des KPI et critères qui se substitueraient au sociodémographique ? Dans le social media research, et du fait des spécificités sociologiques du media web, les analystes troquent le sociodémo contre du socio affinitaire. C’est-à-dire qu’on considère le fait de commenter spontanément un produit / marque / personnalité en ligne – je répète – comme un acte d’engagement en lui-même. Une femme de plus de 60 ans n’ira pas donner son avis sur des skateboards par exemple, à moins qu’elle n’en pratique elle-même ou qu’elle en ait offert un à son fils. Ainsi, on sait avant même d’avoir lu son commentaire qu’elle a tissé un lien (positif ou négatif d’ailleurs) avec la marque ; c’est ce phénomène que j’appelle le socio affinitaire.

Anna Oualid : Il en est de même pour les problématiques liées à la prescription : on suppose qu’un internaute qui commente souhaite alerter ses pairs sur un éventuel problème de qualité d’un smartphone ou à l’inverse recommander tel ou tel avantage d’une marque / produit en particulier. De fait, il est évident qu’on ne peut demander à une étude de social media research d’être représentative ; en revanche, si l’on considère d’autres référentiels possibles, les apports en termes de connaissances clients peuvent être très riches. Il faut également garder en tête que ce n’est pas parce que cette donnée provient du web que le travail effectué pour en tirer du sens est facile. Tout le monde évoque aujourd’hui le Big data, les algorithmes, le machine learning etc, et nombreux sont ceux qui fantasment sur un outil qui ferait tout le travail en appuyant sur un bouton : oui, les données à traiter sont extrêmement nombreuses ; non, les algorithmes et les machines ne sont pas encore aptes à entièrement remplacer l’humain. Les études de social media research demandent donc encore du temps passé et un travail qualifié d’analyste.

Quelles sont vos recommandations pour tirer parti au mieux de ces sources de données ?

Anna Oualid : Il y a différentes manières d’exploiter ces data. Citons, parmi les cas les plus emblématiques de la discipline : les problématiques liées au monitoring et à la visibilité d’une entité (marque / produit / personnalité…), les études de tendances et d’opinions, et l’identification de prescripteurs, communément appelés leaders d’opinion. Chacune de ces propositions répond à des objectifs précis. Le monitoring permet aux marques de comprendre la teneur de leur image en ligne, de tirer parti des conversations pour améliorer son discours, d’identifier les parties prenantes et, en dernier lieu, de produire du contenu pertinent.

Claire Boudet : En ce qui concerne les études de tendances, il s’agit véritablement de puiser dans le pouvoir prescripteur du web et d’identifier des sujets et des tendances qui alimenteront une stratégie, qu’elle soit en ligne ou plus globale. C’est dans ce contexte là que le signal faible prend véritablement tout son sens : étudier la donnée sociale permet de détecter des pratiques ou des attentes de consommateurs que personne n’attend et n’anticipe encore.

Anna Oualid : Et enfin, l’identification des prescripteurs, qui est une pratique habituelle dans le cadre d’opération de communication (RP / eRP), peut avoir bien d’autres utilités, comme celle de créer des panels d’experts pour des études quali. La matière du web est riche et il faut prendre le temps de se poser les bonnes questions pour mettre en place des dispositifs de social media research qui seront les plus utiles possibles.

Quel est votre avis sur les plateformes de social listening ? Avez-vous identifié des plateformes plus sérieuses que d’autres ?

Anna Oualid : Les plateformes de social listening se sont développées et améliorées au fur et à mesure que le métier s’est imposé. Si le marché des plateformes s’est d’abord structuré en Amérique du Nord (Canada et Etats-Unis) au début des années 2000, l’Europe est devenue championne de la discipline : on pourra citer pour les Français Radarly, Synthesio, Visibrain ou encore Brandwatch (UK) et Talkwalker (Luxembourg) pour le reste de l’UE. Bien entendu, le marché américain continue de faire des émules comme peut en témoigner Netbase et son « natural language processing ». À noter que cette liste n’est pas exhaustive. Une saine émulation existe parmi ces différents acteurs et les solutions qu’ils proposent sont devenues très performantes avec de nombreuses possibilités pour analyser les données dans la granularité la plus fine. Ce qu’il faut retenir in fine des plateformes de social listening, c’est qu’elles sont des aides indispensables au travail des analystes online et peuvent réduire considérablement le temps d’analyse. Néanmoins, au vu de ce qu’on a dit sur la particularité de la donnée sociale, l’intelligence humaine reste le filtre ultime pour en tirer une véritable signification et utilité.

AUCUN COMMENTAIRE