La frénésie de la transformation digitale et son impact sur les études

data-études-marketing-soft-concept

En l’espace de 5 ans, la transformation numérique ou digitale est devenue LE sujet. Il suffit de taper « transformation digitale » sur Google pour obtenir… près de 32 millions résultats ! Tous les cabinets de conseil ont dans leur arsenal une stratégie digitale à promouvoir pour faire face à une « innovation disruptive » qui modifie le comportement des individus, la relation au travail, les modes de consommation, la vie dans la cité, les relations personnelles et sociales…
Du côté des instituts de recherche, les obsessions ont pour nom : machine learning, DMP, intelligence artificielle. La reconnaissance de textes, de visages, de sentiments exprimés, l’analyse de signaux issus notamment d’objets connectés, permettraient désormais de comprendre, analyser, anticiper en temps réel le comportement de chaque humain notamment quand il devient un internaute.

Le déploiement des Big data donne accès à des puissances de traitements considérables permettant d’appliquer les algorithmes de Machine Learning sur des centaines de milliers de points, des milliards d’enregistrements et des volumes de plusieurs péta-octets. Elles ouvrent sur de nouveaux modes de compréhension du comportement du consommateur ou consomm’acteur et d’actions : conseiller le bon produit, anticiper des changements dans les comportements, s’adresser au client de façon complètement personnalisée, surveiller en temps réel des indicateurs de bon ou mauvais fonctionnement, fluidifier et optimiser l’expérience client en identifiant des axes d’amélioration des parcours ou process.

Aujourd’hui, une entreprise sur deux s’intéresse de près aux innovations technologiques permettant la compréhension du comportement du consommateur via ces données massives. L’utilisation de dispositifs multiples, des terminaux mobiles aux appareils électroniques en passant par les objets connectés et leurs capteurs, constitue la première grande tendance citée par la majorité des instituts d’études (Gartner notamment). Les entreprises disposeraient ainsi des moyens de savoir, comprendre, anticiper ce qui se passe dans la tête de leurs clients. Le Machine Learning permettant, qui plus est, de traiter instantanément des données chaudes (récoltées en temps réel) mixées avec des données froides (référentiels) et de fournir ainsi des analyses fines et instantanées, voire prédictives, fondées sur des algorithmes complexes.

Voilà pour le discours et les promesses. Lorsque l’on y regarde de plus près, ces « solutions scientifiques » n’ont souvent de scientifique que le recours permanent à un vocabulaire volontairement abscons et se résument dans la grande majorité des cas à une optimisation de la politique marketing de l’entreprise. Une fois passé le stade du vocabulaire – Social listening, RCU (référentiel client unique), DMP (Data Management Platform), CRM onboarding, CRM en B2C, stratégie Inbound, CRM & «social selling» en B2B – difficile d’aller plus loin que le suivi et l’analyse du parcours client dans le cadre d’une stratégie marketing. Une logique marketing aussi ancienne que la place du marché.

La publicité digitale fait partie des outils de choix de ce marketing numérique. Les « intentions » clients détectées à partir des mots clefs de recherche (Search Engine Marketing) ou à partir de sites et pages visités permettent d’affiner le choix des affichages et améliorent très sensiblement les performances.

Ces techniques présentent une utilité réelle pour certains secteurs comme la distribution, le transport aérien, les opérateurs de téléphonie mais aussi les assurances et les banques. L’impact principal du Big data en matière d’études repose en réalité sur un changement de posture, l’entreprise devenant observatrice plutôt qu’enquêtrice. Il s’agit désormais d’analyser les données existantes plutôt que d’aller en chercher de nouvelles. Ce qui ne peut qu’interpeller dans un monde en pleine mutation schumpéterienne.

Dans un monde où l’usage du web est central, il est difficile pour ne pas dire impossible de passer outre ces technologies. Elles présentent une utilité incontestable en termes de stratégies de vente mais certainement pas pour la compréhension des tendances de l’opinion et sur l’évolution de cette dernière. Elles sont nécessaires mais pas suffisantes. Elles présentent leurs limites et surtout recèlent des dangers qu’il faut bien mesurer.

La métamorphose de nos sociétés repose sur le digital mais pour partie seulement. La problématique de la gestion des données n’est pas récente, mais l’émergence de nouveaux acteurs qui viennent modifier en profondeur les modes de vie et de consommation interroge. Les NATU (Über, AirBnB, Netflix, Tesla) pour ne citer qu’eux n’existaient pas il y a encore 10 ans et ont bouleversé en quelques années le marché du transport, de l’hôtellerie, du divertissement etc… Mais généraliser ces modèles serait une erreur. Et l’obsession qui consiste à vouloir tout savoir en permanence de ses clients, de ses salariés, de l’ensemble de ses stake-holders conduit à une impasse.

La réalité des individus et des sociétés humaines dépasse cet aspect purement mécanique. L’homme n’est pas aussi prévisible.

En 2017 la fracture numérique existe encore

On l’évoque en France depuis la loi de 2009 portant le même nom. Elle n’a pas disparu et elle est planétaire. Une cartographie des laissés pour compte de l’internet a été publiée en Septembre 2016 dans la revue « Science » (revue scientifique généraliste américaine), elle confirme que la pauvreté et/ou l’éloignement limitent l’accès en ligne, et démontre aussi (ce qui est nouveau) que le fait d’appartenir à un groupe politiquement marginalisé (minorités ethniques et religieuses) se traduit en général par un moindre accès.

Car ce sont les gouvernements qui organisent et construisent l’infrastructure qui relie les citoyens à l’Internet et les minorités ne sont pas toujours leurs priorités… Cette inégalité d’accès à l’internet mondial est parfaitement illustrée par l’utilisation des différentes langues sur la toile. Bien que le mandarin soit, et de loin, la première langue utilisée dans le monde, seulement 8,4 % des internautes ont le mandarin pour langue maternelle. De même, l’anglais et l’espagnol sont deux langues maternelles aussi courantes l’une que l’autre. Pourtant, 45 % des internautes parlent anglais et seulement 5,4 % espagnol. La « comparaison des langues » montre aussi qu’étudier le comportement des citoyens et des consommateurs en s’appuyant principalement voire exclusivement sur de la donnée numérique reste très insuffisant.

Le facteur économique est loin d’être le seul facteur de ces inégalités. Certains gouvernements restreignent l’accès pour contrôler leurs citoyens. C’est le cas de la Chine, de l’Iran ou de la Corée du Nord où l’accès à internet est soumis à autorisation spéciale. Même les États-Unis peuvent faire preuve de velléités coercitives à l’encontre de la liberté d’expression comme en témoigne l’affaire Wikileaks.

La fracture numérique est d’autant plus problématique qu’elle accroit les inégalités sociales et scolaires (par exemple un élève de terminale doit avoir accès à un ordinateur pour s’inscrire au baccalauréat). L’accès à la culture, au tourisme, à la santé, à l’emploi et aux administrations françaises passe de plus en plus par des services en ligne. Le fossé ne se comble pas et ne pas en tenir compte, revient à occulter un pan de la réalité sociale.

À la date d’aujourd’hui, près de la moitié de la population mondiale est connectée, soit précisément 42% (3,04 milliards de personnes). La France est loin d’échapper à ce phénomène. Ainsi, 19,3 % soit 5,4 millions des foyers français ne possédaient pas d’accès à Internet en 2015. Pas moins de 14 % des Français ne se sont jamais connectés et 37 % d’entre eux déclarent encore avoir du mal à se débrouiller sur Internet ». Les plus touchés sont sans surprise les aînés. L’étude du CREDOC (« la diffusion des technologies de l’information et de la communication dans la société française », novembre 2013) montre que les non-internautes sont beaucoup plus âgés que la moyenne : 20 % ont entre 60 et 69 ans et 58 % sont âgés de 70 ans ou plus. En tout, 2 non-internautes sur 3 sont retraités.

La seconde cause de la fracture numérique en France est l’inégalité géographique d’accès aux réseaux. Un grand nombre de zones rurales et de haute montagne ne sont pas dé-servies par les réseaux et sont appelées zones blanches. Ainsi, en zones rurales seuls 18 % des foyers sont connectés.

Pour Marc Bertrand et David Belliard dans Alternatives économiques (« La nouvelle fracture économique », février 2014), « l’économie numérique a un effet multiplicateur des inégalités, car ce sont les plus éduqués et les plus informés qui en tirent le mieux profit. » Valérie Peugeot, vice-présidente du Conseil national du numérique, exprime le même avis : « Les non-connectés, devenus minoritaires, sont également ceux qui sont par ailleurs victimes de marginalisation sociale, culturelle et économique. ».

Aux causes d’exclusion bien connues que sont le chômage, le faible niveau d’instruction, l’isolement, les mauvaises conditions de vie… vient s’ajouter maintenant la difficulté d’accéder au numérique, non plus parce que ce n’est pas techniquement possible, mais parce que l’on est déjà en grande difficulté financière et/ou dans l’incapacité d’en appréhender et maîtriser les usages pour des raisons culturelles, d’éducation, ou par le simple fait de manquer de confiance en soi et « de se sentir dépassé ».

Effectuer un acte sur Internet comme une télé déclaration, un règlement, la réservation d’un billet de train ou d’une simple place de cinéma peut devenir un parcours du combattant.

Outre ce phénomène contre lequel il faut lutter car il génère marginalisation, désespoir et radicalisation, vient s’ajouter une nouvelle tendance de fond, née de la crainte de Big Brother et de la conscience de la puissance intrusive des GAFA et des BATX (Baidu, Alibaba, Tencent, Xiaomi). C’est le refus parmi les plus jeunes d’abandonner leur intimité et leur destin à un monde qu’ils jugent consumériste et prédateur : le rejet digital.

L’émergence des déconnectés volontaires

Selon une étude de Havas Media (« La France des déconnectés », 2012) 62,9% des Français auraient le sentiment d’utiliser les technologies numériques « beaucoup ou trop », et 65,2% ont déclaré avoir envie de se déconnecter, 59,7% le faisant déjà par intermittence. Ces déconnectés volontaires ne sont pas des victimes économiques. Ils rejettent les réseaux sociaux, résistent à l’infobésité, refusent d’être joignables en toutes circonstances, ou encore de perdre du temps avec la multiplication, jusqu’à saturation, de stimulis aussi nombreux qu’inutiles.

Il semblerait ainsi que la génération Z, notamment les Millenials, diffère largement de la génération Y, nommée génération « Petite Poucette » par Michel Serres.

Cette génération pourtant décrite comme hyperconnectée se montre suspicieuse, désireuse de rester maîtresse de sa vie intime, là où leurs aînés étalent encore leurs photos de vacances ou de mets (pornfood) sur les réseaux sociaux. Elle admet l’omniprésence du numérique et pense, à 61%, que, demain, ce dernier impactera fortement son travail, à 50% ses transports et 48% ses modes de consommation. Toutefois, elle est à 58% opposée à l’usage de la géolocalisation pour se voir proposer des offres commerciales. Ce chiffre grimpe à 78% lorsqu’il s’agit d’utiliser le contenu des conversations mails pour se voir proposer des offres en rapport avec leurs centres d’intérêts.

Une partie de cette génération est en quête d’un sens collectif, de repères et a conscience des enjeux climatiques et de liberté. Ainsi, si l’on estime communément que l’un et l’autre vont exploser dans les années à venir, ni le télétravail ni l’e-consommation ne remportent leurs suffrages: seuls 11% estiment qu’ils travailleront principalement à distance, et seuls 22% souhaitent faire leurs achats par Internet dans un avenir proche. Enfin, une écrasante majorité (77%) considère que le numérique est trop présent dans le quotidien des personnes de leur génération.

Cette génération présente même une appétence pour un mode de vie plus frugal : plus de lecture, plus de méditation, plus de silence, plus de temps long. Si la « grande » ville conserve la préférence de 39% des étudiants comme lieu de vie futur, elle est talonnée par les villes moyennes et petites qui sont privilégiées par 36% d’entre eux.

Une étude réalisée par la Chaire Immobilier et Développement Durable de l’Essec est très cohérente avec les travaux conduits par Havas Media. Elle montre qu’en dépit d’une utilisation intensive du numérique au quotidien, les jeunes considèrent qu’il occupe une trop grande place dans leur vie. «Les étudiants sont lucides sur le fait que le numérique occupe une place essentielle dans leur vie et dans leur ville, place vouée à s’accroître inéluctablement», mais «ils refusent également d’être piégés, par leurs outils numériques à des fins commerciales ». Les jeunes acceptent le numérique dans leur vie, de toute façon ils n’ont pas le choix, mais refusent de le subir !

Un autre phénomène, récemment mis en exergue par Tijman Shep, critique hollandais des nouvelles technologies et « privacy designer », se fait également jour : le social cooling. C’est-à-dire une plus grande prudence vis-à-vis des «traces» numériques qu’ils laissent en ligne. Selon lui, « les gens commencent à comprendre que leur « réputation numérique » est à même de limiter leurs opportunités professionnelles et à intégrer l’impact potentiellement néfaste que peut avoir leur empreinte numérique sur leur vie personnelle et professionnelle. Les données brutes extraites des comportements numériques des internautes étant analysées et transformées par les « data-brokers » (courtier de données), qui monnaient ces « données dérivées ».

Les « données dérivées » sont construites à partir des « likes », des historiques de navigation et d’achat ou encore des commentaires. Elles vont permettre aux sociétés de calculer et déduire qu’un tel ou une telle aime le bricolage, les romans d’aventure, attend ou veut un enfant, a des problèmes psychologiques, suit un régime, est extravertie, gentille, sympa, plutôt de droite, juive, catho, etc.

Des renseignements personnels utiles pour cibler les internautes / consommateurs. L’espace d’intervention de l’intelligence artificielle et du machine learning. Cette prise de conscience les amènerait ainsi à modifier leur comportement sur internet. Tijman Shep décrit des impacts négatifs à terme :

  • une culture du conformisme (avec l’autocensure) ;
  • une culture d’évitement du risque ;
  • une rigidité sociale accrue (qui limite notre capacité et volonté à lutter contre l’injustice).

C’est surtout, une forme de double personnalité qui se propage : d’une part celle qui cherche à avoir une bonne réputation sur le net mais qui n’est pas réelle, d’autre part celle qui est réelle derrière son écran mais qui se cache.
De quoi augmenter les interrogations sur la pertinence sociologique de l’usage intensif des big data, smart data et autres « numérismes ».

Les révélations sur la NSA d’Edward Snowden, en 2013, marquent le début de cette prise de conscience de la surveillance de masse. Plusieurs chercheurs ont étudié les effets d’intimidation qui en ont découlé, évoquant le « chilling effect »: lorsqu’un individu hésite ou refuse d’exercer sa liberté d’expression par peur des sanctions légales possibles. Ainsi, la chercheuse américaine Elizabeth Stoycheff a, entre autres, enregistré une diminution des requêtes Google portant sur des mots-clés dits sensibles dans les mois qui ont suivi les révélations de 2013.

Se sentant scruté, l’internaute modifierait son attitude sur Internet et les réseaux sociaux. Conceptualisée par Tijman Shep, cette théorie a été repérée sur Reddit par Xavier De La Porte, ce dernier déclarant dans sa chronique du 23 juin dernier sur France Culture. Le phénomène fonctionne en trois temps : « la récolte des données par des “data-brockers”, la prise de conscience par l’internaute que ses données peuvent se retourner contre lui, enfin, l’autocensure. »

Et l’homme dans tout ça ?

Le terme « intelligence artificielle » a été créé par John McCarthy et défini par l’un de ses concepteurs comme « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies par des êtres humains car elles demandent des processus mentaux de haut niveau tels que l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ».

De nos jours, une machine peut certes réviser, faire évoluer des objectifs qu’on lui a attribués. Une machine peut même être programmée pour pouvoir réécrire, restructurer sa connaissance initiale à partir d’informations reçues. Néanmoins, la machine d’aujourd’hui n’a pas conscience d’elle-même et en particulier de ses limites. C’est toute la question que pose Elon Musk : quel avenir pour l’humanité si cette dernière se soumet aux algorithmes au lieu de mettre ces derniers à son service ? Cette question qui pose tout simplement celle de l’avenir de l’humanité au 21ème siècle dépasse largement le cadre du sujet.

Elle rejoint pourtant les interrogations que l’on doit avoir face à la boulimie dont les instituts font preuve en matière d’utilisation des data dans leurs méthodologies et qui les conduit à privilégier les données au détriment parfois du réel.

Comme l’a déclaré Georges Plassat, PDG de Carrefour, lors du Salon Viva Technology, en juin dernier : « La clé est de nous adapter au gros volume de données qui va nous arriver. Il faut être sûr que ce ne soit pas une source de perte de temps et d’intelligence. Nous évoluons vers une manière plus prédictive de servir le consommateur mais honnêtement si nos clients ont besoin, dans le futur, d’un indicateur sur leur réfrigérateur indiquant qu’ils ont besoin de lait, il faut que l’on s’inquiète. »

Si la quantification est aussi utile qu’inéluctable, sans approche de terrain, sans enquête sociologique, sans analyse humaine approfondie, elle demeure vide de sens et source de nombre d’erreurs. Le « oui » des britanniques lors du référendum sur le Brexit, l’élection de Donald Trump aux États Unis, les désignations de François Fillon et Benoît Hamon lors des primaires pour l’élection présidentielle en France, présentent un point commun : aucun institut d’étude ou presque ne les avait prévus.

Internet présente une vision indispensable mais fausse de la réalité. Il faut en avoir conscience. Il n’en donne qu’une vision parcellaire et de plus manipulée dans leur propre intérêt par les GAFA du monde où nous vivons. Les données recueillies et traitées ne traitent que du monde connecté et ignorent celui qui ne l’est pas. Elles retracent en outre des comportements, mais ne donnent pas de clés sur le fonctionnement du cerveau humain. Et c’est heureux !

Mais négliger un pan entier de l’humanité qui, volontairement ou non, n’est ni numérisée ni connectée est plus que périlleux. De fait, cette majorité planétaire négligée nous surprend chaque jour un peu plus par sa radicalisation idéologique. Or, cette dernière ne cesse de croître.

Et si nous laissions plus d’espace et de temps aux sociologues ?

PARTAGER
Article précédentLa Data au service de la Human Centricity
Prochain articleLa protection des données à caractère personnel
Nathalie Brion est présidente fondatrice de l'institut d'études Tendances. Nathalie Brion est l'auteur de nombreux ouvrages et a enseigné le marketing et la stratégie à l'Ecole Polytechnique. Elle est diplômée de Sciences Po.

AUCUN COMMENTAIRE