Le Big Data sonne-t-il le glas des études marketing ?

Chris Anderson, rédacteur en chef de Wired a publié en 2008 un article fondateur sur le concept du Big Data dans lequel il annonçait l’avènement d’une nouvelle manière de penser, avec les termes suivants : « Nous venons d’un monde de marqueteurs où il y a le bon et le mauvais, une seule hypothèse que nous testons ou un bon modèle que nous voulons mesurer. Le Big Data n’a rien à voir avec ça. Nous devons penser comme Google ». Et Anderson d’expliquer que Google n’a jamais cherché à comprendre le contenu des sites à indexer ni à savoir pourquoi une page était meilleure qu’une autre. Ses algorithmes se sont seulement concentrés sur l’analyse statistique des liens entrants et d’autres paramètres purement mathématiques. Anderson en concluait que la taxinomie, l’ontologie et la psychologie ne servaient plus à rien et qu’il ne fallait plus désormais chercher à comprendre pourquoi les gens font ce qu’ils font mais juste constater qu’ils le font en suivant et en mesurant leurs comportements. « Avec suffisamment de données, les chiffres parlent d’eux-mêmes. »

C’est là le champ d’application du Big Data, qui semble signer en même temps le glas du Market Research tel qu’on le connaît. En effet, à l’ère de l’information instantanée sur le comportement du consommateur, que valent encore les études et recherches qui tentent de détecter et modéliser des vérités dans un univers où l’objet de nos investigations est de plus en plus versatile et infidèle ? A quoi sert désormais de poser des questions, de faire des estimations et des extrapolations si on est capable d’observer directement les comportements et les réactions qui nous intéressent ?
Pour savoir comment le Big Data se positionne par rapport aux Etudes Marketing et voir les menaces ou les opportunités qu’il pourrait susciter, il convient de définir ce concept, de décrire ses modes de mise en oeuvre et d’expliquer les apports concrets que l’on pourrait en attendre.

Qu’est-ce que le Big Data ?

Le Big Data n’est pas une technologie en soi. C’est plutôt un phénomène récent, résultant des masses de données brutes que génère notre société à travers ses réseaux, ses inter-connexions et ses échanges, toujours plus volumineuses, plus rapides et plus variées.
Chaque jour, on produit dans le monde environ 2,5 milliards de milliards d’octets d’information numérique. Selon Stephen Gold, directeur Marketing de IBM Watson solutions (qui dirigeait auparavant le marketing de SPSS), 90% de l’ensemble des données disponibles aujourd’hui dans le monde ont été produites au cours des deux dernières années.
Avant notre ère numérique la production et la conservation de données nouvelles était généralement intentionnelle, structurée, directement porteuse de sens et localisée de manière précise. Elle était le fait d’une minorité d’individus, d’entreprises ou d’organisations. L’avènement du web, l’interconnexion des bases de données et le cloud-computing ont tout changé. Aujourd’hui, chaque individu produit un volume important de données de manière volontaire ou à son insu. Ainsi, les blogs, forums, messageries, tweets, réseaux sociaux, sites de partage et autres plateformes collaboratives permettent à tout un chacun de s’exprimer facilement et de produire une masse d’informations hétérogènes sur tout et n’importe quoi. Ces données sont stockées sur des serveurs éparpillés dans le monde et dont la localisation importe peu. Parallèlement, nos comportements et actions sur le web génèrent automatiquement une masse importante de données personnelles. Nos historiques de recherche ou de navigation, les produits que nous consultons ou les articles que nous achetons sur le web laissent des traces. Nous générons également des données à travers nos appareils de plus en plus connectés (mobiles, tablettes, téléviseurs, voitures et même électroménager.) et des puces électroniques que nous utilisons tous les jours (carte bancaire, de transport, d’accès, d’abonnement, de fidélité.). Tous ces « capteurs » peuvent renseigner en permanence sur notre position, nos comportements, nos habitudes…
C’est ce flot de données ou plus exactement son exploitation qui est à la base du concept de Big Data, considéré aujourd’hui comme une opportunité unique pour les entreprises mais aussi pour tous types d’organisations administratives, scientifiques, culturelles…

Certains n’hésitent pas à comparer le Big Data au pétrole ou à une mine d’or. Ils doivent certainement penser à la fois aux richesses qu’il recèle et aux efforts nécessaires pour y accéder. En effet, l’une des problématiques pour une entreprise ou une organisation réside aujourd’hui dans sa capacité à organiser la capture de données nombreuses et non structurées puis leur stockage. Mais l’enjeu majeur est avant tout d’être capable d’analyser ces données et d’en tirer du sens pour améliorer in fine ses performances, son organisation ou ses connaissances.

Les 3 V du Big Data

Pour bien délimiter le Big Data, le concept a été caractérisé par « Les 3 V » : Volume, Vitesse et Variété.

Volume

Lorsqu’on parle de volume pour le Big Data, on évoque souvent les 7 téraoctets (7.000 milliards d’octets) générés quotidiennement par Twitter ou les 10 téraoctets de contenus échangés tous les jours sur Facebook. On cite également YouTube qui prend en charge chaque minute l’équivalent de 48 heures de vidéos. De même Google, Amazon et les autres grands acteurs de l’économie numérique sont par nature des gestionnaires de flux de données et manipulent donc des volumes impressionnants. Ces entreprises stockent ces données sur des milliers de serveurs alignés dans de nombreux Data-Centers sur des dizaines de milliers de mètres carrés. Pour avoir une idée de ces infrastructures, vous pouvez faire une visite virtuelle des sites de Google à l’adresse suivante : http://www.google.com/about/datacenters/.
Ce volume de données est en augmentation ultra-rapide depuis les début du Web. Eric Schmidt, Président exécutif de Google affirmait déjà en 2010 qu’il se créait tous les 2 jours autant de données qu’entre le début de l’humanité et l’année 2003. Ce rythme s’est considérablement accéléré depuis.

C’est au début des années 2000 que les grands intervenants du Web ont ressenti, bien avant les autres secteurs d’activité, la nécessité de gérer une masse exponentielle d’informations. Voyant arriver plus de données que ce qu’elles pouvaient prendre en charge, des sociétés comme Google d’abord puis Yahoo ou Facebook ont cherché à mettre en place une nouvelle technologie de stockage réparti sur de multiples serveurs et d’accès rapide à cette information éparpillée. Cette technologie Open Source a été baptisée Hadoop et est utilisée aujourd’hui par la plupart des grands acteurs du web.
Si les sociétés du web ont été les premières à ressentir le besoin de gérer de grands volumes de données, on peut dire aujourd’hui qu’elles n’ont plus le monopole dans ce domaine. En effet, toutes les grandes entreprises disposent à présent de quantités importantes d’informations qu’elles doivent prendre en charge et stocker. La grande distribution, les banques, les opérateurs de téléphonie mobile, les sociétés de vente à distance et les entreprises de transport notamment reçoivent à chaque instant d’importants flux de données. Dans tous les secteurs, des remontées d’information en provenance des points de vente, des centres de contact, des équipes commerciales ou des sites web peuvent également affluer. Les volumes dépendent alors de l’activité mais également des formats de données et du niveau de granularité choisi pour la prise en charge de l’information : captures vidéo, photos, emails, pages web, avis de consommateurs, tweets, documents scannés, puces RFID, comptages électroniques, éléments enregistrés par des capteurs, détails de consultation du site web, fichiers de logs… Par ailleurs, toutes les entreprises peuvent, disposer en plus de tous ces éléments, de contenus non structurés capturés par des outils de veille sur le web, mis en place pour suivre ce qui se dit sur elles, leurs concurrents ou leurs segments de marché.
Avec la baisse du coût de stockage, la tendance aujourd’hui est de stocker tout ce qu’on peut stocker, souvent sans savoir comment l’information ainsi conservée pourra être exploitée.

Variété

Le corollaire du volume croissant est une diversification importante des formats et des sources de données. On estime aujourd’hui que plus de 80% des données disponibles dans le monde sont de type non structuré contre moins de 20% de données structurées. Le volume de données non structurées augmente 15 fois plus vite que celui des données structurées, en provenance de sources de plus en plus nombreuses et variées.
Alors que les entreprises traditionnelles étaient habituées dans le passé à prendre en charge des données structurées, à les stocker dans leurs bases de données relationnelles et à les interroger en SQL, la masse de données générées arrive donc aujourd’hui dans des formats très variés. Les données en provenance des médias sociaux, les éléments capturés automatiquement et les périphériques mobiles notamment font affluer des éléments qui n’entrent pas naturellement dans les architectures informatiques existantes. Cela exige une modification du mode d’approche et des changements d’infrastructures souvent difficiles à appréhender. Parallèlement la mise en place de ces nouvelles architectures nécessite des compétences nouvelles, actuellement peu courantes.

Les décideurs et les DSI français commencent à en prendre conscience, même si leur vision du Big Data semble encore assez parcellaire. En effet, lorsqu’on les interroge sur le phénomène, ils lui associent spontanément le critère de Variété, plus automatiquement que les 2 autres caractéristiques (Volume et Vitesse). C’est ce qu’indique une étude menée récemment par l’institut « Markess International » sur les nouvelles perspectives d’exploitation des données clients avec le Big Data, réalisée auprès de 110 décideurs d’entreprises et d’administrations de plus de 250 employés en France. Cette étude montre que les décideurs voient surtout dans le Big Data les apports liés à l’analyse de nouvelles sources de données, dont les données sociales. Toutefois, le fait que les deux autres V (Volume et Vitesse) soient moins directement associés au Big Data révèle probablement un manque de compréhension du concept et de ses exigences en matière d’infrastructures nouvelles de gestion et de stockage des données d’une part (Volume), et de gestion en temps réel ou en mode flux d’autre part (Vitesse). L’étude montre d’ailleurs qu’une faible proportion des personnes interrogées, y compris parmi les décideurs informatiques, connaît bien par exemple l’écosystème Hadoop (voir encadré), plateforme Open Source qui est aujourd’hui à la base des infrastructures Big Data de la plupart des entreprises avancées dans ce domaine (Facebook, Adobe, Amazon, Google, IBM, LinkedIn, Microsoft, etc.).

Vitesse

La vitesse correspond à la fréquence de remontée des informations. Les données non structurées et massives, affluent de plus en plus rapidement dans les systèmes d’information des entreprises. La vitesse de prise en compte des flux, de traitement des données multiples et d’exploitation instantanée des inputs correspond de ce fait à une exigence essentielle du Big Data. Le mode de traitement par lots qui est au coeur de nombreux systèmes CRM, ERP ou Décisionnels et qui produit des données « rafraîchies » à fréquence régulière, semble donc désormais inadapté à la prise en compte et à l’exploitation rapide du flot constant d’informations. La collecte et le partage des données en temps réel devient donc un prérequis absolu dans une approche Big Data.
Il n’y a d’ailleurs qu’à voir comment Google Analytics est en mesure de vous indiquer en temps réel le nombre de personnes qui consultent votre site, leur provenance géographique, les pages en cours de consultation et bien d’autres paramètres instantanés pour se rendre compte de l’ère de l’immédiateté dans laquelle nous sommes entrés, en imaginant toutes les exigences techniques et organisationnelles sous-jacentes. Quand on pense que ces informations sont gérées en temps réel pour des millions de sites à travers le monde, on ne peut qu’être impressionnés par la performance. Bien entendu, on a affaire ici à l’entreprise phare du web, dont le coeur de métier consiste justement à gérer des volumes gigantesques de données. Peu d’organisations dans le monde pourront prétendre approcher ses performances en matière de Big Data. Il n’en reste pas moins que les initiatives et innovations de Google peuvent souvent être des sources d’inspiration pour nous autres.

La philosophie du Big Data

La définition basée sur les 3V situe bien le concept de big data mais ne l’explicite pas entièrement. En effet, elle peut laisser penser que le Big Data est la même chose que ce qu’on fait habituellement avec nos données mais en plus grand, plus varié et plus rapide. Il n’en est rien et le concept a sa logique propre qui est vraiment très différente de ce qu’on connaît déjà.

Chris Anderson que nous avons déjà évoqué dans l’introduction de notre article nous l’explique en rappelant d’abord que la science traditionnelle dans son ensemble s’est toujours basée sur des modèles, des théories, des hypothèses ou des mécanismes qu’il s’agissait de comprendre et de généraliser pour nous permettre d’appréhender la complexité. Les statistiques à la base des études marketing en sont un exemple. Anderson rappelle d’ailleurs la phrase du célèbre statisticien Georges Box « Tous les modèles sont erronés, mais certains sont commodes », en expliquant que dans toutes les sciences, les modèles et les théories s’appliquent dans un cadre et peuvent ne pas fonctionner dans un autre. Il en est ainsi, par exemple, de la théorie de la mécanique newtonienne qui s’applique parfaitement aux mouvements des planètes mais est totalement inopérante dans l’infiniment petit (qui relève de la mécanique quantique).

L’approche Big Data, contrairement aux approches scientifiques habituelles, adopte une démarche empirique, qui ne repose plus du tout sur la compréhension des mécanismes sousjacents mais uniquement sur la constatation de faits. Anderson prend l’exemple du système de traduction de Google qui traduit n’importe quelle langue en n’importe quelle autre (65 langues supportées !) sans avoir la moindre idée des structures grammaticales de chacune de ces langues. La traduction fonctionne sur la base d’un système baptisé « statistical machine translation » qui analyse des millions de documents déjà traduits par des humains (livres, documents de l’ONU, sites web…) et en extrait des corrélations qui permettent de produire une traduction généralement correcte même si elle n’est pas toujours parfaite. Pour en savoir plus sur ce mécanisme vous pouvez visionner une vidéo à l’adresse suivante : http://translate.google.com/about

Pour poursuivre le raisonnement, Anderson considère que ce dispositif illustre parfaitement la pensée « Big Data » qui se passe de modèles et de théories pour utiliser uniquement des éléments existants, dont le volume permet d’extraire, par le seul calcul statistique, des résultats satisfaisants. Et même si on trouve des corrélations entre des éléments qui semblent ne rien avoir à faire ensemble, le volume important de données utilisées pour arriver à ces corrélations laisse penser qu’on est en présence de phénomènes réels bien que non expliqués (Anderson cite la corrélation entre Pampers et le Super Bowl !). L’idée du Big Data est de renoncer à chercher une explication mais de permettre simplement de prendre en compte cette réalité pour l’exploiter concrètement.

Les apports du Big Data

D’après une étude de McKinsey, un distributeur qui utilise le Big Data de manière optimale peut augmenter sa marge opérationnelle de plus de 60% ! Le même rapport indique par exemple que 30% des ventes d’Amazon sont dûs aux recommandations données aux internautes. D’autres peuvent faire de même dans la mesure où chaque entreprise ou organisation a une forte probabilité de disposer aujourd’hui d’un gisement d’informations et d’indicateurs qui pourraient améliorer considérablement ses performances. Certaines de ces données n’existaient tout simplement pas dans le passé ou ne pouvaient pas concrètement être prises en compte et analysées. Les apports marketing, commerciaux et opérationnels d’une analyse des flux de données de type big data peuvent être précieux et divers. Une bonne capture, gestion, modélisation, analyse et exploitation des données issues de ces gisements de Big Data permettent de révéler des relations cachées, détecter des opportunités nouvelles, redéfinir certaines offres, induire des changements organisationnels, infléchir la communication.

Bref, la bonne utilisation du Big Data renforce les performances et la compétitivité de l’entreprise en lui permettant de répondre plus vite et mieux aux besoins de ses clients.

Elle permet notamment :

  • de remplacer ou d’assister les décisions humaines par des algorithmes automatisés seuls capables de gérer le volume et la vitesse des données,
  • d’assurer plus de clarté et de transparence dans les mécanismes de décisions,
  • d’expérimenter et d’évaluer plus vite voire instantanément des alternatives marketing,
  • d’apporter des capacités prédictives nouvelles,
  • d’anticiper plus facilement les mouvements et les tendances,
  • de réduire de manière substantielle des coûts d’acquisition et d’exploitation de l’information par rapport aux procédés classiques (dont la recherche marketing).

Comment mettre en place un projet big data ?

Une démarche aussi prometteuse mérite qu’on s’y attelle rapidement. Mais comment s’y prendre concrètement ? Lorsqu’une entreprise aborde pour la première fois ce domaine et cherche à exploiter des types de données qu’elle n’a pas l’habitude de prendre en charge et de traiter, de nombreuses questions se posent :

  • Quelles sont les données pertinentes et signifiantes auxquelles on doit s’intéresser ?
  • Quels indicateurs peut-on mettre en place ?
  • Quels problèmes de qualité de données aurons-nous à régler ?
  • Combien cela va nous coûter ?
  • Combien de temps cela va nous prendre ?

Avec l’expérience, la réponse à ces questions devient bien sûr plus facile. Mais comme le big data, par définition, nous soumet sans cesse de nouvelles variétés de données, toujours plus vite et avec des volumes croissants, on peut être confrontés en permanence à des inconnues dans notre équation et avoir sans cesse à résoudre des problèmes nouveaux.

Le premier projet big data est généralement initié lorsque le management se rend compte que l’entreprise est en train de perdre des opportunités en négligeant les données à sa disposition. La démarche consiste naturellement à solliciter la DSI pour étudier le projet. Les équipes marketing et informatiques se lancent alors dans un examen exhaustif des données qu’il serait possible de récupérer et d’exploiter, en se basant parfois sur des objectifs précis. Mais le plus souvent, les velléités d’exploitation des données et les immenses promesses du big data incitent à regarder dans tous les sens de peur de se fermer des portes ou de manquer des aubaines dans ce domaine encore nouveau pour l’entreprise. A l’issue de cette phase d’étude préalable qui peut se révéler longue et complexe, l’informatique se lance généralement dans des développements pour répondre au cahier des charges établi, en capturant les données identifiées et en les organisant en vue de leur traitement. Fidèles à leurs approches et méthodes habituelles auxquelles ils ont été formés et qui constituent pour eux le standard à respecter, les informaticiens cherchent à intégrer ces données capturées dans des structures rigoureuses, qui permettront leur exploitation avec les outils de gestion de base de données usuels.

Les indicateurs ainsi développés sont ensuite déployés en test puis en production et mis à la disposition des équipes marketing. Immanquablement, et après quelques semaines seulement, les utilisateurs confrontés à la difficulté de transformer le process en bénéfices réels, reviennent demander des adaptations ou parfois même des changements complets d’approche. Les itérations qui s’ensuivent peuvent durer longtemps et épuiser tous les intervenants sans forcément aboutir à un résultat concluant. C’est Bill Franks, spécialiste du Big Data et auteur de l’ouvrage de référence « Taming the Big Data Tidal Wave » (qui a déjà été traduit en Chinois, en Japonais et en Coréen mais pas en Français !) qui décortique ce schéma classique en précisant qu’il ne fonctionne pas dans l’univers du Big Data parce qu’il correspond davantage à des cas où tous les éléments sont connus, les risques identifiés et les étapes claires et établies. Dans l’univers du Big Data, la difficulté consiste à utiliser de nouvelles sources de données pour répondre à de nouvelles problématiques, et le tout d’une nouvelle façon. La bonne solution pour Bill Franks est de « démarrer petit » (start small). Il conseille notamment de définir, pour démarrer, des indicateurs relativement simples qui ne nécessiteraient ni beaucoup de données à collecter ni beaucoup de temps pour les obtenir. Ainsi, un site de vente en ligne peut commencer par identifier les produits consultés par chaque visiteur dans le but d’envoyer à ceux qui n’ont pas acheté des offres promotionnelles qui pourraient les motiver à passer à l’acte. Pour limiter le process et faciliter l’expérimentation, il est conseillé de ne pas s’intéresser à l’ensemble des données mais de limiter l’expérience à une partie bien délimitée. On peut par exemple prendre les connexions d’un mois donné et pour quelques produits seulement. Ce focus permet de ne pas s’encombrer avec des volumes de données importants et des informations inutiles. Il facilite la manipulation des fichiers de données par les opérationnels du marketing qui peuvent définir plus facilement des sous-ensembles et effectuer des actions de tests en mesurant les retours obtenus. Des petits projets intuitifs comme celui-ci permettent à l’entreprise de se familiariser avec les possibilités qui s’offrent à elles et de cerner les problèmes éventuels, les efforts financiers et techniques à faire et les retours possibles. On ne démarre donc pas en listant en amont tout le champ des possibles mais plutôt en entrant dans le Big Data pas à pas, à travers de petites initiatives que l’on pourra ensuite développer et étendre en connaissance de cause.

Et les études marketing dans tout ça ?

D’après le rapport d’ESOMAR sur le marché des études, les activités de recherche marketing qui ne sont pas liées au fait de poser des questions à des personnes (i.e. qui ne relèvent pas de l’enquête par questionnaire, des focus groups ou assimilés…), représentaient déjà en 2010 plus de la moitié du chiffre d’affaires du secteur. Ces activités correspondent aux audits de points de vente, aux mesures d’audience, à l’analyse de tickets de caisse, au web analytics… Il s’agit déjà là d’activités qui s’apparentent au Big Data et qui en constituent peut-être un prélude dans l’activité des instituts d’études.
Comme l’indique Ray Pointer, Directeur de « Vision Critical University » et conférencier régulier à l’Esomar, « Deux visions du big data sont en train d’émerger du point de vue de la recherche marketing, même s’il y a un recouvrement important entre ces deux visions. » Pour Pointer, on peut distinguer un premier modèle orienté sur la marque (brandcentric view) et où l’on s’intéresse principalement à toutes les données détenues par la marque en interne : données issues du CRM, des cartes de fidélité, des études de marché, des remontées en provenance des réseaux sociaux… Dans le second modèle, des entreprises comme celles qui gèrent des panels peuvent accéder à des données multiples sur les personnes et les utiliser pour plusieurs marques et clients.

Les deux visions laissent peu de place aux études basées sur un questionnement de répondants, qu’il s’agisse de démarches quantitatives ou qualitatives. On peut donc s’attendre à ce que ces techniques reculent dans les prochaines années. Le risque est même que les entreprises considèrent à terme, à partir d’un certain volume de données, que l’interrogation des clients ne sert plus à rien. En effet, qui payerait des milliers d’euros pour poser quelques questions à un échantillon de 500 ou 1000 personnes alors qu’il dispose de données instantanées sur des centaines de milliers de clients ?

Ce faisant, les entreprises adhéreraient rapidement au concept de Google sur l’inanité du sens des choses (le pourquoi obtenu par le questionnement) au profit d’un suivi instantané de leur déroulement (le quoi issu de l’observation des événements). Ici, l’enjeu pour les instituts d’études serait de prouver que l’un peut éclairer l’autre et que l’analyse des objectifs et des motivations des consommateurs peut apporter une vraie valeur ajoutée à la compréhension des évolutions de leurs comportements d’achat.
En tout cas, la formule « Big Data : Too Big to ignore » qui a servi de titre à un ouvrage sur le Big Data et qui est souvent utilisée dans la presse américaine, devrait inspirer les instituts et les pousser à s’intéresser rapidement au phénomène. La connaissance des méthodes, technologies et apports peuvent leur donner des idées pour mettre en place de nouveaux produits et de nouvelles plates-formes qui restent à inventer. Les entreprises manquent aujourd’hui de spécialistes dans l’exploitation des données du Big Data. Dans les pays les plus avancés sur le traitement des données (Etats-Unis notamment), on recherche de toutes parts des Data-Analysts et Data-Scientists. Certains suggèrent de confier le Big Data en interne à un CAO (Chief Analytics Officer) rattaché directement à la Direction Générale et capable d’appréhender la collecte et l’analyse de données à la fois du point de vue technique (en collaboration avec la direction informatique) et du point de vue marketing (en collaboration avec la direction marketing). Dans les organisations de ce type, cet interlocuteur aura besoin de ressources externes et pourra faire appel à des instituts qui lui offriraient une expertise dans la collecte et l’analyse de données. Si l’organisation au contraire n’intègre pas directement des spécialistes du Big Data, les instituts compétents peuvent se positionner comme des spécialistes privilégiés du domaine et offrir leur expertise à la fois aux directions informatiques et aux directions marketing.
Les instituts d’études sont bien placés pour remplir ce rôle. En effet, on retrouve au coeur du Big Data les problématiques de l’optimisation du recueil de données, du traitement des informations non structurées (comme dans le qualitatif), d’analyse statistique de données et de mise en place de tableaux de bords et de reportings. Tout cela fait déjà partie des domaines d’expertise des instituts même si le domaine du Big Data nécessite en plus une expertise technique et informatique à acquérir en supplément. Par ailleurs, les entreprises qui souhaitent exploiter le Big Data vont avoir besoin d’interlocuteurs capables de les conseiller sur le plan technique mais qui comprennent également les enjeux marketing sous-jacents. Les SSII sont moins aptes à offrir un cadre à des profils de ce type alors que les instituts peuvent intégrer des équipes mixtes de spécialistes du Big Data au niveau technique et de directeurs d’études experts sur le plan de la compréhension du business du client.

On voit donc que l’enjeu pour les instituts consiste tout d’abord à s’intéresser au phénomène Big Data et, très rapidement, à acquérir de l’expertise dans ce domaine pour évoluer avec les besoins du marché (et ne pas être les futurs Kodaks de l’ère numérique). L’un des points clés sera certainement de rechercher d’ores et déjà à intégrer des profils plus techniques capables d’appréhender les enjeux technologiques mieux que ne le ferait le chargé d’études moyen. Un autre point clé consiste à s’entourer de partenaires technologiques capables de les assister dans les projets de type Big Data en fournissant les conseils et/ou les outils adaptés.
On peut d’ailleurs se réjouir de l’annonce récente de Fleur Pellerin, ministre déléguée en charge de l’Economie numérique de favoriser le développement d’une véritable filière Big Data en France afin que le pays « joue un rôle moteur sur ce nouveau marché ». Cela devrait déboucher obligatoirement sur la mise en place de filières d’enseignement adaptées capables de fournir au marché des profils adhoc.

Le Big Data peut donc être vu par les instituts d’études comme une opportunité plutôt que comme une menace. C’est le moment de se positionner, surtout sur le marché français où les dernières études montrent que le phénomène est encore considéré avec une certaine distance par les décideurs (une étude IDC récente indique que 70% des 160 entreprises interrogées n’ont ni initiatives ni réflexion sur le sujet). Alors vite, fonçons avec une démarche proactive pour profiter du changement de paradigme plutôt que de le subir.

LAISSER UN COMMENTAIRE

Please enter your comment!
Please enter your name here