L’eye-tracking au service de l’expérience client

Eye-tracking

L'expérience client étudie toutes les interactions entre une société et ses clients à chaque étape du parcours client, depuis la découverte, l'achat, l'utilisation, jusqu'au service clientèle. L'expérience utilisateur, elle, se focalise sur les interactions du client avec les interfaces digitales de l'entreprise : site web, emailing, application smartphone. C'est l'expérience client en ligne, dont la réussite conditionne l'image, le taux de conversion, la fidélisation. Avec l'usage généralisé d'internet dans toutes les sphères de la vie quotidienne, les entreprises ne peuvent plus se permettre d'avoir des interfaces homme-machine (IHM) déficientes. Il en va de leur survie. L'eye tracking est l'un des moyens les plus intéressants pour comprendre le comportement des utilisateurs de ces interfaces, et pour les optimiser.

Un Dispositif proche de la réalité

C'est un dispositif d'étude qui repose sur l'hypothèse de base que le mouvement de l'œil permet de déduire le processus cognitif sous-jacent.

Des diodes émettent une lumière infrarouge (complètement inoffensive) au centre de la pupille de l'utilisateur. Des caméras intégrées à l'ordinateur détectent le reflet cornéen des rayons et déterminent, grâce à un modèle géométrique, le point fixé par le regard.

L'eye tracking existe depuis plus de 15 ans. Utilisé au départ pour des tests auprès de conducteurs de voitures et des pilotes d'avion, son usage s'est étendu à des tests d'annonces publicitaires, de brochures, de packagings, des points de vente, de la presse, et maintenant, à des interfaces numériques.

C'est un dispositif peu intrusif, permettant à l'utilisateur de naviguer de manière naturelle, proche des conditions réelles d'utilisation.

Immersion dans une session d'eye tracking

L'équipement consiste en un ordinateur, une tablette ou un smartphone, sur lequel l'utilisateur navigue. Un dispositif comportant les diodes et les caméras infra rouges est intégré à l'écran ou placé sur celui-ci. Un calibrage permet d'adapter le logiciel à la morphologie de l'utilisateur (écart entre les deux yeux, taille de la pupille…). Les sujets porteurs de lunettes, les yeux trop chargés en mascara, ou des yeux récemment opérés peuvent diminuer la qualité des enregistrements.

Le recueil se passe le plus souvent en interview individuelle d'une heure environ, même si l'enregistrement par eye tracking ne dépasse en général pas 5 à 10 minutes. Le reste est consacré à l'explicitation des comportements, ou à des approfondissements. En effet, les données d'eye tracking constatent le comportement, mais ne donnent pas d'informations sur les raisons qui le sous-tendent, ni sur le ressenti émotionnel, ou le degré de satisfaction. Une durée longue de fixation peut signifier un intérêt vif pour certaines zones, ou une difficulté de compréhension.

Une session d'eye tracking type comporte en général un début en navigation libre, puis des tâches commandées, 2 à 4 en moyenne par interviewé, choisies pour permettre d'évaluer les fonctionnalités ou les éléments clés de l'interface. Certains praticiens préfèrent commencer directement par des tâches, partant du principe qu'on ne vient pas sur un site ou une application pour explorer, mais pour y effectuer des actions, et donc qu'une exploration sans but n'est pas une situation réaliste.

De même, certains protocoles de test recourent à la verbalisation concomitante (CTA ou Concomitant Think Aloud), ou à la verbalisation rétrospective (RTA ou Retrospective Think Aloud), où l'utilisateur dit tout haut ce qu'il fait, soit en même temps, soit après sa navigation. Dans le RTA, on peut l'aider à se remémorer en lui re-projetant en playback sa navigation avec en surimpression, ses points de fixation, c'est-à-dire les endroits où son regard s'est posé. La verbalisation concomitante fait gagner du temps, est plus intéressante pour les observateurs, mais peut fausser certaines mesures (comme la durée de réalisation de certaines tâches). La verbalisation rétrospective prend plus de temps, et est plus fastidieuse à observer. Elle apporte souvent plus d'informations mais n'empêche pas les rationalisations, les faux souvenirs, car elle reste du déclaratif. D'autres praticiens préfèrent bien séparer les hard data, indicateurs issus de l'eye tracking, des soft data, issus des interrogations, interviews et autres modes de recueil. Le croisement des 2 types de données permet de comprendre les premières avec les secondes, tout en préservant la « pureté » du eye tracking (pas de CTA, ni de RTA), et surtout éviter des biais de comportements visuels du fait même de l'effort cognitif lié à la verbalisation.

Intérêts de l'eye tracking

Un utilisateur effectue en moyenne de 200 à 300 fixations par minute, ce qui est impossible à observer de visu. Lui-même en est pour la plupart du temps inconscient, et ne peut donc ni les verbaliser, ni les décrire, et encore moins, les expliquer.

L'eye tracking enregistre les points de fixation, leur ordre, leur durée, les zones regardées, celles ignorées, le parcours de l'œil. Il permet plus de 100 types de mesures différentes.

Il apporte des mesures objectives, transparentes, et permet d'aller au-delà du déclaratif, en observant directement les comportements oculaires des utilisateurs. Il permet de faire la différence entre ce qui a été regardé, de ce qui a été effectivement vu, et de ce qui a été réellement compris.

La définition des zones d'intérêt (AOI ou Area of interest) permet de savoir exactement les performances de certains éléments clés d'une interface (visibilité, compréhension, intérêt, ergonomie des éléments de navigation).

Selon la problématique, on choisit les types de mesures les plus adaptées, ainsi que les visualisations les plus pertinentes.

Les parcours oculaires (scanpath ou gaze plot) et les cartes de chaleur (heatmap) sont les résultats les plus connus des eye trackings.

Cas concrets d'utilisation

L'eye tracking permet d'améliorer la qualité de l'interface homme-machine.

Il génère deux types de données :

Des données qualitatives sur la manière dont les utilisateurs utilisent l'interface. Il permet :
- D'identifier les mauvais parcours ;
- De vérifier le bon emplacement des éléments clés ;
- De détecter les facteurs perturbant la navigation (bouton non identifié, libellés peu clairs, publicités dérangeantes…).

Des données quantitatives sur les métriques liées à la navigation. Il permet de :
- Comparer plusieurs designs, pour choisir le meilleur ;
- Faire un benchmark d'une interface avec celle du concurrent, ou celle existante.

On dit souvent que les tests d'usabilité, et l'eye tracking en fait partie, ne requièrent pas un gros échantillon, et que de 5 à 12 interviews suffisent, car les individus diffèrent moins dans leur comportement physiologique (vision, ouïe, motricité) que dans leurs opinions ou attitudes.

Cependant, des résultats sur seulement 5 interviews ne portent que sur des défauts si grossiers que même sans eye tracking, ils devraient être perceptibles. Pour avoir des résultats plus solides et plus fins, 15 interviews au minimum sont préférables.

De la même façon, pour augmenter les chances d'avoir des résultats clairs, il vaut mieux agréger les résultats sur des scénarios d'usage type identiques entre interviewés, plutôt que sur des navigations qui changent avec chaque interviewé.

Et demain ?

On assiste à un basculement vers les supports mobiles. De plus en plus puissants, légers, autonomes, les PC portables ont supplanté les PC fixes. Les tablettes tendent à leur tour à remplacer les PC. Les smartphones sont devenus omniprésents. Pour beaucoup, ils sont devenus le principal outil informatique, jusqu'à remplacer pour certains leur PC.

Les recherches sur Google sont depuis fin 2015 plus souvent faites sur smartphone que sur PC. L'eye tracking pour tester les interfaces de smartphone et de leurs applications va devenir sans doute l'axe le plus prometteur, ce d'autant plus qu'il est plus difficile de designer une interface mobile qu'un site web, l'utilisateur quittant plus facilement la page s'il n'arrive pas à son objectif.

Il existe actuellement peu de moyens vraiment satisfaisants pour tester les interfaces mobiles comme les smartphones ou les tablettes. Le MDS (Mobile Device Stand de TOBII) est un support spécifique pour tenir le mobile (tablette ou smartphone) pendant que l'utilisateur navigue. Il permet un bon enregistrement des parcours oculaires. Mais il ne permet pas de tester dans des conditions d'usage réelles, puisque l'utilisateur ne peut pas bouger librement avec le mobile dans les mains.

Les lunettes eye tracker (TOBII, SMI) permettent cette mobilité. Par contre, elles sont plus adaptées à un usage en mobilité (le client se déplace dans un point de vente, par exemple dans une étude shopper), qu'à l'usage du mobile lui-même. De plus, ce type de lunettes reposant sur une caméra de scènes, il y a des risques de pertes des données (quand le mobile est hors du champ de vision de la caméra), et une agrégation des données plus difficile.

On voit arriver une nouvelle génération d'équipements qui permet à la fois une utilisation en mobilité réelle, l'utilisateur ayant le mobile en mains, et une agrégation automatique des données transversalement à tous les enregistrements (appelé « layer eye-tracking »), donnant une analyse beaucoup plus puissante et rapide des données. Cette avancée est développée par la start-up française Matchic Labs, sélectionnée par la Commission Européenne parmi les projets innovants qu'elle soutient.

C'est une avancée réelle dans l'eye tracking des supports mobiles, et probablement l'un des axes de recherche les plus prometteurs pour l'eye tracking dans l'avenir.

Les limites de l'eye tracking

Le principal reproche que l'on fait à l'eye tracking est son coût, dû à l'équipement (que ce soit en achat ou en location), mais aussi au travail d'analyse (qui reste encore en grande partie manuelle) qu'il implique.

Des fabricants ont cherché à s'affranchir du système actuel basé sur la réflexion d'une lumière infrarouge sur la pupille, en mettant au point des logiciels de simulation d'eye tracking. Le MIT et l'Université de Georgie travaillent à des modélisations à partir d'un grand nombre d'eye tracking réels pour reproduire le regard grâce au machine learning. Des plateformes permettent déjà d'uploader des stimulis (URL, capture d'écran, image…) et de fournir en quelques secondes une carte des fixations. Cependant le système manque encore de précision. Mais, comme Google traduction est arrivé à une traduction automatique tout à fait acceptable en apprenant à partir de millions de traductions humaines, il est probable que ces eye tracking 100% logiciels ou eye tracking prédictifs s'amélioreront dans l'avenir. Il y a cependant une limite à cette automatisation : le regard de l'utilisateur dépend du contexte d'utilisation. Il ne regarde pas les mêmes éléments d'un écran d'application selon qu'il souhaite accéder à son compte ou trouver des informations sur un produit.

Les Tests Utilisateurs à distance (RUT ou Remote Usability Testing) sont une autre piste de recherche. Ce sont des logiciels qui enregistrent les données de navigation à distance. Comme les études en ligne, ils sont peu chers, rapides, portent sur des plus gros échantillons, ont une couverture géographique meilleure. Ils peuvent s'adapter à des tests utilisateurs plus agiles, rapides, précoces, itératifs, incrémentaux, pour accompagner les décisions tout au long du développement d'un site ou d'une application.

La technologie de l'eye tracking de son côté évolue aussi vers de nouvelles applications. Il permet le contrôle visuel des commandes d'une interface, permettant d'ores et déjà à des handicapés ou paralysés de communiquer via un ordinateur.

Il permettra très probablement demain de concevoir des interfaces intelligentes, qui s'adapteront en fonction des fixations du regard, rendant l'expérience utilisateur encore plus personnalisée et agréable. Elles « magnifieront » par exemple les zones regardées, afin de les rendre encore plus visibles. Les premières applications viendront sans doute des jeux vidéos, des écrans TV.

L'eye tracking sera alors intégré dans notre vie quotidienne en rendant toutes les interfaces (tableaux de bord des voitures, objets connectés…) communicantes et intelligentes. n