Dernier numéro de Survey Magazine

Perception de l’IA par les non-experts, conséquences éthiques

img

Comment le grand public perçoit-il les menaces et les opportunités de l’IA ? Quelles sont les conséquences éthiques d’une connaissance erronée et négative notamment pour le régulateur et les professionnels du marketing ?

Perceptions de l’IA par le grand public

Comme toute innovation de rupture, l’IA suscite des passions dans le grand public. Une enquête des perceptions de celle-ci révèle que les menaces et les opportunités sont à la fois mal connues, appréhendées de manière erronée et uniquement négative, ce qui constitue une menace pour son adoption.

Au préalable, la définition même et le périmètre impacté par cette innovation technologique sont très flous. Les personnes interrogées font soit le lien entre IA et Big data, soit entre IA et robot. La première association avec le Big data peut conduire à la figure du « Big Brother ». Si effectivement des données sont nécessaires pour mettre en place l’IA, la connotation est très négative et souligne le sentiment de perte de contrôle et de non-maîtrise à la fois des données collectées et de leur traitement. Les verbatim expriment clairement l’incompréhension de la technologie, le sentiment d’être dépassé, voire manipulé. L’autre association, celle avec les robots, reflète une peur d’un autre ordre : celle d’être remplacé par les robots et de perdre son travail. Les uns ont entendu parler d’études scientifiques qui disent que les professions intellectuelles seraient les premières menacées, d’autres que ce seraient les cols bleus. Dans un cas comme dans l’autre, l’enquêté se situe du mauvais côté, de celui menacé.

Le 13 février 2018, le cabinet Gartner a publié une étude « Lessons from early AI projects » basée sur un sondage auprès de 3000 responsables d’entreprise et d’entretiens avec des responsables d’une douzaine d’organisations ayant mené des projets d’IA. L’étude pointe le lent démarrage de l’IA en entreprise puisque seulement 5 % des entreprises ont financé et déployé un tel projet. Mais le cabinet prévoit une accélération rapide d’ici 2020. À cette date, une grande entreprise sur cinq aura des salariés dévolus à la mise en place de projets avec des réseaux de neurones.

Côté opportunités, très peu peuvent citer des apports positifs de cette innovation. Tout au plus aidera-t-elle le chirurgien dans son diagnostic, mais on n’en est pas très certain. Personne ne connaît les usages qui se déploient en matière de maintenance prédictive. L’analyse des vibrations des voitures par exemple permet d’anticiper les pannes et de réparer avant le sinistre, pour un coût moindre. Sécurité, économie financière, confort au quotidien, l’IA peut réellement avoir des retombées positives dans le quotidien de chacun. Encore faut-il communiquer dessus. Il semble qu’il y ait là matière pour les professionnels du marketing.

En matière d’innovation, la littérature scientifique (Norbert Alter en tête) montre que toute innovation suscite au départ des réactions très tranchées, les unes très positives, les autres très négatives. Pour les uns, l’innovation résoudra tous les problèmes et conduira au Graal, pour les autres, elle sonne l’apocalypse. Le chemin de fer ou l’électricité ont connu le même sort. La réalité qui résulte finalement de la diffusion de l’innovation se situe entre les deux : elle apporte son lot de progrès, mais aussi de menaces. Elle peut conduire comme l’expliquait l’économiste Joseph Schumpeter dès la fin des années 30, à une « destruction créative ». Au départ, elle va détruire des emplois, pour finir par en créer d’autres, mais qui nécessiteront de se former à de nouvelles compétences.

Ce tableau très négatif des perceptions de l’IA invite à la réflexion. Comment en sommes-nous arrivés-là et que faut-il faire pour faire évoluer la perception ? Il semble que la communication autour de l’IA n’ait pas été optimale, sans doute parce qu’elle émane d’acteurs trop nombreux et disparates sans qu’émerge un discours audible du grand public. La première mesure à prendre – par le régulateur notamment et surtout pour les professionnels du marketing – est de communiquer précisément sur la définition, le périmètre et les enjeux de l’IA. À défaut, on entretient des peurs irraisonnées et des fantasmes hors de propos. Sachant que le bouche-à-oreille est un excellent vecteur de communication, et que les mauvaises expériences sont dix fois plus rapportées que les bonnes, cela donne une idée de l’ampleur du phénomène s’il n’est pas endigué par la communication des professionnels.

Aide à la décision ou diktat

Le rare exemple d’IA souvent cité par le grand public est APB, pour l’orientation post-bac. Il illustre parfaitement la méconnaissance de l’IA et les effets négatifs qu’elle peut avoir dans le quotidien. APB est perçu par les bacheliers et leurs familles comme un système injuste, aveugle, enfermant, arbitraire et dont on ne comprend pas les décisions. Les bacheliers ont le sentiment de le subir et d’être injustement assignés dans une case sans pouvoir influer sur la décision une fois prise. APB est l’exemple même de Big Brother dans l’esprit des bacheliers. La perception – réelle ou erronée – d’APB montre que l’IA est perçue comme un système qui collecte des données à votre insu, les mélange avec d’autres et produit un résultat qu’on ne comprend pas et qu’on ne peut contester. Or, l’IA doit être un outil d’aide à la décision pour les particuliers et les professionnels et non une boîte noire qui produit des diktats sans autre forme de procès.

En effet, pour être synonyme de progrès, l’IA doit augmenter l’humain dans sa capacité à trouver une information exhaustive et à la présenter pour une prise de décision. Dans le cadre de professionnels que sont les médecins ou les juges, l’IA peut répertorier la totalité de l’information disponible sur un sujet, la traiter selon un critère choisi par le professionnel et éventuellement produire un résultat à condition que celui-ci soit défini par le professionnel. L’IA permet de collecter des informations, de rechercher la totalité des informations sur un thème donné, de traiter une grande masse de données… En cela, l’IA peut être un outil d’aide à la décision sans égal. Mais il y a deux conditions à réunir. Premièrement, l’utilisateur doit pouvoir garder la maîtrise, c’est-à-dire décider des critères de sélection des données ou des critères permettant de calculer une recommandation. Deuxièmement, qui dit recommandation, dit que l’utilisateur doit pouvoir décider autrement que la recommandation ! Ce n’est malheureusement presque jamais le cas, ce qui conduit à la vision négative de l’IA. Il doit être possible de décider autrement, car l’IA doit être une aide à la décision et pas l’imposition d’une décision. L’IA doit fournir un résultat argumenté, clairement explicité permettant le choix entre plusieurs solutions dont chacune a des caractéristiques. C’est à l’utilisateur, particulier ou professionnel, de décider quelle solution retenir. Aujourd’hui, trop souvent, l’IA se comporte comme les moteurs de recherche qui proposent une hiérarchisation des solutions sans que l’on ne connaisse les critères permettant de l’établir. Comment garantir la liberté de choix si l’IA produit un résultat dont on ne comprend pas l’origine et auquel on ne peut déroger ?

Une raison majeure explique cette mauvaise mise en place : elle ne part presque jamais des utilisateurs, mais est conçue par des experts techniques. La conséquence immédiate à en tirer est d’impliquer les acteurs concernés dès la conception afin qu’ils puissent conjointement participer au cahier des charges et décider de son mode de fonctionnement. Eux seuls connaissent leur besoin, afin d’édicter la liste des données à prendre en compte, les critères de hiérarchisation et de pondération des données, les règles à appliquer…

L’autre conséquence est de prévoir les recours : comment fait-on si on veut déroger à la recommandation ? Dans le cas de l’assurance par exemple, les primes reposent sur une mutualisation des risques, que feront les personnes pour lesquelles la décision est défavorable ? De quels recours disposeront-ils ?

Ouvrir et auditer les boîtes noires

L’IA présente un avantage incomparable : sa capacité de collecte et de traitement des données et en version Deep learning, l’apprentissage. Mais comme indiqué, l’IA doit être une aide à la décision, une ouverture augmentant les capacités (mémoire, traitement…) de l’humain et jamais un enfermement qui se substitue à l’intelligence humaine. Il ne doit pas asservir, annihiler l’esprit critique, mais rendre encore plus libre dans ses actes. S’il est important d’impliquer en amont lors de la conception les parties prenantes concernées (notamment les utilisateurs), cela n’est pas suffisant. Une autre mesure communément revendiquée est l’audit des systèmes par les différents acteurs impliqués : experts, utilisateurs, citoyens… De tels audits conduisant à une certification existent déjà dans le cas de certains logiciels. Mais cette transparence peut se heurter au droit de la propriété industrielle, un problème juridique. Par ailleurs, la transparence et la certification ne garantissent pas forcément la pertinence du système et ne doivent en aucun cas exonérer les acteurs de leurs responsabilités. La décision doit revenir à l’acteur concerné.

Rendre les algorithmes plus compréhensibles pour les acteurs concernés (citoyens, concepteurs, professionnels…) et les faire auditer par un comité ad hoc restent deux mesures importantes, mais non suffisantes. Il ne sera pas possible de faire l’économie d’un vaste programme de formation, d’information et de communication auprès de tous les publics sur le périmètre de l’IA, ses enjeux et ses apports. Cette formation devra notamment s’attacher à combattre l’image de boîte noire pour l’IA, car celle-ci véhicule une idée d’opacité, d’informations en entrée et en sortie avec un traitement assez mystérieux au milieu. La boîte noire symbolise bien la perte de contrôle, l’incompréhension actuelle du grand public pour l’IA. En réfutant cette image pour lui préférer celle de chaîne de traitement, on fait germer l’idée que le grand public peut comprendre puis participer aux choix des traitements. En réfléchissant aux critères à prendre en compte pour évaluer des solutions, à leur pondération, à la forme de présentation des résultats, chacun peut s’approprier cette innovation.

Former, informer et communiquer

La seule solution viable à long terme pour que l’IA soit synonyme de progrès pour tous est d’offrir à chacun l’accès à la connaissance. Loin de se limiter à un niveau descriptif, cette information/formation doit comprendre les possibilités d’action et de recours de chacun. Compte tenu des enjeux dans les vies privées et professionnelles de chacun, sur des sujets aussi personnels que la santé ou la tarification des offres, le niveau d’information de chacune des parties doit être homogène. Sinon à qui l’IA va-t-elle profiter ? Aux GAFA et autres grandes entreprises qui auront compris le bénéfice qu’elles peuvent tirer d’une collecte et d’une analyse individuelle en quasi temps réel de leurs clients ? Quelle société un tel système discriminant risque-t-il de produire ? Si l’avènement de l’intelligence artificielle est inéluctable, il est essentiel d’en gérer la transition. C’est là que les études interviennent, elles ne peuvent se contenter de proposer des interfaces, mais doivent aller plus en profondeur avec une méthode sociologique de terrain, dont l’analyse doit être faite par et pour l’Homme.

L’IA est une chance pour la société, celle de faire participer chacun au débat, de l’impliquer dans les décisions de la cité et de la société dans son ensemble, de faire entendre sa voix. Internet a déjà permis à chacun de s’exprimer à travers des forums de discussion, des avis de consommateurs, des hashtags de mécontentement… Ces formes de prise de parole interviennent souvent une fois le service rendu, le bien acheté. Ils concernent des situations existantes qu’il est souvent plus difficile à faire évoluer qu’en partant d’une situation où l’individu (citoyen, consommateur…) est intégré dès le départ au débat. Cet apport de connaissance contribuerait à augmenter l’individu, à le rendre plus intelligent, muni du savoir nécessaire pour orienter les développements futurs.

Ce que nous devons retenir

Ainsi, l’IA est une révolution irréversible pour les années à venir qui fait couler beaucoup d’encre aujourd’hui sans que le grand public en comprenne réellement la portée. Sa définition d’abord n’est pas claire : où se situent les limites entre les algorithmes déjà existants depuis des années (en assurance par exemple) et l’IA ? Quels sont les changements radicaux du passage des algorithmes classiques basés le plus souvent sur des études macroéconomiques et des statistiques, à l’IA et à la collecte des données individuelles avec le Deep learning ? Quelles conséquences ces changements ont-ils pour chaque acteur en termes de menaces et d’opportunités ? Tout n’est pas de l’IA ! Ce périmètre et ces enjeux posés, réclamer la transparence des algorithmes n’est pas suffisant parce que cela se heurte parfois à des questions de propriété intellectuelle et concerne des systèmes déjà conçus. Il faut engager les acteurs dès leur conception. L’apport de l’IA passe par la maîtrise du dispositif et la compréhension des formules qui président aux décisions.

Aujourd’hui, l’IA est une affaire d’experts, crainte par le grand public qui faute d’information précise et compréhensible, assimile IA et Big Brother ou IA et robotisation. IA sonne pour le grand public comme une perte de contrôle voire une menace pour la privacy et la liberté. C’est aussi une menace pour l’emploi et un enfermement avec des systèmes qui prennent des décisions qui auront de l’impact sur le quotidien de chacun. Si chaque innovation a connu une période où deux sentiments extrêmes cohabitent parmi le grand public, à la fois messianique et apocalyptique, dans le cas de l’IA, seules les visions très négatives s’ancrent. Peut-on laisser quelques acteurs s’emparer de la création de valeur en nuisant à la liberté de chacun ? Les enjeux sont tels que les professionnels du marketing, en soutien du régulateur, ont un rôle clé à jouer dans les trois à cinq prochaines années.