Regard critique sur l’IA

dataisme-édito-surveymag-T4-2017

L’intelligence artificielle se profile comme une révolution bien plus importante que l’avènement d’internet, bien plus périlleuse également. Cette dernière touche tous les secteurs de l’économie : de la santé à l’éducation, en passant par l’automobile, la grande distribution et… l’armement. Le déluge d’innovations en matière d’Intelligence artificielle est en train de modifier en profondeur les techniques de production, de distribution et de consommation.

Nous observons deux grandes tendances : d’une part celle de la fin de l’interface homme-machine, et d’autre part l’abandon de la capacité décisionnelle.

L’homme-machine : la fin de l’interface

Nous sommes face à une révolution du rapport humain-machine. On peut déjà mesurer les progrès récents par le fait que n’importe qui peut aujourd’hui créer un site web en quelques clics ou monter une machine inconnue avec des lunettes de RA (Réalité Augmentée). Ce n’est rien par rapport à ce qui est en train de se mettre en place : une séparation progressive avec les interfaces numériques que nous connaissons et qui font partie de notre quotidien. Nous baignerons bientôt en permanence dans des interfaces sans presque nous en rendre compte. D’après certaines prévisions, nous aurons dans quelques années seulement plus d’une centaine d’objets connectés dans nos foyers. On parle de « numérique ambiant ».
L’interface va devenir le produit. Elle deviendra « ubiquitaire ». Notre environnement tout entier sera une interface avec l’émission et la réception permanente de messages via nos objets, nos vêtements, nos véhicules et via la reconnaissance de nos visages, de nos empreintes digitales et des puces que nous aurons sous la peau (première étape de la fusion organique numérique) pour par exemple, prendre le métro, payer des achats, accéder à son entreprise.

L’abandon de la capacité décisionnelle

Parallèlement, nous sommes déjà entrés dans un monde de machines dialoguant avec des machines pour prendre des décisions nous concernant. Nous déléguons et allons déléguer une partie croissante de diagnostics et de décisions à des algorithmes qui nourrissent les interfaces évoquées dans la première partie. Des intelligences bienveillantes, discrètes, qui font gagner du temps, de l’argent, de l’efficacité, aident à prendre les « bonnes » décisions et à éviter les erreurs.

C’est une civilisation nouvelle (source : Netexplo, 13 février 2018) marquée par le transfert de pouvoir de décisions à des « intelligences » ou procédés numériques autonomes. Ils nous guident déjà sur les routes via le GPS, présélectionnent les informations conformes à nos centres d’intérêt, nous trouvent le vol en avion le moins cher, nous défendent contre les spams et nous trouvent l’âme sœur sur les sites de rencontres.

Demain, ces « intelligences » établiront nos listes de courses en fonction de nos habitudes, nos besoins et nos profils. Elles recruteront dans les entreprises le personnel à partir de critères purement objectifs et contrôleront la productivité, les besoins de formation et de repos des collaborateurs à travers une évaluation permanente. Des décisions en matière de santé, de prévention, de risques d’accidents et de maladies seront prises par des algorithmes informés en temps réel de nos paramètres biologiques, de nos antécédents génétiques et de notre mode de vie. Des nanorobots circulant dans nos veines pourront intervenir à tout moment pour nous soigner immédiatement.

Ce sera un profiling permanent par des intelligences prédictives ainsi qu’une perte de pouvoir et de contrôle sur nos vies. Mais nous abandonnerons volontiers nos capacités de décision pour gagner du temps, pour vivre mieux et plus longtemps, pour être protégés et en sécurité, pour être plus compétitifs et… par paresse psychologique. La question se pose déjà : conformisme ou déclassement ? Ce mouvement sera d’autant plus irrésistible qu’il permettra dans les différentes organisations et institutions d’échapper aux responsabilités en déléguant à des machines… plus efficaces.

Quid des humains et des études ?

Malgré l’exubérance irrationnelle que suscite l’intelligence artificielle, nous ne pouvons à ce jour que parler d’intelligence artificielle « faible », c’est-à-dire étroitement spécialisée et tactique. On ne doit parler d’intelligence artificielle que lorsque l’algorithme s’autoperfectionne (deep learning). Mais nous assistons, c’est inéluctable, à la naissance d’une intelligence artificielle généraliste qui pose un certain nombre de questions. En effet, l’intelligence artificielle même faible facilite déjà un bon nombre de tâches quotidiennes et professionnelles, mais cela n’est pas sans conséquences psychologiques et sociales. Ce sont les sentiments d’aliénation et d’enfermement face à la désincarnation de notre environnement qui sont en train de se renforcer. Ces « sentiments » diffus génèrent des comportements collectifs inattendus que n’ont su anticiper les études fondées sur les algorithmes : victoire du Brexit, élection de Trump, montée de tous les radicalismes et les nationalismes. Les datas, fondement de l’intelligence artificielle, posent deux questions que l’inconscient collectif entend ou pressent :

1. Qui en a la maîtrise ? À l’heure actuelle ce sont les GAFAM et autres BATX, soit des entreprises privées qui ne sont nullement encadrées et qui disposent de moyens financiers bien supérieurs à ceux de nombre d’états. La gestion des données n’est pas régulée.
2. Quelle est la place de l’humain dans un marché du travail complètement dématérialisé ? Après des années de ralentissement de l’ascenseur social se profile l’hypothèse d’une disparition massive du travail de l’homme. La robotisation tue les emplois de cols bleus dans les pays émergents et l’intelligence artificielle ceux des cols blancs à valeur ajoutée dans les pays avancés. Et ce bouleversement est planétaire.

Pour le moment cette révolution schumpéterienne génère de l’enthousiasme, mais également beaucoup de comportements de défiance face à une technologie ressentie comme invasive et liberticide. L’exemple des compteurs intelligents est frappant : dans les études web, les populations s’intéressent au smart cities et adhèrent massivement à l’optimisation de la consommation énergétique que promettent les compteurs intelligents. Dans la pratique, que ce soit Gaspar ou Linky, les employés d’Enedis ou d’Engie se voient opposer plus de refus que d’acceptation.

Si l’avènement de l’intelligence artificielle est inéluctable, il est essentiel d’en gérer la transition. C’est là que les études interviennent, elles ne peuvent se contenter de proposer des interfaces, mais doivent aller plus en profondeur avec une méthode sociologique de terrain, dont l’analyse doit être faite par et pour l’Homme.

Abandonner la connaissance aux algorithmes sous le seul prétexte qu’ils savent gérer plus de données qu’un humain revient à se soumettre au calcul et à passer à côté de la compréhension des comportements.

Pis, s’abandonner aux seuls algorithmes reviendrait à passer du prédictif au normatif. Aujourd’hui, certains États s’appuient déjà sur la justice prédictive : un individu est arrêté pour un vol de voiture et en fonction de son historique numérique : à partir de ce qu’il poste sur les réseaux sociaux, de ses temps de réaction à un message (rapide ou non), des mots qu’il utilise (virulents ou non), l’algorithme sortira un pourcentage de récidive potentielle. Le juge n’a nulle obligation de s’y soumettre. Néanmoins, il est influencé par « le graphe », et son libre arbitre, son intime conviction faiblit.

À ce moment-là, la justice prédictive cesse d’être prédictive pour devenir normative. L’analyse sera à terme identique dans la médecine prédictive. Et le danger de la place réservée à l’homme dans le Nouveau Monde qui se dessine, se profile.

Le rôle des études aujourd’hui consiste à ne pas négliger l’irrationnel, à ne pas s’en remettre aveuglément aux « remontées » de données, mais à creuser l’impact sur l’homme d’une transition sans précédent.

Le plus important n’est pas la technologie, mais notre capacité à penser ses implications.

De même, qu’il ne s’agit pas simplement de former et d’apprendre à apprendre, il s’agit également d’infléchir, d’orienter les innovations afin qu’elles soient au service de l’homme et non l’inverse.

À défaut, la régression de nos démocraties risque d’être bien pire que celle des années 30.

AUCUN COMMENTAIRE