Intelligence artificielle, que faut-il réellement craindre ?

risque de l'intelligence artificielle

Le succès du livre de Laurent Alexandre sur la Guerre des Intelligences (où sont un peu trop opposées dos à dos intelligence artificielle et intelligence humaine) montre l'intérêt porté aujourd'hui à l'IA. Quoiqu'on en dise, ce livre a le mérite (et c'était, je crois, le but de son auteur) de provoquer le débat dans une période où Cédric Villani est responsable de France IA… et où ladite France (Europe, en fait), est franchement en retard sur ces sujets alors qu'elle forme avec succès les plus grands spécialistes du sujet (qui partent donc travailler à l'étranger). Ce qui est sûr, c'est que le sujet divise et que la science-fiction remplace parfois un peu trop la science dans le traitement du thème. Cet article vise à trier le faux du vrai et faire un point sur le réel degré d'avancement de ce qu'est l'intelligence artificielle et de ses conséquences dans le monde des affaires.

Il n'y a pas une IA, mais des IAs

Avant d'aller plus loin, définissons le sujet… L'IA est définie dès 1956 par un de ses pères fondateurs (John McCarthy) comme « la science qui produit des logiciels intelligents » (smart en anglais dans le texte) ! De cette définition imparfaite naissent plusieurs constats : l'IA n'est pas une affaire nouvelle (1956), c'est une science (mathématiques et informatique ont une bonne place dans le sujet) et c'est une affaire de logiciels (vous noterez le pluriel !). Il n'y a donc pas UNE intelligence artificielle, mais DES algorithmes d'intelligence artificielle sur lesquels les ingénieurs-informaticiens travaillent de longue date.

Pour être plus précis, nous distinguons aujourd'hui 4 types d'IA :
- Type 1 - Les machines réactives (typiquement le Deep Blue d'IBM qui a battu Gary Kasparov aux échecs) qui vont choisir une action parmi un ensemble (fini) de combinaisons possibles. Elles ont donc la capacité d'analyser un système dans un état donné et de choisir des actions parmi un ensemble d'actions réalisables compte tenu de l'état observé du système.
- Type 2 - Les machines à mémoire limitée (ou encore Artificial Narrow Intelligence). Ce sont typiquement les voitures autonomes d'aujourd'hui. Ces machines mesurent en temps réel leur environnement direct (vitesse et trajectoire des autres véhicules, vitesse et trajectoire du véhicule autonome, panneaux de signalisation, etc.) pour réagir localement de manière adaptée. Elles ont typiquement une mémoire limitée et s'intéressent à un contexte assez localisé (autour du véhicule).
- Type 3 - L'IA à « théorie de l'esprit » (ou encore Artificial General Intelligence). La théorie de l'esprit est un concept de psychologie qui implique la capacité à se figurer la manière dont un autre se représente le monde. C'est-à-dire que la machine serait capable de comprendre que nous avons des pensées et des émotions qui en retour vont affecter son comportement. Ainsi elle pourrait « penser » ce qu'un humain pense à propos d'elle-même.
- Type 4 - L'IA autoconsciente (ou encore Artificial Super Intelligence). Ce logiciel, en plus du type 3, aurait à la fois conscience d'exister, mais également conscience de sa volonté de vouloir quelque chose.

Autant casser le mythe tout de suite, les IA de type 3 et 4 n'existent pas aujourd'hui. D'après les experts, il faut attendre autour de 2040 pour les IA de type 3 (on commence seulement à explorer cela) et probablement 2060 pour les IA de type 4 ! Seules sont aujourd'hui matures les IA de type 2… ce qui n'est déjà pas si mal ! Sur les délais, notons toutefois que les progrès technologiques peuvent être beaucoup plus rapides que ce à quoi les experts s'attendent. Ainsi les tenants de la « théorie » de la singularité avancent une date autour de 2045. En fait, la seule certitude donc : aujourd'hui pas de type 3 ou 4 pour l'IA !

Enfin, comme indiqué, les IA s'appuient sur des algorithmes comme les systèmes experts, les algorithmes évolutionnistes ou encore les (vous noterez à nouveau le pluriel) fameux algorithmes de Machine learning. Aujourd'hui il y a plus d'une quinzaine de techniques de Machine learning et le fameux Deep learning n'est que l'une d'entre elles ! Vous avez par exemple le Random Forest qui utilise des arbres décisionnels pour optimiser la prévision ou encore les réseaux bayésiens qui vont avoir une approche probabiliste pour analyser les variables et leurs potentiels liens.

Le Deep learning n'est qu'une technique de Machine learning parmi plus de 15 ! (cf. figure ci-dessus).

Le gros intérêt du Machine learning c'est de ne plus avoir à décrire les objets pour permettre à l'ordinateur de les repérer, il « suffit » de les lui montrer avec des millions d'exemples. Ainsi pour apprendre à repérer (et reconnaître) des visages, Facebook a tout ce qu'il faut sous la main : des millions de photos de personnes, des tags qui associent un visage à un nom, etc. D'ailleurs aujourd'hui Facebook obtient un taux de reconnaissance d'un visage dans une photo de 97,25 %, tout proche des 97,5 % de l'humain !

Le fuel du Machine learning, c'est la data. Et ce sont les plateformes géantes du web mondial qui la possèdent ! Là-dessus, en France et en Europe, nous avons un colossal retard et rien ne prouve que la GPRD (réglementation européenne sur le respect de la donnée privée) ne favorise quoi que ce soit dans l'essor d'un « géant » européen de la data (en fait il est probable que non) !

L'IA : un marché de 46 milliards de dollars en 2020 !

Ce qu'il y a de certain, c'est qu'il y a dans l'IA des enjeux économiques très forts d'optimisation et d'automatisation des métiers et des processus, dans toutes les entreprises, pour toutes les fonctions de l'entreprise et dans tous les secteurs. Les utilisations possibles sont très nombreuses et à court terme on peut citer :
- Marketing : analyse de données online, mais aussi offline (rayons vides, clients en quête d'un vendeur, etc.), et système d'adaptation contextuelle des contenus d'affichage dynamique ; Par exemple, la société de Marketing point de vente Mediavea propose à ses clients la technologie Smart Screen qui permet d'adapter en temps réel le contenu vidéo diffusé par l'écran aux personnes en face de l'écran : âge, sexe, émotion, distance à l'écran, porteur de lunette, etc. L'IA permet cette détection et favorise ainsi l'amélioration de l'impact de la communication diffusée sur l'écran.
- Santé: dans le domaine de la santé, la société IBM propose avec Watson de nombreux outils pour accompagner les médecins dans l'amélioration de la détection de cancer et plus globalement de pathologies complexes ;
- Sécurité : avec l'analyse prédictive (ou plutôt prévisionnelle) de comportement dans les rues. En fonction de la vitesse, de la trajectoire, et de schémas de mouvement (motion patterns), il est possible de mesurer et « comprendre » les possibles intentions malveillantes d'un individu ;
- Industrie : avec la maintenance prédictive pour éviter une immobilisation trop longue de la ligne de production. Grâce à l'Internet des Objets et la remontée systématisée de données, il est possible de réaliser la maintenance d'une pièce en amont de sa casse. C'est particulièrement utile dans les gros systèmes industriels (raffineries, usines) où l'arrêt d'une ligne de production chiffre vite en des milliers d'euros de manque à gagner ;
- Finance : avec le contrôle de gestion automatisé et l'assistant du PDG (sur la base des données internes de l'entreprise et de son ERP). Les données comptables étant numérisées il est tout à fait possible de faire travailler une IA sur une démarche d'optimisation des flux financiers, de stocks, etc. ;
- RH : de la même manière, sur la base des métiers, profils recrutés, profils disponibles online, etc., une IA peut accompagner utilement sur l'optimisation des ressources humaines à disposition d'une entreprise ;
- Education : avec la promesse de l'adaptive learning, c'est-à-dire du contenu qui s'adapte automatiquement à l'apprenant en cherchant à optimiser l'apprentissage en fonction des progrès réalisés par l'apprenant.

Au total le marché mondial de l'IA s'élèvera à 46 milliards de dollars selon IDC à l'horizon de… 2020 ! Rien qu'en France, selon Accenture, cela devrait booster la productivité de notre pays de 20 % d'ici à 2035, pour contribuer à une croissance de 2,9 % ! Il y a réellement dans ces technologies un potentiel de disruption très fort et une vague importante de nouveaux entrants dans de très nombreux secteurs. Il est urgent pour les entreprises « installées » d'intégrer cette brique technologique pour en identifier le potentiel d'optimisation dans leur activité. On observe en effet une vague importante de créations de start-up sur ce sujet et en même temps une activité assez intense de rachat par les grands acteurs du digital (Google en tête sur ces dernières années).

Questions cruciales autour de l'Intelligence artificielle

Dans ces technologies, il y a de nombreuses questions clés à résoudre (qui sont les vraies craintes à date). La première et la plus globale serait : comment garantir des effets positifs au déploiement de l'intelligence artificielle ? De manière plus pragmatique, nous pouvons citer :
- Comment garantir des algorithmes justes, équitables et « humains » ? Il y a ici une véritable nécessité d'algorithmie éthique… nous n'en sommes qu'au début de la réflexion et les experts considèrent que c'est l'enjeu 2018 de l'IA !
- Quel est le statut légal d'une décision/d'une action prise par un système (logiciel ou matériel) autonome « intelligent » ? Le législateur n'a toujours pas vraiment tranché cette position.
- Comment assurer un contrôle sur l'IA ? L'IA ne « réfléchit » pas comme un humain donc ses résultats intermédiaires de « raisonnement » ne nous sont pas toujours accessibles… Comment alors contrôler efficacement son mode de raisonnement (et sa véracité) ? Par exemple sur une analyse d'image, l'humain va rechercher du sens dans les objets présents sur une photo. La machine va-t-elle analyser les effets d'ombre, les variations de couleur, de saturation, etc. pour tenter de répondre à la question qui lui aura été soumise ?
- Comment s'assurer de l'intégrité de l'IA ? Une IA est un logiciel qui apprend avec des données. La question devient alors de garantir de bonnes règles d'apprentissage, mais aussi de garantir la validité des données utilisées (stockage non altéré de la donnée, authentification forte de la source de données, etc.). Un algorithme donnera forcément de mauvaises réponses si les données utilisées ne sont pas suffisamment fiables.

Enfin, ce sujet de l'IA amène aussi à s'interroger sur la notion d'intelligence et d'humanité… pour moi, le plus gros problème de cette notion d'IA c'est son nom : intelligence artificielle.

Dans la conception des inventeurs de l’expression, le terme intelligence renvoyait plutôt à la notion d'automatisation de tâches (i.e. optimisation) incombant aux humains (apprentissage perceptuel, raisonnement critique ou encore organisation de la mémoire) avec un objectif qui consistait à imiter l'humain… Et non à l'intelligence humaine elle-même (dans toute sa complexité qu'on n'appréhende encore que bien peu tant les progrès des outils des neurosciences sont encore trop récents).

Ainsi sur certains sujets tout « en calcul » l'IA va déjà beaucoup plus vite que l'humain. Sur d'autres sujets (impliquant de l'empathie, de la créativité, de l'innovation, etc.), l'IA reste encore loin du compte à ce jour.

IA, emploi et formation

Il est clair que tous les métiers seront à terme impactés par l'IA… Tous ! En revanche l'impact n'implique pas nécessairement la disparition, mais peut être plus sûrement l'évolution du métier. Cependant le taux d'automatisation des emplois varie fortement d'un pays à l'autre pour se situer autour de 57 % dans les pays de l'OCDE.

À ce stade, il est clair que trop peu de personnes et d’organisations sont aujourd'hui IA-compatibles ! Il est encore difficile à ce stade de chiffrer le nombre d'emplois à disparaître au regard de ceux qui vont être créés dans toutes ces nouvelles spécialisations. Cependant au-delà du nombre d'emplois qui inquiète les économistes, il convient peut-être de s'interroger sur la teneur de ces emplois (et les qualifications nécessaires pour les obtenir) ! À ce stade, ma conviction : personne n'est prêt (en tout cas trop peu de monde) !

Les écoles et les entreprises se doivent de réfléchir à l'intégration de cette technologie dans leur activité. Ce faisant, elles doivent aussi imaginer les formations à développer pour amener un maximum de monde vers l'usage de cette technologie de rupture.