Salon E-Marketing Paris 2020

Evolution de l'IA : transformation des cas d'usages et futurs défis

Les défis de l'IA

L’intelligence artificielle (IA) connaît une impressionnante expansion, nourrie par de formidables promesses et des progrès technologiques constants. Ces perfectionnements permettent de repousser les limites de l’automatisation et de l’optimisation des processus. Les applications dont on pensait hier qu’elles supposent les capacités cognitives spécifiques à l’être humain, apparaissent aujourd’hui comme un degré d’automatisation supplémentaire. L’IA reste donc un outil dédié à des applications ciblées, qui reproduisent des mimiques du comportement humain sans, aujourd’hui, aucune forme de “conscience”. La diffusion de l’IA dans la société met ainsi en lumière la seule responsabilité humaine pour s’assurer de son succès, non seulement d’un point de vue technologique, mais aussi écologique, éthique et social. Nous nous interrogeons ici sur la nature de cette responsabilité et de ces futurs défis.

I – Intelligence Artificielle ?

A - Les données pour reproduire

L’IA échappe aujourd’hui encore à une définition formelle mais on s’accorde sur le constat qu’elle désigne la capacité des machines à effectuer des tâches qui, dans l’imagination collective, constituaient l’apanage de l’Homo Sapiens. La voiture autonome, la traduction automatique ou la maintenance prévisionnelle sont autant de tâches dont on suppose qu’elles nécessitent pourtant la créativité et la capacité de contextualisation propres à notre espèce. Cette ébauche de définition peut être étendue à d’autres formes d’intelligences, par exemple avec le développement de chiens robots par Boston Dynamics qui s’inspirent donc de la vie animale.

Ces tâches complexes peuvent être effectuées en apprenant à reproduire les comportements humains. Ces derniers sont capturés dans de gigantesques quantités de données qui sont traitées par des algorithmes d’apprentissage automatique. Dans ce paradigme, les systèmes cherchent à s’affranchir d’une paramétrisation par un ensemble de règles. Ils sont ainsi très versatiles et permettent de résoudre des cas d’applications variés pour de nombreux domaines comme l’industrie, la banque, l’assurance mais aussi la santé. La plupart des applications cherchent à optimiser ou à automatiser des tâches spécifiques comme l’optimisation des stocks ou la prévision de panne pour les systèmes complexes.

B - La personnalisation

La personnalisation est une promesse majeure de l'IA. Si les statistiques cherchent à décrire une population, l’IA se concentre sur l’individu en particulier. En marketing, face à un monde saturé de publicité de masse, l’IA s’efforce de cibler individuellement les actions de communication. Les algorithmes sont ainsi entraînés à faire correspondre la bonne recommandation publicitaire aux personnes qui souhaiteraient en être informées. L’objectif d’une campagne marketing n’est pas seulement mesuré quant au nombre de personnes répondant positivement mais comme ce nombre rapporté au total de personnes contactées.

Pour des applications en santé, on peut chercher, par exemple, à diagnostiquer la pathologie d’une personne spécifique et pas à l’échelle de données agrégées pour une population. La combinaison des méthodes d’IA et des équipements connectés ouvre également la porte à un suivi personnalisé. Moon est une startup qui s’inscrit dans cette optique. Elle met en œuvre des parcours patients dans le cadre d’un suivi en télésurveillance. Dans ce cadre l’application collecte des données médicales de suivi qui permettent de personnaliser le suivi et, demain grâce à l’IA, de prévenir la survenance d’événements potentiellement évitables : hospitalisation, déséquilibre glycérique fort.

II - De nouvelles données et de nouveaux domaines

A - Une IA multi sens

L’incroyable activité de recherche en IA permet d’élargir ses canaux de perception. Les progrès importants en traitement de l’image, du langage, du son ou de la vidéo permettent d’élargir la base d’apprentissage nécessaire aux algorithmes. Le traitement de ces données augmente ainsi la multiplicité des cas d’usages adressés. Ces données sont très riches. En effet, les données tabulaires sauvegardent les informations sous un format prédéfini et contraint où une colonne correspond à une information bien précise. À l’inverse, un texte libre peut exprimer de multiples informations avec une infinité de nuances !

En traitement de l’image, les méthodes développées permettent par exemple de segmenter automatiquement une image et de différencier les objets qu’elle contient. On peut ainsi identifier les voitures ou les feux rouges mais aussi les types de cellules pour les images médicales. Les cas d’usages sont nombreux : aide au diagnostic pour la lecture d'IRM, image processing pour la détection d’anomalies ou encore le développement des voitures autonomes.

En traitement du langage, la modélisation est également révolutionnée avec le développement de méthodes de représentations qui permettent aux machines de mieux capturer le sens des mots et des phrases. Ces méthodes permettent d’adresser des cas d’usages extrêmement subtils. Pour la traduction automatique par exemple, des appareils grand public traduisent des conversations en temps réel. Le développement de chatbots permet de fluidifier le service client. Enfin des services comme Google Duplex peuvent téléphoner pour réserver des restaurants de manière complètement automatisée.

B - Les données pour créer

Le paradigme de l’IA se bornait jusqu’ici à mimer les comportements humains sous-jacents dans les données utilisées. Mais certaines applications impressionnent aujourd’hui quant à leur créativité et leur originalité. Nvidia a récemment développé un algorithme capable de générer des visages particulièrement réalistes de personnes qui n’ont pourtant jamais existées. De même il est possible d’utiliser le style d’une image, un peintre renommé par exemple, et de le transférer sur une autre image comme proposé par l’outil Deep Dream Generator. En traitement automatique du langage, des programmes entraînés sur d’importants corpus de textes sont capables de générer un texte complet et cohérent sur la base d’une ou deux phrases d’introduction : un outil de démonstration est proposé par la start-up Hugging Face.

Les résultats sont extrêmement réalistes et ouvrent ici aussi la porte à de nombreuses applications. Certaines vous proposent d’essayer des produits de beauté virtuellement comme Sephora Virtual Artist ou encore d'identifier automatiquement un tableau et ceux d’un style similaire : Marty by Quantmetry. Mais certaines applications de ces méthodes sont plus préoccupantes, notamment la génération de “fake-news”. Les impacts sociétaux peuvent évidemment être nombreux, notamment dans les médias ou les réseaux sociaux pour lesquels l’utilisation de telles technologies peut influencer rapidement l’opinion. Il apparait donc nécessaire de pouvoir identifier et contrôler ce type d’utilisation.

C - De nouvelles manières d’apprendre

Les données sont le fuel principal de l’IA. Les algorithmes ont besoin de toujours plus de données pour d’améliorer. Néanmoins, les collecter est souvent laborieux et coûteux. Elles doivent être de bonne qualité et traditionnellement “labellisées”. Par exemple, les algorithmes de reconnaissance d’images doivent disposer de millions d’images pour lesquelles des annotateurs humains ont préalablement identifié leur contenu. La recherche se tourne donc naturellement vers des méthodes d’apprentissages moins coûteuses en données, on parle d’apprentissage faiblement supervisé ou auto supervisé.

De plus les applications de l’IA supposent de plus en plus de fonctionner “on-device”, de ne pas déporter les calculs sur des infrastructures dans le cloud mais de fonctionner de manière autonome sur un téléphone par exemple. Ceci suppose des modèles plus efficaces, nécessitant des puissances de calcul et de stockage réduits. Cette problématique a connu d’important progrès avec le développement d’outils dédiés aux applications embarquées. Pour la traduction automatique par exemple, l’outil Google traduction peut maintenant être utilisé sans connexion internet. Les caméras de surveillance connectées de l’entreprise française Netatmo proposent également un traitement sur l’appareil.

III - Les défis de l’IA

L’inexorable développement de l’IA et sa présence de plus en plus marquée au quotidien met en lumière ses limites actuelles. Avec de grands pouvoirs viennent de grandes responsabilités et les défis futurs de l’IA ne seront pas que technologiques mais aussi écologiques, éthiques et sociaux.

A - L'intelligibilité et robustesse

La fameuse “boîte noire” de l’IA est une préoccupation majeure pour ses développements futurs. En effet le degré d’automatisation de plus en plus important de systèmes autonomes suppose de pouvoir les contrôler. Pour les voitures autonomes, il est nécessaire de comprendre pleinement comment et pourquoi l’algorithme prend une décision. Pour le traitement automatique du langage, on observe que les algorithmes reproduisent les biais des corpus sur lesquels ils ont été entraînés. Préférant le masculin au féminin en traduction automatique par exemple. Des méthodes sont ainsi développées pour corriger ces biais et s’assurer de l’équité lors des traitements automatiques.

La nécessité de transparence est ainsi devenue une métrique de performance prépondérante. Ce point est en particulier soulevé dans le rapport Villani « Donner un sens à l’intelligence artificielle » qui le décompose sur 3 axes : la production de modèles plus explicables, la production d’interfaces utilisateurs plus intelligibles ainsi qu’une meilleure compréhension des mécanismes cognitifs sous-jacents. Notons que la communauté scientifique est divisée sur ce point, soulignant que la définition à donner à l’intelligibilité reste encore floue et que l’on exige de pouvoir décortiquer des processus que l’on ne pouvait parfois pas analyser avant de les automatiser.

En pratique cette problématique peut être adressée à plusieurs niveaux. On peut envisager de construire des systèmes hybrides entre des méthodes d’IA s’appuyant sur l’apprentissage et des IA symboliques qui s’appuient sur des méthodes de règles. Si l’IA n’est pas assez confiante dans les résultats qu’elle produit, elle peut être substituée par des règles plus intelligibles ou être redirigée vers un protocole de traitement manuel. Certains modèles, plus facilement conceptualisables par un humain peuvent également être préférés au détriment de la précision de l’algorithme. Les algorithmes à base d’arbre de décision sont ainsi plus souvent faciles à auditer que les réseaux de neurones dont les états intermédiaires sont souvent indéchiffrables, bien que la communauté de recherche soit très active dans ce domaine.

B - Écologie

Pour s’améliorer, l’IA a besoin non seulement de données, mais aussi d’une formidable puissance de calcul informatique pour les traiter. Si on estime qu’un cerveau humain a besoin d’environ 20W pour fonctionner, la consommation des cartes graphiques, nécessaires à l'entraînement des réseaux de neurones, est plus de l’ordre de 200W. On estime ainsi que l'entraînement de certains algorithmes particulièrement trapus peut émettre autant de CO2 qu’un passager pour un aller-retour Paris/San Francisco. Ces cas sont pour l’instant exceptionnels mais la démocratisation rapide de l’IA nécessite d’être particulièrement attentif à cet impact sur notre planète.

C - La confidentialité

L’IA c’est la promesse de la personnalisation. Néanmoins la clé qui permet aux algorithmes d’adapter leur réponse pour chaque individu réside dans l’utilisation de leurs données. Cette utilisation met en lumière l’importance de ces données puisqu’elles permettent d’extraire des traits personnels des individus. Les mêmes données permettent de proposer un diagnostic médical mais pourraient aussi être utilisées pour calculer une prime d'assurance par exemple. De manière générale, les données apparaissent comme des informations personnelles et confidentielles.

L’Europe se dote d’outils pour contrôler l’usage et le stockage des données personnelles : le Règlement Général sur la Protection des Données (RGPD). Ce dernier réaffirme le droit des individus à contrôler la manière dont leurs données sont traitées et oblige les entreprises à mettre en place des organisations et des procédures pour démontrer que tout est mis en œuvre pour garantir ce droit. Sur ces aspects, le RGPD inclut notamment les éléments suivants :

- Toute action de profilage doit faire l'objet d'un privacy impact assessment
- Les entreprises doivent obligatoirement informer les clients de la manière dont est traitée leur donnée et se tenir aux finalités déclarées
- Les entreprises doivent garantir transparence et loyauté de leurs traitements. L'IA "black box" peut engendrer des biais
- Le fait de promouvoir l'anonymisation des données même si en pratique, il subsiste encore un flou sur la manière de garantir l'anonymisation concrète.

De manière générale, le RGPD encourage les entreprises à mener une réflexion plus approfondie sur les usages de la donnée et de l'IA. Finalement, il encourage une plus grande transparence qui doit permettre de nouer une relation de confiance avec les citoyens.

L’intelligence artificielle que nous connaissons aujourd’hui est très différente de celle d'il y a quelques années et sera très différente de celle de demain. Cette évolution technique s’appuie sur la capacité de l’IA à traiter des données de plus en plus complexes et par des méthodes de plus en plus évoluées. L’IA permet d’optimiser et d’automatiser des applications dont on pensait hier qu’elles n’étaient réalisables que par les humains. Pourtant, sans s’approprier les capacités cognitives de notre espèce, elle ne fait que mimer des comportements spécifiques. L’humain est ainsi le seul responsable de la diffusion de l’IA et de son impact écologique, éthique et social.