Demain, nos avocats seront des IA… : La question de la moralité des IA dans le domaine juridique

img

Nous remercions Nico Heuvinck et Moritz Jörling pour leur contribution.

En Janvier 2024, l'Ordre des avocats de Paris a adressé une mise en demeure à une application d’avocats AI, exigeant que l'application soit supprimée de l'Apple store. Le fondateur se défend et argue que son application apporte de l’équité en procurant à tous la même défense, quel que soit son statut, alors que la justice n’est pas équitablement accessible à tous, notamment pour des raisons financières. En nous appuyant notamment sur nos travaux de recherche récents (Jörling et al., 2023), nous allons approfondir les questions posées par ces nouveaux développements. Alors que les recherches précédentes se penchent sur les situations dans lesquelles l’IA est bien acceptée (par exemple, pour des choix répétitifs, comme celui de son prochain film), nous proposons une nouvelle perspective : celle de savoir si les IA sont dotées de notion morale, point sur lequel les opinions personnelles divergent.

Mais qu’est-ce que l’IA et pourquoi pose-t-elle des questions d’ordre morale?

L'intelligence artificielle suscite des réactions contrastées, allant de l'admiration pour ses capacités de traitement d’un très grand nombre d’informations en un temps record, à la crainte d'une obsolescence de l'homme dépassé par la machine. L'évolution technologique progresse à pas de géant, et avec elle, l'intelligence artificielle (IA) qui s'introduit de plus en plus dans toutes les activités du quotidien, prenant part à la sphère de l’éducation, de l’économie ou du droit. Pour mieux appréhender l'impact de l'intelligence artificielle, il est essentiel de comprendre ce que c’est : une reproduction par les machines de l'intelligence humaine, leur permettant d'accomplir des tâches habituellement réservées aux êtres humains, telles que la compréhension du langage, la reconnaissance de motifs, l'apprentissage par l'expérience et la capacité à faire des choix parmi des options proposées. Cependant, l'idée de machines de plus en plus autonomes, capables de raisonner et de fournir des recommandations, soulève des questions éthiques et morales fondamentales.

La morale désigne l'ensemble des préceptes relatifs à la question du bien et du mal qui guident l’action et qui créent un équilibre entre l’intérêt personnel et le bien commun (Gert & Gert, 2017). Il y a deux formes d'attitude contraire à la morale, l'immoralité qui consiste à transgresser délibérément les règles de la morale et l'amoralité qui consiste à refuser ou nier l'existence d'une morale. La moralité est différente des maths, il n’y a pas de règles certaines et les principes sont relatifs. Par exemple, la règle de ne pas mentir n’est pas toujours le meilleur choix, par exemple cacher la vérité d’une maladie à un patient peut être conforme à la morale si cela lui permet de garder espoir et de se battre plus fortement pour guérir.

Pour savoir si les IA peuvent être considérées comme morales, nous pouvons nous interroger sur la façon dont nous apprenons la moralité. L’apprentissage dans l’enfance peut se faire en observant les actions des adultes et leurs conséquences, en étant guidé par les règles des adultes liées à des récompenses ou punitions. Au-delà de ce qui est inné il y a donc une dimension d’acquis. Nous pourrions donc admettre que l’on peut apprendre aux machines ce qui est bien ou mal avec une courbe d’apprentissage. Mais il reste des zones d’ombre comme par exemple le fait que la morale peut être une question de compromis entre des buts contradictoires (ne pas mentir mais aider un patient à guérir).

Comment se pose la question morale dans l’utilisation des IA dans le domaine juridique?

Si l’IA influence de nombreux domaines, nous examinons dans cet article un secteur en particulier qui est celui de la justice. Dans le domaine juridique, avocats et clients se trouvent parfois perplexes quant à la meilleure façon d’intégrer ces nouvelles technologies dans la pratique du droit. En effet, de nombreux débats ont émergé récemment dans la presse concernant le risque de remplacement des avocats et des juges par des machines. Ce qui nous intéresse dans l’application de l’IA dans la justice est la question liée à la moralité. Dans un secteur où les considérations morales sont cruciales, l'introduction de l'intelligence artificielle suscite des interrogations profondes quant à sa capacité à prendre des décisions justes et éthiques.

Les avocats font aujourd’hui appel à l’IA pour mener des recherches approfondies parmi une multitude d'informations concernant les personnes qui doivent être jugées et la situation litigieuse, pour synthétiser rapidement les jurisprudences pertinentes, pour suivre l'évolution de la législation sur de longues périodes, ou même pour prédire les issues de cas juridiques et répondre aux questions récurrentes des clients. Si ces applications ne posent pas de questions éthiques, c’est depuis que l'IA commence aussi à jouer un rôle dans la stratégie de défense des plaignants, que des questions surgissent quant à son intégrité morale.

Comment les individus intègrent la dimension morale dans leurs réactions aux IA?

Nos recherches récentes, menées par Moritz Jörling (en collaboration avec Nico Heuvinck, Derek Ruker, et moi-même), auprès de plus de 2000 personnes, aux Etats-Unis, ont révélé que la peur et le rejet de l'IA sont étroitement liés à cette question de la moralité. Les résultats de nos études (Jörling et al., 2023) démontrent que le degré d’attribution morale à une machine peut varier d'une personne à l'autre. Selon les expériences personnelles, les croyances culturelles, le degré de cynisme individuel ou les expériences d’interactions avec les technologies par exemple. Ainsi, certains individus pourraient être enclins à attribuer une certaine moralité aux IA, tandis que d'autres peuvent les considérer comme dénuées de toute dimension morale.

Nous avons développé une nouvelle mesure pour capturer ces différences, que nous avons appelée "technoïsme", et qui est dérivée du spécisme. Tout comme le sexisme ou le racisme, la tendance au technoisme reflète une nouvelle forme de préjugé qui conduit à refuser une valeur morale aux machines du fait qu’elles ne sont pas humaines et appartiennent donc à un groupe différent de nous (Caviola et al., 2019, p. 1011). Nous proposons et vérifions dans nos analyses que certaines personnes ont un niveau de technoïsme plus élevé, c’est-à-dire qu’elles attribuent une valeur morale faible aux technologies.

Pour comprendre les réactions concernant l’intégration de l’IA en fonction du degré de technoisme, nous nous appuyons sur l’hypothèse de la morale dominante (Goodwin, 2015) qui propose que lorsque nous formons une impression sur autrui, la dimension morale prend le pas sur la dimension de compétences. Si nous évaluons les autres principalement en prenant en compte deux facteurs clé : la compétence et la moralité, la priorité est souvent donnée à la dimension morale. Nous démontrons que plus les personnes ont un degré de technoisme élevé, plus elles vont rejeter l’intervention d’une IA dans les recommandations et prises de décisions importantes (comme le suivi d’une prescription médicale, le choix d’un investissement ou une ligne de défense dans un litige). Tout comme la moralité attribuée à un animal, dans les interactions homme-animal, influence la manière dont les individus traitent les animaux, le statut moral accordé aux technologies détermine la réaction des individus à l'aide offerte par une machine (Schmitt, 2020). Moins les individus reconnaissent une dimension de moralité à une IA, moins ils sont prêts à lui accorder leur confiance et à accepter ses recommandations.

Nos conclusions éclairent sur la façon dont les individus peuvent appréhender l'intervention de l'IA dans le domaine du droit en tenant compte de la notion de moralité. Plus les IA seront reconnues comme ayant une dimension morale, plus leur intervention dans le cours d’un procès sera acceptée.

Au-delà de la dimension morale d’une IA, quelles différences font l’intervention humaine?

Cependant, le fait que l’on reconnaisse que l’IA puisse se voir attribuée une dimension morale, ne signifie pas qu’elle va toujours faire des préconisations qui sont morales. En effet, face à un dilemme, par exemple savoir s’il est préférable d’obtenir qu’un client purge une peine de prison ou paye une amende, la réponse dépend de facteurs qui peuvent être liés aux caractéristiques psychologiques du client. La question de la moralité des IA dans le domaine juridique ne se limite pas seulement à la conformité aux normes éthiques professionnelles des avocats. Par exemple, la question de l'attribution de responsabilités peut se poser si l’on se rend compte a posteriori qu’une personne a été accusée à tort et n’aurait jamais dû aller en prison. De même, la justification des préconisations de posent comme celle de la décision d’un juge dans des affaires criminelles liée à des enjeux d’exemplarité pour la société, qui ne peuvent pas être entièrement codifiés dans un algorithme. Enfin, la relation de confiance personnelle entre avocat et client, la capacité de persuasion et les compétences en négociation font partie intégrante du métier d'avocat, des aspects qui demeurent complexes à reproduire pour une IA. Pour toutes ces raisons, bien que les IA puissent évoluer pour mieux prendre en compte des considérations morales, il semble qu'elles restent encore loin d'égaler l'expertise et l'humanité d'un bon avocat.



Référence

Jörling, M., Heuvinck, N., & de Kerviler, G. (2023). Technoism: A new form of prejudice and discrimination.

A ne pas manquer

Categories

Tags