Peurs et bonne attitude face à l’IA

Interview

Souleil Hanoune est Directeur R&D de XXII Group. Il est titulaire d’un doctorat en Intelligence artificielle et robotique.

Survey-Magazine : Quelles sont les peurs liées à une technologie comme l’IA ?

Souleil Hanoune : Depuis toujours, les technologies, les sciences et leurs avancées génèrent des inquiétudes et des peurs de la société. En effet, elles évoluent vite, et entraînent ainsi des peurs justifiées ou non en fonction des cas. Les principales sciences et technologies aujourd’hui qui peuvent provoquer ces réactions sont l’intelligence artificielle, la robotique, la génomique et les nanotechnologies. Ironiquement, ce sont les techniques qui ont à ce jour le plus fort potentiel d’améliorer la vie sur notre planète et de faire évoluer notre espèce. Nous pouvons identifier deux racines différentes à ces peurs, celles issues de l’inconnu lié à la technologie ou à la science en elle-même, et celles liées à son impact sur la société et sur nos vies de façon générale.

La première catégorie est le résultat d’un manque de connaissances et « d’éducation » par rapport aux nouvelles technologies et aux avancées scientifiques, ce qui semble normal étant donné que ce sont des techniques de pointe. Néanmoins, lorsque celles-ci commencent à avoir des résultats visibles et qu’une communication, pas toujours très informée, se créée autour, une peur de l’inconnu apparaît. Il y a également des peurs qui sont communiquées par les médias, consciemment ou inconsciemment, ou par des personnalités médiatiques. Ce manque d’éducation peut exacerber les amalgames qui apparaissent alors : dans les années 60, la société avait peur des robots alors que c’était de la mécanique sans intelligence, de la même façon, aujourd’hui, on a peur de l’intelligence artificielle comme si c’était une puissance incontrôlée. Cette image est historiquement issue de notre culture cinématographique qui a montré l’IA comme une menace, et ce terme « IA » est devenu synonyme de danger. C’est effectivement le cas dans Matrix ou encore Terminator, mais nos intelligences artificielles d’aujourd’hui sont plus proches d’algorithmes évolués que d’intelligence humaine, dans le sens où elles ne sont pas douées d’émotions ou d’âme et ne peuvent pas encore développer leur propre langage.

La deuxième source de peurs est l’impact que cela peut avoir sur notre société, notre travail, notre capacité à subvenir à nos besoins, etc. Ces peurs – là sont en partie justifiées. En effet, pour la première fois dans notre histoire, un ensemble de technologies a le potentiel d’automatiser une grande partie de la force de travail des humains. Si nous imaginons une stagnation de la société dans les vingt prochaines années, plusieurs secteurs seront effectivement en danger. C’est effectivement exactement le point où un débat informé rentre en jeu pour décider de la direction à prendre en matière d’éducation, d’enseignement, d’économie, mais sûrement pas sur l’aspect scientifique ou technique. La question n’est pas de savoir si ces techniques vont apparaître dans nos vies puisqu’elles le sont déjà, elle est davantage de savoir comment va-t-on en faire un monde meilleur.

L’IA exacerbe-t-elle encore plus ces peurs ?

Si nous adressons plus particulièrement l’intelligence artificielle, elle peut exacerber encore plus ces peurs, cela dépend tout simplement de quel point nous l’abordons. D’un côté, l’IA n’exacerbe rien car nous parlons de peurs systématiques avec toutes les avancées technologiques. Il en a par exemple été de même lors de la révolution industrielle ou encore de l’avènement d’Internet. D’un autre côté, l’IA intensifie certaines craintes car elle a été présentée dans notre culture avec un aspect plutôt négatif, renforçant cette peur de l’inconnu, à commencer par les spéculations et l’image dévastatrice diffusées dans les films et les médias, comme dans Terminator.

Au-delà, il y a un vrai manque d’éducation et de connaissances, ainsi que plusieurs amalgames et raccourcis qui sont fait sur l’IA. Alors que la majorité des peurs concerne les intelligences artificielles dites fortes, aujourd’hui nous n’avons que des intelligences faibles. Nous n’avons aucune idée s’il sera possible un jour d’atteindre la notion d’IAs fortes tout comme nous n’avons aucune idée de ce qu’est la conscience, la construction de la personnalité, la construction de la connaissance, etc. Nous pouvons imaginer l’IA aujourd’hui comme la physique de la fin du 19ème siècle : nous croyions avoir ce dont nous avions besoin, puis quelques années plus tard nous avons découvert la construction de la matière, la mécanique quantique et la relativité, puis à nouveau une décennie plus tard une nouvelle théorie de la gravité est apparue, nous donnant du travail pendant un siècle pour vérifier toutes ces prédictions. Il en est et va en être de même pour l’IA.

Quelle attitude les professionnels des études et du marketing devraient-ils adopter ?

Pour aider à cette évolution et surtout à la formation et l’éducation autour de l’IA, il est important de commencer par s’informer de façon volontaire et informer les autres. Il faut expliquer que nous ne parlons pas du tout d’intelligences artificielles qui peuvent prendre le contrôle sur quoi que ce soit. Les IAs sont des algorithmes qui peuvent résoudre des problèmes d’une nouvelle manière, nous ouvrant des portes et un potentiel sans précédent, mais elles ne connaissent toujours pas la notion de chaise. Dans un second temps, il est crucial d’arrêter de conduire la peur véhiculée dans les médias et par conséquent de voir l’IA pour ce qu’elle est : une aide, un assistant professionnel, des compétences supplémentaires qui vont pouvoir automatiser et améliorer le travail de l’homme. Enfin, il est essentiel d’éduquer les professionnels et le grand public sur cette technologie et de ne pas ignorer l’impact que cela va avoir sur la société. Il faut forcer le changement sociétal qui passera par l’éducation et la formation, faisant de ces technologies un moteur pour la société et non un frein conduisant la peur.