L’IA, ENTRE IDÔLATRIE ET DIABOLISATION

L’IA, ENTRE IDÔLATRIE ET DIABOLISATION

L’IA se pare aujourd’hui de toutes les vertus censées améliorer les performances de l’humain et des techniques numériques. Et de tous les vices dont un des piliers est la « métathésiophobie » - du grec « méta » qui signifie changement et « phobos » peur -. Cette peur du changement est récurrente lors de toute innovation non encore maîtrisée par ses utilisateurs potentiels. Elle est reliée à celle de rendre imprévisible l’impact de ces innovations technologiques, d’en perdre le contrôle et d’en être dépassé. Pour aboutir à terme à cette dystopie empruntée à la légende du Golem. Issu de la mystique juive, cet être-objet humanoïde est créé à partir de l’argile et destiné à rendre service à son créateur, jusqu’au jour où il acquiert une relative indépendance et se retourne violemment contre son maître, mu par une pulsion destructrice. Cette autonomisation des machines pourrait, de ce fait, en devenant néfaste, aborder la posture d’un dominateur doté de mil pouvoirs maléfiques. Fantasme ou réalité potentielle ?

Car l’IA est un véritable bouleversement, qui touche à la fois la société, le social, l’économique, la sphère professionnelle, les rapports de pouvoir, ceux des individus entre eux et les individus eux-mêmes, au plan psychique, cognitif, émotionnel. Et dans leurs propres capacités d’intégration et de maîtrise de l’IA. La question des inégalités numériques peut se poser ici.

L’IA s’inscrit dans cette suite logique de l’évolution techno-numérique, dont le rapport au temps – instantanéité, vitesse – a contribué à la mutation de notre propre tempo. La gestion quantitative et qualitative de masses d’informations et leur monstration a enclenché une fascination quasi addictive à l’image dont celle de soi, exposée à autrui dans ses multi-identités.
Si l’image est un vecteur omniprésent de notre rapport au monde et signe d’une reconnaissance existentielle, une digression étymologique y apporte un autre éclairage. La fascination des images peut dériver vers une addiction et une capitulation de notre pouvoir d’en maîtriser le flux, si nous ne les « regardons » pas à deux fois, avec distance et réflexivité. « Regarder » et « respecter » (son autonomie) ont la même étymologie. Il se pourrait qu’un gain en (auto)-contrôle serait aussi celui d’une consolidation identitaire et donc d’un recul des peurs. Reste à savoir si notre degré d’attention et le courage d’une pensée au temps long pourraient aider à la sauvegarde de l’esprit humain.

Bien d’autres évolutions et améliorations capacitaires verront le jour, pour faire avancer le monde par ces supports algorithmiques. Mais sans trop savoir vers où, et si nous aurons la maîtrise d’identifier leurs dérives potentielles, en vertu de quels critères et quelle nécessité éthique ? La question de l’humain est essentielle, qui oscille entre son appartenance au vivant, à l’animal et dans l’avenir à la symbiose ou l’hybridation de ces évolutions technologiques, dont les aides prothétiques appliquées au corps ont fait leurs premières preuves.

L’IA générative comporte de toute évidence des applications positives et évolutives. Pour l’instant leurs usages sont entrés dans notre vie quotidienne et pour bon nombres d’entreprises grâce aux performances de calcul et d’agrégation des big datas. Ces algorithmes accompagnent le corps médical pour des diagnostics dont la performance est souvent supérieure à celle des médecins, et la personnalisation des soins sera une avancée thérapeutique majeure.
Dans l’éducation, la rapidité et la métabolisation des informations aident étudiants et enseignants… sous condition du regard critique de leurs propres pensées. Idem pour les auteurs, sachant que les IAbooks existent déjà. Ajoutons la performance exponentielle de ces « robots pensants », qui répondent quasi immédiatement aux questions récurrentes pour en faire des réponses quasi immédiates.
« L’objectivité » de l’IA concoure avec efficacité au tri des CV pour les recruteurs, également aux fonctions de juge pour la rationalisation de leurs dossiers. Il a été démontré que le jugement humain, juges, médecins etc. pouvait être influencé par leur subjectivité, par le climat, la sensation de faim ou de satiété, par le physique même des personnes qui leur font face. Le monde du travail en est un exemple frappant. Les aides numériques remplacent en partie le travail humain et augmentent la productivité. Le secteur de la recherche scientifico-médicale et ses avancées algorithmiques semblent exemptes de crispations déclinistes sur le progrès et la science, sous condition qu’elles concernent directement la santé et ses bienfaits perceptibles à l’échelle individuelle et collective.
Si elles peuvent faire gagner du temps aux utilisateurs, le travail de finalisation informationnelle leur échoit, cf. l’accès souvent pénible à des services (taper 1,2,3…) sans forcément le bénéfice relationnel qu’apporterait l’interlocuteur humain.

Cependant il est bon d’aller voir de l’autre côté de la médaille, au temps T qui nous occupe, parce que l’i(A)nnovation s’inclut dans nos vies et tel un pharmakon, ses aspects positifs jouxtent ceux plus délétère de la confusion et de l’impuissance. Pour exemple, les expérimentations d’autonomisation des moyens de transports urbains et les processus de techno-surveillance qu’elles induisent auprès des populations, de même la transparence totale qu’induirait la personnalisation des soins thérapeutiques.
Et pour le travail des machines, une perte possible d’emploi pour des fonctions plus sophistiquées et créatives ? A voir.
Se rajoute la perte identitaire par le travestissement d’images, de voix, de visages et de corps utilisé à des fins ludiques, économiques, politiques. Également les transformations sociétales liées aux théories du complot qui fleurissent aujourd’hui. Sur ce point la notion de défiance doit être à nouveau questionnée notamment dans son rapport à la science à des fins de détournement et d’intérêts financiers. L’IA serait aux mains de créateurs-apprentis sorciers qui forgeraient pour leurs propres intérêts et d’une communauté restreinte de « sachants », les rennes d’un pouvoir politico-financier omnipotent. Mais le complotisme jouxte une réalité financière : « Ce n’est plus en centaines de milliards de dollars qu’il faut raisonner mais en milliers de milliards pour construire par dizaines les usines géantes qui abreuveront le monde en puces destinées à l’intelligence artificielle (IA). A cette défiance s’ajoute le fantasme d’une « super-intelligence » qui dépasserait les capacités cognitives des humains et influencerait pour le soumettre le devenir de l’humanité.

Mais le plus grand risque ou le plus grand danger est aussi de perdre le pouvoir et la confiance dans la capacité de se relier aux humains repérables comme tels. L’évolution qualitative des chatbots, ou dans un avenir plus ou moins proche des « humanbots », robots humanoïdes si proches physiquement et plus performants, sur tous les plans que les humains, seront-ils reliés ou ennemis ? Comment les distinguer, et à terme les intégrer dans nos vies, s’ils répondent de façon plus qu’adéquates à nos besoins ? Dans cette série, leur degré de performance tant au plan relationnel qu’à celui de l’intelligence est tel que les défenseurs des « real humans » craignent le « grand remplacement » et leur font la guerre. Sans succès, car paradoxe aidant, la mixité sexuelle et mariale se pratique avec un plaisir réciproque. La solution, dans le cas de figure de la série, serait-elle de vivre ensemble dans le partage de compétences de chacun, mais en seront-ils capables ?

Daniel Cohen, économiste décédé trop tôt, parle dans son dernier ouvrage de ce remplacement de la présence humaine par les robots boostés à l’IA générative, et grâce ou à cause de la pandémie du Covid, de ces grands bénéficiaires qu’ont été les plateformes. Télétravail, télémédecine, « Chacun a pu ainsi comprendre la visée du capitalisme numérique : réduire au maximum le coût des interactions physiques, dispenser de se rencontrer en face à face. Pour générer du rendement, il dématérialise les relations humaines, les privant de leur chair.»
Renforcer la culture numérique. Les grands opérateurs, Google, Meta… y veillent et proposent des formations pour non technophiles ou résistants aux innovations numériques. Celles de l’IA a provoqué le besoin d’amener à niveau toutes les populations, ce qui illustre bien ce qui se profile : l’intégration de tous, coûte que coûte et aussi pour le profit des grands opérateurs !

Grand bien leur fasse, mais pas forcément pour la sauvegarde de l’humain, qui risque d’y perdre sa « chair », son émotion et sa sensibilité. L’IA se niche aussi dans la rationalisation des rencontres amoureuses et sexuelles dont Tinder est un des agents favorisateurs. En un clic, passer directement à l’acte sexuel évacue et occulte la partie sensible, affective, d’un temps d’apprivoisement de l’une et l’autre parties pour que la vraie rencontre se fasse. Cette option adoptée par les adolescents n’est pas forcément la bonne voie pour leur enseigner l’existence de « l’autre », qui demande plus que du temps, une possibilité d’engagement. Eva Illouz l’illustre bien dans son essai : « Hier, le rapport sexuel marquait la fin de la cour amoureuse, aujourd’hui il est le début d’une histoire incertaine ». Et Daniel Cohen ajoute « La vie amoureuse selon Tinder devient celle du just fuck. En distinguant radicalement le sexe et le sentiment amoureux, la sexualité fait perdre la capacité de reconnaître l’autre dans son intégralité, comme une personne… ». C’est pourtant cette sphère émotionnelle, affective, celle d’un temps habité, qui peuvent préserver l’humain dans le monde qui vient.

Une autre dérive des machines est l’adhésion complotiste que permet la plateforme Tiktok, algorithme soi-disant créatif qui n’en véhicule pas moins les influences régressives de machisme, de misogynie et d’hyper-consommation, par une stratégie marketing bien ciblée notamment auprès des jeunes. Le refuge dans la défiance et le rejet, la recherche d’autorité et le binarisme excluant est une option d’expression de ces « passions tristes », reflet d’une peur de se voir déposséder de sa puissance.

La fréquentation quasi addictive des jeunes aux écrans, la délégation aux « exploits » de ChatGPT++ de leur pensée, de leur créativité, démontre et les études sur le sujet le prouvent, que « la transformation en cours fait naître un individu marqué par la crédulité et l’absence d’esprit critique ». Car le pouvoir des machines n’est pas toujours bienveillant selon l’usage qu’on en fait. Le cerveau est paresseux par nature, mais celui des jeunes n’est pas encore mature avant 25 ans pour développer le sens de la nuance, de la relativisation, le pouvoir d’une pensée propre et d’une opinion personnelle. Le degré d’attention baisse proportionnellement à la fréquentation des écrans, et les adolescents y passent au global 40% de leur vie éveillée !

Peut-on augurer d’un avenir plutôt sombre, alors que l’exploration des capacités humaines est loin d’être aboutie ? Il semble que la multitude de signes, de stimuli, d’information, semblent avoir saturé nos cerveaux. Peut-on intégrer « tout » ? Les sujets au syndrome du FOMO, cette anxiété de manquer une information importante, signe une angoisse d’exclusion sociale, ont du souci à se faire… Une pédagogie numérique permettra-t-elle de tracer des chemins de sens dans la cacophonie informationnelle qui nous habite aujourd’hui et dans les jours et années à venir, sachant que « …Depuis 2013, la masse d’information disponible double tous les deux ans » ? Ou veillera-t-elle à la réduction, voire à la dissolution des peurs par l’apprentissage des limites ? Toujours selon Gérald Bronner, la peur est captatrice de l’attention que la diffusion non régulée de l’IA provoque, avec pour conséquence le surplus de consultation de ce type d’informations et de ses illusoires antidotes. Voir à ce sujet le succès des médias dramatisants et/ou porteurs de mauvaises nouvelles, qui touchent aux zones les plus archaïques et instinctives du cerveau.

Le besoin de repères est essentiel dans le chamboulement, le bouleversement spacio-temporel du monde d’aujourd’hui, ses crises actuelles et à venir qui laissent sur la touche ceux qui n’ont pas pris le train en marche, les plus démunis de capacités cognitives, culturelle, éducationnelles, les plus poreux aux stimuli sans pouvoir en maîtriser la véracité et la quantité. Mais ces repères pourront-ils conduire à la distinction entre le vrai et le faux ? Pourront-ils empêcher la diffusion des rumeurs et l’envie d’y croire ? La question est peut-être dépassée tant est grande la fascination qu’exercent déjà ces manipulations d’images, d’identité, de visages et bien sûr d’informations. À usage de distraction pour les uns, de support d’aide professionnelle et créative pour les autres.

Un autre angle d’attaque des algorithmes est l’usage qui est – et sera - fait de nos données personnelles, car émerge l’exigence par les citoyens et consommateurs d’en avoir la propriété et les bénéfices. Dépositaires, ils voudraient recueillir leurs propres intérêts dans une relation gagnant-gagnant avec les entreprises et les institutions. Cette captation de données qui leur échappent et alimentent les big datas, si elles ne sont ni clarifiées ni rétribuables d’une façon ou d’une autre, risque de renforcer la défiance vis-à-vis de la sphère marchande dont les bénéfices financiers sont aujourd’hui visibilisés. Pour l’instant les retours se bornent à des publicités - souvent mal - ciblées et autres offres promotionnelles pas toujours avantageuses. Les progrès de l’IA en amélioreront la personnalisation, avec en mieux la maîtrise possible par chacun de ces algorithmes, par une politique de réciprocité bienvenue. La confiance pourra construire une relation plus saine et honnête entre l’offre et la demande. A suivre.

C’est ici que se pose la question de la nécessité d’une éthique essentielle et transversale à tout l’univers numérique et de l’IA. À la fois pour le devenir humain, pour celui des machines et de leur symbiose ou hybridation possible, selon les cas et par acceptation des parties.
Mais quel est le « vouloir éthique » des concepteurs de logiciels, eux-mêmes agents des grands opérateurs, jusqu’à présent ? Jusqu’où pourrait aller le pouvoir des algorithmes ? Se laissera-t-on gouverner par une petite poignée de décideurs dont les profits dépassent ceux du PIB des états ? Peut-on espérer que la complexité sans pareille du cerveau humain soit indépassable dans ses pouvoirs de création, ses capacités intellectuelles, sa palette émotionnelle, la nuance de ses sentiments, tout cela arrimé au corps humain que la machine ne possède pas, même si elle peut en imiter des expressions, sans les ressentir. Et si l’on utilise les apports bénéfiques des machines pour augmenter ses propres compétences, personnelles et professionnelles, s’ouvrira-t-on à des tâches et des fonctions plus créatives ?

Ni idolâtrie ni diabolisation de l’IA, qui n’est pas intelligente, qui ne peut comprendre et ressentir les propos qu’elle émet et les réalisations dont elle est capable. Plutôt une attitude attentionnée et exigeante des apports de l’une à l’autre partie, une posture morale volontariste, de préférence transparente, pour valoriser avant tout les possibles de l’humain.

J’ouvre ces questionnements par une citation de Milan Kundera « Ce sont précisément les questions auxquelles on n’a pas de réponse qui marquent les limites des possibilités humaines et qui tracent les frontières de notre existence. »