A quoi sert l’UNESCO ?

L’UNESCO, un machin couteux dépendant de l’ONU, s’est récemment penchée sur la question de l’Intelligence Artificielle. Et en novembre dernier (le 22), ses experts ont pondu un : « Projet de recommandation sur l’Éthique de l’Intelligence artificielle ». Je l’ai lu, laborieusement.

C’est un texte bureaucratique, rédigé par de nombreux experts, et qui a tous les défauts de ce type de production : il est sans densité ni consistance, trop long eu égard à son contenu, et sa cohérence est douteuse. Car surtout, faute de poser ses bases, et préférant lister un nombre considérable d’attendus sans intérêts, mais obligatoires, il passe à côté de son sujet et dit, assez mal, en une vingtaine de pages ce qui aurait pu l’être en quatre. On imagine bien ce que sa rédaction a dû coûter, un coût sans cohérence avec sa valeur opératoire. On est bien là dans un pur bureaucratisme stérile.

Il aurait dû, pour éviter de se fourvoyer ainsi, ne pas confondre morale et éthique, et déjà distinguer les technologies, les outils et les usages. Et s’agissant de l’Intelligence Artificielle, ne pas confondre une technologie dont la puissance fascine et effraye, les outils qu’elle permet de concevoir en nombre quasi infini, et les usages de ces outils qui effectivement, mais eux seuls, posent des questions éthiques. Le terme « d’Éthique de l’Intelligence Artificielle » ne veut donc rien dire, et force est de constater que l’UNESCO a produit ce très long texte – 27 pages dans la version à laquelle j’ai eu accès – sur un sujet mal cadré. C’est un peu comme la maîtrise de la fission nucléaire des atomes lourds, autre technologie redoutable, car d’une puissance sans humaine mesure. On a su en faire des armes de guerre qui ne sont que des « outils » destinés à tuer, mais aussi des centrales nucléaires – autres outils, mais plus pacifiques. Ce qui pose problème, ce n’est pas vraiment la technologie en soi, ni vraiment les outils qu’elle permet de fabriquer, mais leurs usages. L’IA permet ainsi de fabriquer, par exemple, des systèmes de reconnaissance faciale. Ces systèmes, ces outils ne sont pas en soi condamnables. Mais l’usage qu’on en fait aujourd’hui massivement en Chine et demain en Europe est très problématique. Développons ce point : le système communiste soviétique, pour surveiller ses citoyens, utilisait l’intelligence naturelle d’un nombre si considérable d’agents du KGB qu’il s’en trouvait dans chaque immeuble, et parfois à chaque étage. Aujourd’hui, cette intelligence humaine peut être avantageusement remplacée par des systèmes automatiques dotés d’une intelligence artificielle sans que la question éthique soit reposée dans des termes nouveaux. Car l’IA n’est qu’un moyen, puissant et neutre, pour des fins dont on peut, dont on doit questionner la dimension morale.

Cela étant compris, tout le texte apparaît comme un simple verbiage sans le moindre sens, et dont on peut contester, sur le simple registre de la logique discursive, la cohérence. Mais le déconstruire ligne à ligne pour montrer que ce texte boursouflé n’est qu’un charabia inepte, serait long et de peu d’intérêt.

 

Mais je veux bien essayer de sauver les principes évoqués à son chapitre III.2., non pas comme principes éthiques de l’IA – je viens de m’en expliquer – mais comme principes de bonne administration (avec ou sans IA). Étant au nombre de 10, je les parcours rapidement.

Principe de proportionnalité et d’innocuité : Je lis par exemple que « la méthode d’IA retenue devrait être adaptée et proportionnée pour atteindre un objectif légitime et ne devrait pas porter atteinte aux valeurs fondamentales énoncées dans la présente recommandation – en particulier, son utilisation ne devrait pas constituer une violation ou un abus des droits de l’homme ». Passons sur « l’abus des droits de l’homme » qu’un lobbyiste étatique ou commercial a dû glisser ici. Et illustrons ce premier principe par la question de l’obligation vaccinale et de l’utilisation de l’application « TousAntiCovid ».  Si le pass vacinal peut être aujourd’hui contesté, c’est précisément du simple fait que la méthode « liberticide » serait « disproportionnée pour atteindre l’objectif légitime de sauver des vies ». Et cela se discute. Quant à l’application conçue pour les téléphones portables, si elle utilise une IA, ce n’est pas son utilisation qui pose problème, mais le choix de développer cet outil et de l’utiliser dans le cadre d’un dispositif global qui a été validé en France, mais retoqué dans d’autres pays – ces derniers ayant contesté la proportionnalité des moyens au but. Et ce premier exemple montre assez que l’utilisation par les bureaucraties nationales d’un certain nombre de dispositifs attentatoires aux valeurs fondamentales humaines et aux droits de l’homme pose un problème général et profond d’éthique, mais qui n’est pas directement lié à l’utilisation de l’IA, et que le présent texte ne traite pas. Revenons à ma première comparaison. L’IA est une « bombe » atomique, mais la seule question éthique est celle de la guerre. Avec le développement des techniques liées à l’IA, le Marché et la Bureaucratie vont pouvoir continuer à détruire les droits de l’homme, mais à une tout autre échelle. Les questions éthiques se posent donc, avec une acuité sans doute plus forte, une prégnance plus lourde, mais pas différemment. Car elles se posaient déjà dans les mêmes termes avant le développement de l’IA qui, sur le plan éthique, ne pose pas de problème nouveau. L’UNESCO aurait donc été mieux inspirée à produire des recommandations sur l’Éthique des dispositifs promus par le Marché et la Bureaucratie, en arguant, dans son préambule que le développement de l’IA rendait cette question plus critique encore et justifiait l’urgence de la présente réflexion.

Je note aussi, dans ce chapitre, que « les systèmes d’IA ne devraient pas être utilisés à des fins de notation sociale ou de surveillance de masse ». La Chine, qui est membre de l’UNESCO depuis 1946, doit-elle comprendre que l’UNESCO lui conseille de développer ses outils de notation sociale et de surveillance de masse, sans avoir recours à l’IA, ce qui est techniquement possible, afin que l’éthique soit sauve ? Est-ce l’IA qui est problématique ou la notation sociale ?

 

Les principes exposés suivants sont : Sureté et sécurité ; Équité et non-discrimination ; Durabilité, Droit au respect de la vie privée ; Surveillance et décisions humains ; transparence et explicabilité ; Responsabilité et recevabilité ; Sensibilisation et éducation ; Gouvernance et collaboration multipartites et adaptatives. Toutes ces thématiques sont sensibles – il y en a d’autres. Mais la question posée, je le rappelle à nouveau, n’est pas celle de l’IA, mais bien des choix du Marché et de la Bureaucratie de s’essuyer les pieds sur les principes garants des droits de l’homme, avec ou sans l’IA. Je n’en prendrais que deux nouveaux exemples : vie privée et responsabilité.

La Bureaucratie, dont le tropisme totalitaire est une constante, viole de plus en plus systématiquement la vie privée des gens. Le recoupement des fichiers de données (numériques ou pas) et l’existence des réseaux sociaux ont renforcé ce processus ; le traitement des données collectées par une IA va encore accélérer et massifier ce viol. La loi de finances française 2020 a ainsi autorisé le fisc à aller explorer les réseaux sociaux pour y chercher des informations. C’est une disposition présentée comme expérimentale, mais l’expérience montre que ce type de disposition devient rapidement pérenne, avant de prendre une tout autre dimension ; et la CNIL n’est en la matière que le cache-sexe du pouvoir. Et il faudra beaucoup plus qu’une recommandation de l’UNESCO pour protéger un droit au respect de la vie privée dont le Marché se fout et que la Bureaucratie n’a jamais reconnu.

Sur la responsabilité – et ce sera le dernier point que je choisis d’évoquer ici – je lis encore : « La responsabilité éthique des décisions et actions fondées d’une quelconque manière sur un système d’IA devrait toujours incomber en dernier ressort aux acteurs de l’IA selon le rôle qui est le leur dans le cycle de vie du système d’IA ». Cette formulation alambiquée est à nouveau très problématique et pose la question, propre à l’IA, de la délégation de responsabilité à la machine – question non pas éthique mais morale. J’y viens donc. Et je voulais conclure précisément sur ce point capital. Toute la problématique « morale » de l’IA – et on ne confondra donc pas morale et éthique –, c’est qu’elle est capable, par définition, de décider de manière autonome, de faire des choix inattendus ou imprévisibles. Et on doit donc ici, non seulement distinguer la responsabilité « effective », causale, et la responsabilité « morale », mais surtout la responsabilité humaine et celle d’un artefact. Et c’est un problème, non pas de droit, mais de philosophie. Dans son ouvrage sur « La Quatrième Révolution Industrielle », Klaus Schwab évoque une vingtaine de points de bascule attendus d’ici 2025 ; notamment « Première machine d‘intelligence artificielle au conseil d’administration d’une grande entreprise ». Si on le suit, et au-delà de 2025, cela veut dire qu’un jour des IA pourront codiriger de grandes entreprises, et comme le modèle de ces grands groupes et leur efficacité font rêver l’administration, on peut aussi imaginer le jour où des IA codirigeront des gouvernements et pourront, par exemple, être en position de travailler contre l’homme pour protéger l’environnement. Et cela nous fera alors une belle jambe de considérer que « la responsabilité éthique des décisions et actions fondées d’une quelconque manière sur un système d’IA incombe aux concepteurs de l’IA », c’est-à-dire à l’homme ayant inventé l’artéfact. Alors que la responsabilité tout court aura été déléguée à la machine, comme c’est déjà le cas dans certains domaines (la banque, les assurances, etc.). Ces sujets, comme celui du « travail irresponsable » – la responsabilité ayant été transférée à la machine –, sont des sujets de fond. Évidemment, la recommandation de l’UNESCO n’apporte rien à ce débat, aucune réponse à cette question, aussi insoluble que celle sur le libre arbitre, de la répartition des responsabilités morales entre le délégant et le délégataire, question complexifiée ici deux fois : si le délégant est un homme et le délégataire une machine – ce qui est déjà un problème  – et si le délégataire est une administration sans visage obéissant plus ou moins à un pouvoir évanescent, l’un et l’autre, irresponsables de fait et déléguant au Marché, sans vraie transparence, la conception d’un outil qui deviendra, en bout de chaîne, délégataire de ce pouvoir de ruiner les droits de l’homme.

 

Si l’usage de l’IA ne soulève pas, en soi, de questions éthiques, on peut donc néanmoins questionner son développement sur le plan moral, comme on aurait pu questionner, sur ce même plan, une certaine forme de connaissance. L’Ancien Testament condamnant « la connaissance du bien et du mal », elle peut donc être considérée comme immorale. L’avortement, le suicide ou le clonage peuvent aussi être interdits pour les mêmes raisons. Toujours, pour des raisons morales, la manipulation génétique, la fabrication de nouveaux êtres vivants (les chimères), la fabrication de robots dotés d’organes biologiques artificiels, ou encore la création d’une véritable intelligence artificielle, peuvent aussi être interdites pour des raisons morales et afin de ne pas dépasser notre statut de créature en disputant à Dieu son statut de créateur. On pourrait aussi considérer – ce n’est pas mon point de vue – que la connaissance doit être limitée, car certains secrets n’appartenant qu’à Dieu devraient rester cachés.

La question morale posée par l’IA étant aussi, je le rappelle, celle de la responsabilité d’une intelligence mécanique – avec une forme de conscience. Car prétendre que l’IA n’est pas moralement responsable, mais que son créateur l’est, c’est considérer que chacun reste responsable de ses enfants, quel que soit leur âge ; sauf à considérer que nous sommes tous des irresponsables, notre créateur étant seul responsable des actes de l’humanité. Encore, et je m’en tiendrai là, on pourrait interdire au Marché, pour des raisons morales, tout traitement d’information personnelle non strictement nécessaire au service d’une commande, ou interdire à l’Administration toute intrusion dans la vie privée des gens. Il y a donc bien des questions morales qui se posent – et ne peuvent se résoudre que de manière binaire (autorisé ou non). Mais une fois considéré que l’IA ne pose pas de problème moral en soi, et a donc le droit d’être développée, une fois donc autorisée la création des IA, ce problème moral étant (bien ou mal) réglé, restent les problèmes éthiques liés aux outils et aux usages.

 

Dans ce même ouvrage, le Président fondateur du Forum de Davos écrit « Des algorithmes sophistiqués sont capables de créer des récits dans n’importe quel style adapté à un public donné ». Nul doute que bientôt l’UNESCO n’aura même plus besoin de faire appel à des commissions d’experts couteux pour pondre pareilles recommandations. Une IA y suffira. Comme le dit encore Schwab « plus sûre, moins chère », j’ajouterai « plus cohérent ».

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *