“La relation humain-machine reste à construire” (Laurence Devillers)

Laurence Devillers est professeur d’intelligence artificielle à Sorbonne Université, affiliée au LISN-CNRS. Elle dirige également un groupe à l’AFNOR établissant des normes d’algorithmes d’IA pour soutenir les propositions de réglementation européenne. Elle est l’auteur de “Robots émotionnels : santé, surveillance, sexualité… et moralité dans tout cela ?”, Éd. L’Observatoire, 2020. (Cet article est extrait de T La Revue de La Tribune – N°7 décembre 2021)

Pixabay

L’IA peut-elle tout faire aujourd’hui ?

Bref, ça marche dans des domaines qu’on ne soupçonnait pas il n’y a pas si longtemps. Cela comprend tout, de la croissance massive des réseaux sociaux au secteur de la santé.

De plus, il faut prédire ce que fera demain l’intelligence artificielle – par exemple, offrir la possibilité de parler aux morts via des chatbots grâce au texte brut qui sera fourni à la machine. Le projet existe déjà au Japon pour aider à faire le deuil des proches disparus, mais selon la tradition bouddhiste, la période de deuil est de 49 jours. Cela pose la question de notre reportage sur ces objets. Cependant, il n’existe actuellement aucune réglementation… la société doit débattre de ce sujet, comme de nombreuses autres questions liées au déploiement des technologies numériques et de l’IA. De toute façon, il n’y aura pas de retour en arrière. J’espère que l’IA, le numérique et la technologie seront au cœur du débat pendant la campagne présidentielle, qu’il s’agisse du manque de modèles féminins sur le terrain, de la puissance des outils basés sur l’IA ou du recours à l’IA.

Pixabay

Bien que la participation des femmes à la communauté scientifique ne soit pas élevée, nous avons d’excellents chercheurs à l’Institut national des sciences et techniques du numérique (INRIA), au CNRS et au Collège de France. Cependant, ils ne reçoivent pas suffisamment d’attention dans les médias et, par conséquent, ils n’attirent pas les filles dans ces secteurs. La Fondation Blaise Pascal, dont moi-même et Cédric Villani assurons la présidence d’honneur, soutient l’enseignement des sciences des médias en mathématiques et en informatique, en particulier pour les jeunes, les filles et les groupes socialement et géographiquement défavorisés.

Les machines seront-elles dotées des mêmes capacités que les humains, y compris les capacités émotionnelles ?

Actuellement, les machines n’ont pas d’intelligence émotionnelle, ni d’intelligence collective. Elle n’a pas non plus d’intuition ni d’intention. Elle ne “comprend” pas ce qu’elle dit et ce qui affectera positivement ou négativement la personne qui reçoit le mot. Cela nous amène à une autre question, celle de la responsabilité. Le fabricant de la machine devrait-il être à blâmer ? En effet, la machine elle-même ne peut être sanctionnée, encore moins emprisonnée ! C’est-à-dire qu’avec l’aide de capteurs, la technologie actuelle peut modéliser la “sensation” d’une machine, comme la chaleur ou le froid. Nous ne sommes plus à l’ère des automates, même s’il ne s’agit que d’un système “automatique”, c’est-à-dire un système qui s’apprend tout seul. Dans ce domaine, le choix des données qui alimenteront l’algorithme est critique. Si aujourd’hui, certains éléments (dont les biais observés) sont pertinents pour les ingénieurs qui les ont programmés, on peut recourir à une approche paramétrique plus rigoureuse, d’autant plus que les biais contenus dans les données sont renforcés par l’utilisation d’algorithmes… Et ces systèmes doivent être audités lorsqu’ils sont utilisés indépendamment des comités.

Et l’IA autonome ?

La forme la plus avancée d‘intelligence artificielle, l’intelligence autonome, agissant ainsi sur des objectifs fixes sans intervention humaine, est déjà en place dans une certaine mesure. Par exemple, le robot se rend compte qu’il peut pousser quelqu’un dans un centre commercial et l’éviter. Mais en plus de cette autonomie “physique”, il y a aussi la question de l’autonomie “morale”… Par exemple, on pense à un robot, auquel on attache un but inacceptable.

Il est clair que les décisions concernant le comportement des machines doivent être laissées à l’homme, même si elles ne sont pas parfaites…

Pixabay

Faut-il apprendre à “gérer” l’IA ? En d’autres termes, comment les machines peuvent-elles nous servir dès le départ sans nous asservir ?

En plus des pouvoirs publics qui peuvent adopter davantage d’éthique, les fabricants d’IA doivent en fait développer des méthodes scientifiques – des fics, des normes et des standards pour auditer les outils tout en diversifiant la main-d’œuvre d’ingénierie – en réduisant les hommes blancs – – en particulier les personnes multidisciplinaires. Ce n’est pas le cas aujourd’hui. De plus, les citoyens doivent pratiquer une bonne “hygiène” avec les outils. Dans les relations homme-machine, le but est de développer une prise de conscience collective pour s’assurer que ces outils ne nous manipulent pas. Certains outils le font déjà, par exemple, en poussant plus d’informations sur des sujets que les utilisateurs consultent, ou en choisissant des préférences basées sur la musique passée… surtout pour certaines informations, il y a un risque d’isolement, voire de calibration radiométrique. La relation homme-machine reste donc à établir. Mais la réflexion est en cours.

Où en est la réflexion internationale sur la vie privée et la protection éthique ?

Certains chercheurs américains envient notre règlement général sur la protection des données (RGPD) adopté en Europe en 2016 concernant le traitement de l’intégrité des données et la libre circulation de ces données ! De plus, le Partenariat mondial sur l’IA, établi par le Canada et la France lors de la réunion du G7 à Biarritz en juin 2018, vise à réfléchir sur la direction que doit prendre l’IA pour œuvrer pour le bien commun. Je fais également partie d’un des groupes de travail sur l’avenir de l’IA composé d’experts d’Europe, des États-Unis, de Corée du Sud et d’Australie… Il ne s’agit pas seulement d’un déploiement commercial qui s’appuie sur l’innovation et l’IA, mais reflète l’exploration de la manière dont l’IA peut résoudre des problèmes sociaux, tels que la paix et la justice ou l’égalité des sexes, dans le contexte du développement durable de l’ONU.

Pixabay

Encore quelques années avant que l’intelligence artifielle soit utilisée à grande échelle dans nos vies quotidiennes. Et vous que pensez vous de cette nouvelle technologie ? Laissez nous un commentaire !

A lire aussi dans notre bibliothèque : 6 Films de Science-Fiction contenant des scènes de sexe

Laisser un commentaire