Le 15 février dernier a eu lieu le premier Midi-Conférence HumanIA.
Pour cet événement, nous avons abordé le sujet de l’intelligence artificielle et des pratiques artistiques en compagnie de Sofian Audry (École des médias de l’UQAM) qui nous a présenté son livre Art in the Age of Machine Learning (2021, MIT Press).
Maude Bonenfant (Département de communication sociale et publique de l’UQAM) a commenté sa présentation et animé une période de questions et de discussion.
Quatre membres d’HumanIA témoignent à titre d’experts devant la Commission des institutions de l’Assemblée nationale.
Photo: Getty Images
Les professeurs Sébastien Gambs et Marie-Jean Meurs (Département d’informatique, UQAM), Yves Gingras (histoire, UQAM) et André Mondoux (École des médias, UQAM) ont été convoqués à titre d’experts par les parlementaires dans le cadre de la Commission des institutions de l’Assemblée nationale. Celle-ci tiendra, du 12 au 14 août prochains, des consultations sur les outils technologiques de notification des contacts, leur pertinence, leur utilité et, le cas échéant, les conditions de leur acceptabilité sociale dans le cadre de la lutte contre la COVID-19.
Marie-Jean Meurs et Yves Gingras participeront à ces consultations le 12 août, tandis que Sébastien Gambs, titulaire de la Chaire de recherche du Canada en analyse respectueuse de la vie privée et éthique des données massives, et André Mondoux, directeur du Groupe de recherche sur la surveillance et l’information au quotidien (GRISQ), témoigneront le lendemain.
Les quatre professeurs consultés sont membres d’HumanIA, le regroupement multidisciplinaire de chercheurs qui s’intéressent aux enjeux sociaux et éthiques associés aux développements technologiques en intelligence artificielle, lequel est affilié au Centre interuniversitaire de recherche sur la science et la technologie (CIRST).
Dans le but de limiter la propagation du coronavirus et de guider les stratégies de déconfinement, différents pays dans le monde, dont le Canada, recourent déjà ou envisagent de recourir à différents types d’applications. Celles-ci permettent, par exemple, de partager des données de géolocalisation, de suivre les déplacements et les interactions sociales d’individus pour savoir s’ils ont été en contact avec une personne infectée par la COVID-19, ou encore d’alerter les autorités en cas de non-respect d’une consigne d’isolement, en vérifiant, entre autres, les sorties à l’extérieur du domicile.
En juin dernier, le gouvernement du Canada annonçait sa volonté d’aller de l’avant avec une application basée sur une technologie mise à la disposition des gouvernements par Apple et Google. «La consultation porte sur les applications de traçage et de notification en général, mais la mise en service par le gouvernement du Canada d’Alerte COVID donne une place particulière à cette application», précise Marie-Jean Meurs.
Dans l’éventualité d’une recrudescence des cas de COVID-19 l’automne prochain, le gouvernement du Québec devait rapidement statuer sur l’ajout d’une application de notification d’exposition à l’ensemble de ses outils de lutte contre le virus. En raison de la sensibilité des sujets touchant l’utilisation d’outils technologiques pour freiner la propagation de la COVID-19, le gouvernement estimait nécessaire de tenir un débat public.
Dans un premier temps, on a consulté les citoyens afin de mesurer leur intérêt pour une telle application et de cerner leurs préoccupations. La Commission des institutions s’apprête maintenant à entendre des experts sur le sujet afin de recueillir leurs avis sur ces applications, soupeser les risques et avantages de ces dernières, et déterminer si l’encadrement en place est adéquat.
«Sébastien, Yves, André et moi échangeons régulièrement sur le sujet, note Marie-Jean Meurs. Pour autant, chacun va contribuer à la consultation avec un avis issu de son expertise spécifique. Yves et moi intervenons ensemble pour insister sur l’approche multidisciplinaire indispensable à toute réflexion sur un sujet à la fois technologique et de société.»
Marie-Jean Meurs devient la première femme à occuper ce poste.
Marie-Jean Meurs Photo: Émilie Tournevache
La professeure du Département d’informatique Marie-Jean Meurs a été nommée directrice scientifique de Calcul Québec, un regroupement d’universités québécoises réunies autour du calcul informatique de pointe (CIP). Elle devient ainsi la première femme à occuper ce poste, pour un mandat de deux ans.
Calcul Québec dispose de centres de données hébergeant des supercalculateurs, ainsi que des équipes de spécialistes hautement qualifiés en CIP. Plus de 550 groupes de recherche et près de 1925 utilisateurs bénéficient de ces ressources pour mener des travaux de recherche dans des domaines aussi variés que la chimie, la génomique, l’étude de nouveaux matériaux, les télécommunications, le transport, les finances, la gestion du risque, les sciences de l’atmosphère ou l’intelligence artificielle. «Calcul Québec m’apparaît comme une ressource absolument essentielle pour toute la communauté de la recherche, affirme Marie-Jean Meurs. Il est primordial que l’on continue à développer ce service pour le rendre accessible à tous les champs disciplinaires.»
Le champ d’expertise principal de Marie-Jean Meurs porte sur l’intelligence artificielle et plus spécifiquement sur l’apprentissage automatique pour le traitement du langage naturel et l’analyse de données massives. Elle a fait preuve de leadership dans plusieurs projets de recherche dans différents domaines. Elle fait notamment partie du Centre interuniversitaire de recherche sur la science et la technologie (CIRST), le principal regroupement de recherche interdisciplinaire dont les travaux sont consacrés à l’étude des dimensions historiques, sociales, politiques, philosophiques et économiques de l’activité scientifique et technologique.
Ses thèmes de recherche l’ont conduite à s’intéresser à la gestion de données de recherche et à promouvoir la diffusion des travaux en accès libre. «La démarche de Calcul Québec m’interpelle particulièrement, souligne-t-elle. Les ressources mises à la disposition des équipes de recherche permettent de travailler dans des conditions qui garantissent l’indépendance et qui favorisent le partage de résultats.»
Photo de la Terre prise à une distance de 6 milliards de kilomètres par la mission spatiale Voyager 1 de la NASA. Notre planète y apparaît comme un petit point bleu pâle, traversé par un rayon de lumière. Photo: NASA/JPL-Caltech
Le 14 février dernier, les médias ont souligné le 30e anniversaire de la célèbre photo de la Terre prise à une distance de 6 milliards de kilomètres par la mission spatiale Voyager 1 de la NASA. Notre planète y apparaît comme un petit point bleu pâle, traversé par un rayon de lumière, seul au milieu du cosmos. «Voilà une image qui donne le vertige, a souligné l’astrophysicien Robert Lamontagne lors de la dernière conférence du Cœur des sciences. En présentant la place minuscule que nous occupons dans l’immensité de l’univers, elle invite à la modestie, mais elle incarne aussi la conscience que nous avons de cette place en tant qu’espèce.»
Quelque 200 personnes se sont rassemblées à l’UQAM, le 20 février dernier, pour assister à la conférence «La science désenchante-t-elle le monde?». Au cours de la soirée, les conférenciers ont soulevé plusieurs questions pour alimenter la discussion autour de ce vaste sujet. Mais ils avaient tendance à se rejoindre sur deux points. D’un côté, la science a effectivement un effet désenchanteur en dissipant les mystères qui entourent le monde. De l’autre, les découvertes de la science, que ce soit dans le domaine de l’astrophysique ou de la recherche sur le cerveau, peuvent être une source de véritable émerveillement.
Animée par Sophie Malavoy, directrice du Cœur des sciences, la conférence réunissait le professeur du Département d’histoire Yves Gingras, directeur de l’Observatoire des sciences et des technologies et membre du Centre interuniversitaire de recherche sur la science et la technologie, la dramaturge, metteure en scène et professeure à l’École supérieure de théâtre Angela Konrad, le professeur du Département de philosophie Christophe Malaterre, titulaire de la Chaire de recherche du Canada en philosophie des sciences de la vie, le chef du Département de médecine d’urgence de l’Institut de cardiologie de Montréal Alain Vadeboncoeur, ainsi que l’astrophysicien et coordonnateur du Centre de recherche en astrophysique du Québec Robert Lamontagne.
Ni mystère ni magie
Yves Gingras a ouvert le bal en citant l’un des pères de la sociologie, Max Weber, selon qui il n’existe pas, du point de vue de la science, de puissance mystérieuse et imprévisible intervenant dans la nature. «Les sciences contemporaines – sciences de la nature ou de la société – essaient de rendre compte des phénomènes observables par des concepts et des théories qui n’invoquent aucune cause surnaturelle, a expliqué Yves Gingras. C’est ce qu’on appelle le naturalisme scientifique, un postulat qui fonde la méthode scientifique. La science postule que le monde est compréhensible. Elle désenchante en rompant tous les charmes, en dissipant tous les mystères. Mais cela n’empêche pas que l’on puisse s’émerveiller devant les beautés de la nature ou devant les découvertes de la science.»
Pour nos ancêtres, qui percevaient le ciel comme la résidence des dieux et des héros, le monde était magique, a rappelé Robert Lamontagne. «On interprétait les phénomènes de la nature par l’humeur des dieux, on tentait de déterminer l’âge de la Terre en interprétant les textes bibliques, tandis que la pensée scientifique a cherché, progressivement, des explications rationnelles au moyen d’outils de calcul et de mesure, repoussant les dieux à la périphérie de la science.» Est-ce à dire qu’il n’y a plus de place pour l’émerveillement? Non, a répondu l’astrophysicien. «Nous avons découvert que nous sommes des poussières d’étoiles, au sens littéral du terme. Nous sommes faits de centaines de milliards de particules, lesquelles ont été créées dans les secondes qui ont suivi le Big Bang. Cela n’a rien à voir avec la magie, mais c’est fascinant.»
«C’est peut-être parce que nous savons que nous sommes des poussières d’étoiles, que nous venons de très loin, que nous avons tant de mal avec l’idée de la mort», a lancé la dramaturge Angela Konrad. S’intéressant aux rapports entre théâtre et science, elle a écrit et mis en scène, en 2018, la pièce Les robots font-ils l’amour?, qui aborde l’intelligence artificielle et le transhumanisme. «Proche de la philosophie, le théâtre agit comme une mise en abyme des savoirs qui irriguent la culture, a observé la professeure. Il s’intéresse aux enjeux qui concernent l’humain et sa place dans le monde.» En écrivant sa pièce, Angela Konrad a voulu témoigner des interrogations et des craintes que suscitent, sur le plan éthique, les manipulations génétiques et l’évolution accélérée des biotechnologies et de l’informatique.
Sentiment de perte
Participer à des groupes de recherche, construire des protocoles de recherche, ce n’est pas toujours enchanteur, c’est même long et laborieux, preuve que la science est un processus parfois ascétique, a noté Alain Vadeboncoeur. «Si on définit le désenchantement par le sentiment de perte d’illusions, lesquelles sont associées à des croyances erronées mais séduisantes pour l’esprit, alors oui, la science désenchante le monde et c’est tant mieux! Cela dit, les résultats de la science, eux, que ce soit en génomique ou en neurobiologie, ont de quoi nous enchanter.»
Selon Christophe Malaterre, nous associons le désenchantement à une forme de regret, à une perte de repères. «Quand la science cherche à expliquer la structure de la matière ou le fonctionnement du cerveau, cela a quelque chose de déstabilisant, surtout qu’elle touche alors des questions complexes associées à la vie, au temps et à la conscience. C’est à nous de trouver un sens à ce que la science nous dit de la nature.» L’hyperspécialisation scientifique produit aussi un effet désenchanteur, contribuant même à assécher la science, a indiqué le philosophe. «On fait face parfois à des recherches tellement pointues qu’on a du mal à les inscrire dans une perspective plus large.».
Le doute systématique
Alain Vadeboncoeur a poursuivi la discussion en rappelant l’existence en science d’un courant de pensée qui repose sur le doute systématique. «La science incite à remettre en question nos croyances personnelles et des choses que nous avons apprises depuis l’enfance», a relevé le médecin. Abondant en ce sens, Christophe Malaterre a fait remarquer que la science part de l’observation de phénomènes particuliers pour induire des règles générales. «Nous ne sommes jamais certains que cela tiendra la route pour toujours, que quelqu’un ne trouvera pas un jour un contre-exemple. Bref, il n’y a pas de certitudes en science.» Yves Gingras n’était pas entièrement d’accord. «Il y a un danger à ne pas reconnaître que des consensus, voire des certitudes, existent en science, a-t-il soutenu. Par exemple, ce n’est pas dogmatique de dire que la Terre est ronde!»
L’historien et sociologue des sciences a tenu à mettre en garde contre le retour, depuis les années 1990, de la théologie naturelle, qui consiste à voir la présence de Dieu ou du surnaturel dans la beauté et la complexité de la nature. Il a aussi critiqué une forme de néoromantisme qui oppose la spiritualité et les savoirs traditionnels et ancestraux à la science dite occidentale, ou encore la puissance de guérison «naturelle» du corps humain aux divers produits de la médecine moderne, comme les vaccins. «Est-ce que la saignée reviendra à la mode ? Est-ce que les vaccins deviendront inutiles ? Non, la saignée, c’est fini, et les vaccins ont démontré leur utilité depuis trois siècles», a conclu Yves Gingras, provoquant des applaudissements dans la salle.
Lucia Flores Echaiz s’est chargée, plus particulièrement, du chapitre sur l’IA et les droits humains et de celui sur l’IA et le genre. Photo: Nathalie St-Pierre
Dans le cadre de sa maîtrise en droit, Lucia Flores Echaiz s’est rendue à Paris l’hiver dernier pour effectuer un stage au siège de l’UNESCO. Son mandat : collaborer à la recherche et à la rédaction d’un rapport sur l’intelligence artificielle (IA). L’étudiante s’est chargée, plus particulièrement, du chapitre sur l’IA et les droits humains et de celui sur l’IA et le genre. Des sujets sur lesquels elle avait déjà une longueur d’avance puisque son mémoire, dirigé par le doyen de la Faculté de science politique et de droit, Hugo Cyr, porte sur la discrimination liée à l’intelligence artificielle. Intitulé Piloter l’IA et les TIC avancées pour les sociétés du savoir, le rapport est paru en novembre dernier.
Pour Lucia Flores Echaiz, l’expérience au siège de l’UNESCO a été enrichissante à plus d’un point de vue. «C’était intéressant de voir comment se déroule une recherche dans une organisation internationale, remarque-t-elle. Nous avions une très bonne collaboration entre les cinq auteurs du rapport, mais il fallait composer avec la bureaucratie onusienne et avec la sensibilité de certains États sur des enjeux comme le genre et les communautés LGBTQ+.»
En plus de nourrir sa recherche de maîtrise, le stage s’est avéré une excellente initiation au jeu diplomatique. «Malgré les contraintes, nous disposions d’un espace de liberté pour pousser des choses qui nous semblaient importantes, confie l’étudiante. Par exemple, le chapitre sur le genre, c’était mon idée et j’étais contente d’avoir réussi à la faire accepter.»
Le chapitre sur l’IA et les droits humains porte plus spécifiquement sur les questions qui intéressent l’UNESCO, indique Lucia Flores Echaiz : liberté d’expression, accès à l’information, confidentialité des données et développement des médias, notamment. «Les effets de l’IA sont multiples, observe-t-elle. Ainsi, sur les réseaux sociaux, le microciblage rendu possible par les algorithmes fait en sorte que tout le monde ne reçoit pas la même information. L’exposition des utilisateurs à un pluralisme d’idées s’en trouve affaiblie. Par ailleurs, les systèmes automatisés de modération en ligne utilisés pour bloquer des contenus incitant à la haine et à la violence peuvent aussi engendrer une forme de censure, comme on l’a vu avec des œuvres d’art supprimées de Facebook parce qu’elles contenaient de la nudité.»
Discriminations multiples
Différentes formes de discrimination peuvent s’exercer à travers les algorithmes, mentionne l’étudiante. Ainsi, le rapport fait état de publicités ciblées qui avaient tendance à proposer des emplois plus prestigieux et mieux payés aux hommes plutôt qu’aux femmes. Dans un autre cas, même si les créateurs de l’algorithme n’y étaient pour rien, on s’est aperçu qu’un logiciel de recrutement accordait moins de valeur aux C.V. provenant de femmes, tout simplement parce qu’il avait été rodé sur la base de C.V. masculins.
«Il peut y avoir des biais introduits par les programmeurs eux-mêmes, mais ce n’est pas si fréquent, dit Lucia Flores Echaiz. Le plus souvent, les biais sont engendrés par les logiciels d’apprentissage automatique (machine learning). Ces logiciels requièrent beaucoup de données pour fonctionner. Or, les données qu’on leur fournit reflètent les nombreux biais discriminatoires que l’on retrouve historiquement dans nos sociétés.»
Les outils utilisant l’IA peuvent être inégalitaires de plusieurs façons. Ainsi, les systèmes de reconnaissance faciale enregistrent leur plus haut taux de succès avec les hommes blancs. Ils fonctionnent beaucoup moins bien avec les visages de femmes noires. Ils peuvent, par ailleurs, s’avérer problématiques pour les personnes transgenres. Pour éviter ce type de discrimination, «il faudrait s’assurer que les systèmes d’IA respectent les critères d’égalité de genre et de diversité dès leurs premières phases de développement», note l’étudiante
Tous les cas de discrimination engendrés par l’IA ne sont pas d’égale gravité. «Les recommandations de films ou de séries biaisées selon le genre (ou d’autres caractéristiques personnelles) d’un outil de divertissement comme Netflix n’ont pas les mêmes conséquences que les résultats d’un logiciel de prédiction de la récidive utilisé pour accorder ou non une libération conditionnelle», observe Lucia Flores Echaiz. Aux États-Unis, ce genre d’algorithme utilisé dans le système carcéral défavorise les personnes noires, auxquelles il accole un plus haut potentiel de récidives.
Survalorisation de l’objectivité de l’IA
«On a souvent l’impression que les systèmes d’IA sont plus objectifs que l’humain, remarque l’étudiante. Le rapport met en garde contre la survalorisation de la neutralité et de l’objectivité de ces systèmes, qui peuvent, au contraire, servir à reproduire et à renforcer des inégalités.»
Lucia Flores Echaiz souligne aussi le caractère insidieux des discriminations engendrées par l’IA. «Dans le cas de la publicité, ce n’est pas un logiciel ou un site web en particulier qui est en cause, mais une pratique généralisée consistant à nous exposer à des messages ciblés en fonction de caractéristiques personnelles. Or, on va rarement se plaindre contre des publicités qui nous ciblent!»
Concernant la reproduction des stéréotypes sexuels, le rapport contient également une section sur les assistantes vocales telles que Siri (Apple), Alexa (Amazon), Google Assistant (Google) et Cortana (Microsoft).« Dotées de voix féminines et de personnalités dociles, ces assistantes contribuent à véhiculer des préjugés sexistes», affirme l’étudiante. À titre d’exemple, elle cite une étude qui a porté sur les réponses des assistantes vocales à différents commentaires à connotation sexuelle. À un commentaire carrément insultant (You’re a slut), Siri répondait, jusqu’à ce que ses programmeurs corrigent le tir: I’d blush if I could («Je rougirais si je le pouvais»)!
Dans le même esprit, Lucia Flores Echaiz s’est aussi intéressée aux robots sexuels. Le marché de ces robots (des poupées sexuelles qui parlent à la manière des assistantes vocales) est en pleine expansion, soulevant de nombreuses questions quant à la reproduction des stéréotypes sexuels. Une campagne (Campaign against sex robots) a même été mise sur pied par la professeure d’éthique Kathleen Richardson, de l’Université De Montfort, en Angleterre, pour les interdire, signale l’étudiante. «Nous ne prenons pas cette position, dit-elle. Le rapport propose plutôt une réflexion sur le sujet. Nous croyons qu’il serait possible de développer des robots qui ne reproduiraient pas ces stéréotypes, même si, pour l’instant, ce n’est pas le cas.»
Lucia Flores Echaiz précise que le rapport a été rédigé selon le cadre ROAM (DOAM en français) de l’UNESCO pour l’universalité de l’internet, adopté par les États membres en 2015. Ce cadre prévoit que les questions relatives au développement de l’IA et des TIC avancées sont examinées sous l’angle des droits humains, de la transparence et de l’accès, et que les actions proposées tiennent compte d’une approche multipartite incluant les États membres, le secteur privé, le milieu académique, la société civile et l’UNESCO.